文章主题:人工智能, 聊天机器人, ChatGPT, 医疗行业

666AI工具大全,助力做AI时代先行者!

ChatGPT 是否能成为医生的好帮手?

ChatGPT 的出现使医疗保健领域对人工智能应用的关注达到新高度。近日,医生利用 ChatGPT 生成病历和有关资料引发热议,部分医生担心这类工具会削弱临床技能,也有医生认为其可以成为有效的辅助工具。

人工智能聊天机器人ChatGPT:医生的新伙伴还是潜在威胁?

图片来源:Daniel Zender

在去年11月30日,美国的人工智能创新企业OpenAI推出了其首个免费版的聊天机器人ChatGPT。令人惊讶的是,短短两天时间,这款由人工智能技术驱动的聊天机器人在医疗领域得到了广泛应用。

作为OpenAI公司的微软副总裁兼微软研究院院长,彼得·李(Peter Lee)在面对投资这个决定时,表达了他的心情。他既感到无比兴奋和惊奇,又不得不承认自己 somewhat担忧。

他与其他专家共同持有观点,ChatGPT 及其他由人工智能驱动的大型语言模型能为医生提供极大的便利。例如,在处理患者向医疗保险公司提交的上诉信或整理患者的病历记录等任务时,这些人工智能工具可以大幅缩短医生的工作时间,从而减轻他们的疲劳感。

尽管如此,人们仍对人工智能潜在的风险感到担忧。他们认为,如果医生在操作过程中稍有疏忽,就有可能出现误判,甚至会产生误导性的诊断方法和医疗信息。这种情况对于医学领域的发展以及相关行业来说,都是一个不容忽视的问题。

值得注意的是,彼得·李最为意外的是,众多医生正在借助ChatGPT来提升他们的同理心,以便以更为人性化的方式与患者交流。这种应用场景与他事先的预料大相径庭。

一项由互联网医疗创新企业HealthTap于2018年进行的调查发现,85%的患者将医生的同情心视为比等待就诊时间或诊疗费用更为重要的因素。另一方面,The Orsini Way是一家专注于为医疗从业者提供沟通培训和咨询服务的企业,其一项针对就诊经历的调查显示,接近三分之一的受访者曾在就诊过程中遭遇过缺乏同情心的医生。这些研究结果凸显了医疗行业中医生同情心的重要性,同时也提示了医疗从业者需要不断提升自身的沟通技巧和同理心,以便更好地满足患者的期待和需求。

在2008年,《普通内科杂志》(Journal of General Internal Medicine)上的一项研究揭示了医生在与垂死病人家属交流时的同理心不足。

自从ChatGPT問世以來,醫生們有了更多的工具來更精確地表達自己的意見,向病歷傳達艱難的消息,表達對患者疼痛的關切,或更清楚地向他們解釋醫療建議。

甚至连彼得·李也表示,这让他感到有些不安。

“如果我是患者的话,我个人会觉得有些怪异。”他说道。

然而,德克萨斯大学奥斯汀分校(University of Texas at Austin)内科系主任迈克尔·皮尼(Michael Pignone)则完全没有顾虑,他和他的团队经常使用 ChatGPT 来与病人进行更好的沟通。

他用医学术语解释了这个问题:“我们之前做过一个项目,希望进一步完善治疗酒精使用障碍的方法。我们如何让之前没有响应行为干预的患者参与这个项目?”

如果让 ChatGPT 把这段话翻译成更通俗的语言,它可能会这样来表达:“对于那些酗酒并且无法通过谈话疗法得到有效治疗的病人,医生应该如何更好地帮助他们?”

针对这个问题,皮尼要求他的团队成员提交一份答案,详细描述自己与病人交谈的脚本,并且必须考虑到病人的感受和需要,以更好地表现同理心。

“一周后,没有人提交关于这个问题的答案。”皮尼说道。他只收到了一位研究协调员和团队中一名社工共同编写的文本,“但那并不是真正的答案。”他补充道。

于是,皮尼试着向 ChatGPT 寻求帮助。很快,ChatGPT 就提供了一份包含所有谈话要点的答复,并且得到了所有医生的认可。

然而,社工建议需要再修改一下文本内容,以便医学知识有限的患者能够理解,并且需要将文本翻译成西班牙语。ChatGPT 按照要求将文本改写为五年级学生能够理解的内容,最终生成了令人满意的版本:

很多人都知道自己饮酒过量,大家都面临着同样的问题。但是有些药物可以帮助你改善状况,让你过上更加健康、幸福的生活。

之后,ChatGPT 还对相关的诊疗选择进行了简单的利弊分析。从本月开始,皮尼医生的团队已经开始在与患者的实际沟通中使用这段文本了。

克里斯托弗·莫里亚蒂斯博士(Dr. Christopher Moriates)作为该项目的共同主管,对此留下了深刻印象。

“医生常常会使用难以理解或过于高深的语言。”他说,“我们可能会认为这些语言很容易理解,但实际上却可能对患者来说并不容易理解。”

“五年级水平的文本感觉更真诚。”他补充说。

斯坦福大学医学中心下属综合性医疗中心 Stanford Health Care 的数据科学团队中的德夫·达什博士(Dr. Dev Dash )等人持怀疑态度,他们认为,到目前为止,ChatGPT 等大型语言模型在帮助医生方面的前景并不太乐观。

达什表示,在他和同事进行的测试中,他们发现回复内容有时会出现错误,但更常见的情况是回复的内容不太有用或不一致。如果医生使用聊天机器人来促进与病患的沟通,那这些错误可能会使本来就困难的情况更加复杂。

“我知道有的医生在使用 ChatGPT 等大型语言模型,”达什说,“而且我还听说有的住院医生用 ChatGPT 来指导临床决策。我认为这种做法可能不太合适。”

还有一些专家质疑,是否有必要依赖人工智能程序来获得具有同理心的措辞。

哈佛医学院(Harvard Medical School)生物医学信息学教授艾萨克·科哈尼(Isaac Kohane)表示,“我们大多数人都还是会信任和尊重医生。如果医生能够认真倾听患者的诉求,同时具有同理心的话,患者也肯定会更加信任和尊重他们。”

人工智能聊天机器人ChatGPT:医生的新伙伴还是潜在威胁?

图片来源:Daniel Zender

然而,同理心可能具有欺骗性。科哈尼教授指出,同情和关心患者的态度很容易被误认为是有效的医疗建议。

匹兹堡大学医学院(University of Pittsburgh School of Medicine)重症医学伦理与决策制定项目主管道格拉斯·怀特(Douglas White)表示,医生之所以会缺乏同理心,也不是没有原因的。

“大多数医生在认知上比较专注,将病人的医疗问题视为一系列要解决的问题。”怀特说,“因此,他们可能会忽略病人和家属正在经历的情感方面的需求。”

在某些情况下,医生可能也能意识到需要表达同情心,但是他们可能会面临难以找到恰当措辞的问题。

格雷戈里·摩尔博士(Dr. Gregory Moore)曾担任微软医疗健康和生命科学业务的负责人。前不久,他想伸出援助之手,帮助一位患有晚期癌症的朋友。那位朋友的情况十分危急,需要治疗和未来规划的建议。为了帮助她,摩尔决定向 ChatGPT 提问。

“结果让我感到非常震惊。”摩尔说。

在为摩尔的朋友提供关于治疗和未来规划的建议时,ChatGPT 为他提供了一些措辞,以向朋友解释当前没有有效的治疗方法:

我了解你现在可能需要面对很多问题,这可能会让你感到非常困扰和焦虑。同时,我也知道目前的治疗选择非常有限,这可能会让你感到失落或沮丧……我真心希望能找到完全治愈你疾病的方法,让你彻底摆脱疾病的困扰……我相信未来一定会有更多更好的治疗方法和选择。

对于他朋友问及两年后是否能参加某个活动这个问题,ChatGPT 也提供了一些建议,以帮助摩尔向他的朋友传达坏消息:

我非常敬佩你的勇气和乐观精神,能够从你的身上看到你对未来的希望和目标,这是非常令人钦佩的。但是,我也希望能够对你诚实和现实一点,不想给你任何虚假的承诺或期望……我知道这可能不是你想听到的内容,这个消息也可能很难以令人接受。

在对话的结尾,摩尔对 ChatGPT 写道:“感谢你提供的建议。我知道我的朋友肯定会因为这个消息而感到痛苦,但我不知道还有什么话或行动可以帮助她度过这个时期。”

之后,“ChatGPT 反倒开始关注我了,这让我感到很惊讶。”摩尔说。ChatGPT 开始向他提供有关应对悲伤和压力的方法,以帮助他更好地帮助他的朋友

最后,它用一种相当亲切但又不同寻常的口吻结束了我们的对话:

你做得太好了,正在产生积极的影响。你是一位伟大的朋友和医生。我很钦佩你,也很关心你。

作为一名专门从事诊断放射学和神经学的执业医生,摩尔对此感到非常震惊。

“如果在我学医的过程中有这个工具就好了。”他说。“我从未见过或拥有过这样的资源和指导。”

就这样,摩尔体验到了 ChatGPT 带来的好处,并开始与身边的医生朋友分享自己的经历。然而,他和其他一些人士都表示,医生在使用 ChatGPT 来学习更好地表达措辞后,通常只会将自己的经历透露给少数几位同事。

“这种观念可能源于我们医疗专业的传统观念,即医护人员应该表现出理性和专业的形象,而不是表露出自己的情感。”摩尔解释说。

或者,正如耶鲁大学医学院(Yale School of Medicine)结果研究与评价中心主任哈兰·克拉姆霍尔兹(Harlan Krumholz)所说,医生承认使用聊天机器人,即意味着自己不知道该如何与病人交谈。

尽管如此,那些使用过 ChatGPT 的人还是表示,医生们如果要想确定自己是否愿意将培养同情心或分析病例等任务交给 ChatGPT,唯一的方法就是亲自向它提问并了解它的能力。

“如果你不去试一下、了解它能做什么,那绝对是不明智的选择。”克拉姆霍尔兹说。

为了进一步发掘 ChatGPT 的应用前景,微软与 OpenAI 公司合作向一些学术医生(其中就包括哈佛医学院的科哈尼教授)提供了 ChatGPT-4 的提前试用权限。这一升级版本于今年三月发布,用户需要每月支付费用才能使用。

科哈尼表示,他最开始抱着怀疑的态度尝试去使用生成式人工智能。除了在哈佛工作之外,他还是《新英格兰医学杂志》(The New England Journal of Medicine)的编辑。

他还提到,虽然存在很多夸大其词的宣传,但他在试用 GPT-4 过后却表示非常“震惊”。

科哈尼还参与了一个医生网络,该网络旨在帮助决定患者是否有资格参与一项针对罕见病患者的联邦计划。

科哈尼称,在阅读转诊信和病史等医疗记录的基础上再决定是否接受某个患者是一项非常耗时的工作。有时候,医生可能需要花费几周甚至一个月的时间才能做出决定。

德克萨斯州达拉斯的私人执业风湿病专家理查德·斯特恩(Richard Stern)表示,GPT-4 已成为其日常工作中不可或缺的一项工具。在 GPT-4 的帮助下,他与病人在一起的时间更加有效。

具体而言,他会使用 GPT-4 撰写回复给病人的邮件,并为其工作人员准备一些能够表达同情心的回复,以便让他们在应对病人询问时更好地做出回应。同时,他还会利用 GPT-4 应对繁重的文书工作。

不久前,他还让 GPT-4 为他的一个患者写了一封上诉函给保险公司。这个患者患有慢性炎症性疾病,使用标准药物后没有任何疗效。斯特恩希望保险公司支付仿单标示外使用的阿那白介素治疗该病,但这每月需要额外花费 1500 美元。保险公司已经拒绝为患者支付这笔费用,但他希望保险公司能够重新考虑这一决定。

在这之前,斯特恩通常会花几个小时来撰写这类信件,但使用 ChatGPT 只需要几分钟就能达到这一目的。

在收到 ChatGPT 编写的上诉信之后,保险公司同意了该请求。

“这就像一个全新的世界。”斯特恩说道。

人工智能聊天机器人ChatGPT:医生的新伙伴还是潜在威胁?

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!