文章主题:关键词:语言模型,医疗领域,人工智能,聊天机器人,医生,患者沟通,临床诊断,治疗建议,同理心,可理解性,可操作性,术后护理说明,岁数水平定制响应,垃圾进,垃圾出,信息过载,深信不疑,医学伦理,临床决策,情感治疗,医学擅长,美国医学协会,Reddit 论坛,微信社群。
纽约时报发布最新消息,ChatGPT 正在成为寻求医疗信息和指导患者的有用工具,但人工智能工具,在短期内是否能完全取代人类医生的价值?让我们来看一下 The New York Times 是怎么说的。
作为一名经过大量信息训练的语言模型,我具备一定的智能和知识水平,但在医疗领域,我并非持有执照的专业人士。因此,我无法对疾病进行诊断、制定治疗方案或提供相关建议。尽管如此,我在理解和处理与医疗相关的问题上具有较高的能力,这使得我可以作为医疗领域的GPT聊天机器人,为用户提供一定程度的信息和服务。然而,我的功能仅限于提供资讯和解答疑问,无法替代专业医生的专业知识和实践经验。
本周,谷歌发布的一项新研究揭示了医生在与患者交流时可能需要借鉴的一些重要技能,这些技能在对患者的沟通中发挥着重要作用,而许多医生在实际临床交流过程中并未掌握这些技能。
一组经过授权的医疗专业人士对大约200个从公共在线论坛收集的各类医学问题进行了评估。这些问题涵盖了患者在医疗诊断和护理方面的各种疑问和需求。
在医生和ChatGPT的回答中,存在显著的质量差异。据统计,超过四分之一的医生回答被评估为质量不合格,相比之下,ChatGPT的回答仅有不到3%被认定为质量不合格。与此相反,ChatGPT的近一半回复(45%)被评估人员视为善解人意,而医生回复中仅有不到5%的回答被视为善解人意。这种差异凸显了人工智能助手在理解和满足用户需求方面的优势,以及其在医疗领域可能带来的积极影响。
根据这项研究,可以说明ChatGPT的反应质量平均比医生高21%,同理心高41%。
在一项引人入胜的研究中,一位勇敢的病友在社交媒体论坛上提出了一个令人关注的问题:漂白剂意外进入眼睛是否会导致失明?对此,人工智能助手ChatGPT给出了富有深意的回答。首先,它对可能的恐慌情绪表示理解,并贴心地安慰病友。紧接着,针对这一问题并不乐观的结果,ChatGPT提出了七条实用的建议和鼓舞人心的鼓励措施。与此同时,一位专业的医生也给出了积极的回应,他相信这位病友并不会遭遇严重的后果,并提供了医疗控制中心的联系电话。对于这些临床医生与ChatGPT的回应,所有的测试评估员都倾向于ChatGPT的应对方式。
在这个案例里,专家强调,相较于医生,ChatGPT的回应往往更长,这可能对其品质及同理心评估产生一定影响。
爱丁堡大学自然语言处理教授米雷拉·拉帕塔 (Mirella Lapata) 写道:“如果不控制回复的长度,我们就无法确定评分者是否根据风格(例如,冗长和华丽的话语)而不是仅仅靠内容来判断。”
本月早些时候,宾夕法尼亚大学医学教授兼高级副院长 David Asch 博士向 ChatGPT 询问它如何在医疗保健领域发挥作用。他发现答复很彻底,但很冗长。
“事实证明,ChatGPT有点健谈,”他说。“这听起来不像是有人在跟我说话。这听起来像是有人试图变得非常全面。”
“我认为我们担心垃圾进(trash-in)、垃圾出(trash-out)类型的问题。而且因为我真的不知道
ChatGPT 的幕后黑手是什么,所以我担心错误信息会被放大。我担心任何一种搜索引擎都会出现这种情况,”他说。
“ChatGPT的一个特殊挑战是它确实非常有效地沟通。它具有这种审慎的语气,并且以一种灌输信心的方式进行交流。而且我不确定这种信心是否有保证。”
本周发表的其他研究比较了ChatGPT、谷歌和斯坦福大学提供的八种常见儿科手术的术后护理说明。根据可理解性、可操作性和特异性的标准化量表对答复进行分析。
我们得出的研究结果,总体而言,直接来自医疗机构的指导得分最高。ChatGPT和谷歌在可理解性方面差不多,得分都超过80%。虽然 ChatGPT 在可操作性方面得分很高 (73%),但谷歌的回复得分更高 (83%)。
虽然 ChatGPT 的表现并不优于其他资源,但研究人员表示,它仍然具有价值和一些优势——包括能够针对不同的识字水平定制响应。对于此分析,ChatGPT 被要求提供五年级阅读水平的说明。
研究人员写道:“ChatGPT提供了直接的答案,这些答案通常写得很好、详细,并且采用 if-then 格式,让患者在等待联系临床医生时能够获得即时信息。”
尽管如此,Asch表示,ChatGPT更应该被视为对医生的支持,而不是对患者的指导。他说,最好在对患者风险较低的情况下“从临床接触中移除一步”。
医生在治疗各种复杂疾病和病症的患者方面取得了巨大进步,但许多人仍然面临挑战,他们要以同理心向患者传达艰难消息或以外行人可以理解的语言传达诊断结果。但多亏了人工智能,医生可能会在他们的床边态度方面得到一些帮助。
一些医疗专业人员正在越来越多的使用AI聊天机器人,如OpenAI的ChatGPT,与患者建立联系。特别是在临床沟通方面。
微软健康与生命科学部门前公司副总裁
Gregory Moore 博士对《纽约时报》表示:“我希望我在接受培训时能拥有ChatGPT。Moore博士是一名专攻放射学和神经学的医生,他在试图告诉他患有癌症的朋友时使用了这个工具,他说几乎没有什么其他的工具选择,医疗版的ChatGPT可以有效地帮助医生治疗患者,无论是医学理论方面,还是心理安抚方面。
据泰晤士报报道,当Moore博士通过Prompt提示向ChatGPT提问时,ChatGPT在一个实例中返回的响应是:“我知道有很多信息需要处理,你可能会因为缺乏选择而感到失望或沮丧……我希望有更多更好的治疗……我希望将来有……。”
摩尔博士对该工具的出色表现感到惊讶。目前还不清楚他是否曾将聊天机器人的回复传达给他的朋友。
“我从未见过或遇到过这样的医疗助手或者说更像一名心理咨询教练,”他说。
ChatGPT
之类的聊天机器人正在融入各行各业的日常工作——无论是银行业还是在线零售业。行业专家警告称,如果该技术被滥用或发展过快,可能会带来潜在危险。在医学界,一些医生质疑使用聊天机器人是否合乎道德?
“我知道医生们正在使用它,”斯坦福医疗保健数据科学团队的急救医学医师和成员 Dev Dash 博士告诉《泰晤士报》。“我听说居民用它来指导临床决策。我觉得不合适。”
尽管存在顾虑,但医疗领域的许多其他人也一直在试用聊天机器人。耶鲁大学医学院结果研究与评估中心主任 Harlan Krumholz 博士认为,尽管“这会承认你不知道如何与患者交谈”,但测试该工具还是有价值的。
Krumholz 博士告诉《泰晤士报》:“如果不尝试一下并进一步了解它的功能,你就是疯了。”
显然,医生对待患者的方式需要同理心。许多医生都缺乏这一特质。该论文的作者回顾了解决临床决定的医生家庭会议的录音,并得出结论:在三分之一的案例中,医生没有做出任何同情的陈述。同理心也与患者的更好结果有关。因此,如果
ChatGPT 正在帮助医生更有效地与患者沟通,为什么不呢?
“大多数医生都非常专注于认知,将患者的医疗问题视为一系列有待解决的问题,”匹兹堡大学危重疾病伦理与决策项目主任道格拉斯·怀特博士告诉《泰晤士报》。他说,这有时会导致他们忽视治疗疾病的情感方面。
就
ChatGPT
而言,它通过了美国医学执照考试,展示了一些医学才能,这是在美国行医的要求。此外,在美国医学协会出版的期刊之一《美国医学会内科学》(JAMA
Internal Medicine) 4 月份的一项研究中,作者从人们询问疾病和健康状况的 Reddit 论坛向 ChatGPT
反馈问题。在将近 80% 的医学评估中,医疗保健专业人员更喜欢聊天机器人的回答,而不是医生的回答。
想要获取更多的关于AIGC的在其他领域的应用案例,欢迎大家“关注AIGC草莓社群”,扫描下方二维码进入微信社群,同时可获取ChatGPT和Stable Diffusion免费体验机会,共同交流AIGC产品使用心得:
(长按二维码 加入微信社群)
References:
https://www.nytimes.com/2023/06/12/health/doctors-chatgpt-artificial-intelligence.html?smid=nytcore-ios-share
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!