文章主题:ChatGPT, 人工智能, 医疗保健, 语言模型

666AI工具大全,助力做AI时代先行者!

自去年底以来,ChatGPT在全球范围内风靡一时,尤其在我国,它受到了资本和科技界人士的热烈追捧。然而,在国外,已经开始出现了一些理性的思考。他们认为,尽管这个技术进步具有革命性的意义,但它仍然具有复杂性,技术进步并不总是能带来激动人心的正面结果。接下来,我将逐步翻译一些包含“理性”信息的文章。在此,我首先 translate了《连线》2023 年 4 月份的一篇文章。

chatgpt1.mp39:16
来自男半球的老马

一个聊天机器人因其能提供医疗信息的特性和能力,引发了医学专业人士的关注。尽管它能为患者提供有用的信息,甚至能解答一些医学难题,但它所涉及的伦理问题却十分复杂。因此,专家们纷纷提醒,在涉及伦理抉择的问题上,我们应该谨慎行事,避免将这些棘手的伦理问题完全寄托于人工智能技术。

罗伯特·佩尔(Robert Pearl),斯坦福医学院的知名教授,以及曾担任美国医疗集团凯泽永久(Kazer Permanent)的首席执行官,掌管着超过1200万患者的健康。倘若他继续掌控该公司,他将会坚决推行一项政策,即要求其旗下2.4万名医生迅速采用ChatGPT进行实际操作。

佩尔强调,对于医生而言,ChatGPT等生成型人工智能的重要性将超过过去的听诊器。在未运用这种先进技术的医生中,没有一位会能够在实施高品质医疗的过程中游刃有余。

作为一名资深文章写作高手,我可以告诉你,尽管佩尔已经停止了医学实践,但他对当前医疗领域的发展仍然保持关注。据他所知,有些医生正在尝试利用 ChatGPT 来提高工作效率,例如总结患者护理情况、撰写信件,以及在遇到诊断难题时寻求相关建议。佩尔认为,随着技术的进步,未来可能会出现更多有益于人类健康的聊天机器人应用,从而为医疗行业带来革命性的变革。

面对诸如OpenAI的ChatGPT等技术的崛起,挑战谷歌搜索的霸主地位,行业转型的讨论也随之兴起。在此背景下,语言模型逐渐显现出在过去仅限于白领职业如程序员、律师和医生的任务,如今却能承担起更多职责。这一变化引发了一场关于医疗专业人士与语言模型的对话,探讨着这项技术如何改善患者服务的提供方式。医疗专业人士对语言模型寄予厚望,期望它能在数字健康记录中挖掘有价值的信息,甚至能为他们提供冗长且技术性的笔记摘要。然而,这种技术也引发了一些担忧。有人担心,语言模型可能会误导医生,提供错误的回答,从而导致误诊或错误的治疗计划。因此,如何在确保准确性和可靠性的前提下,充分利用语言模型为医疗行业带来变革,成为了当前亟待解决的问题。

开发人工智能技术的公司将医学院的考试作为构建更强大系统的竞争基准。去年,微软研究引入了BioGPT,这是一种在各种医学任务上获得高分的语言模型,而OpenAI、马萨诸塞州综合医院和AnsibleHealth的一篇论文声称ChatGPT可以达到或超过美国医疗执照考试60%的及格分数。几周后,谷歌和DeepMind的研究人员推出了Med-PaLM,在同一项测试中取得了67%的准确率,尽管他们还写道,尽管令人鼓舞,但他们的结果“仍然不如临床医生”。微软和全球最大的医疗保健软件提供商之一Epic Systems宣布计划使用作为ChatGPT基础的OpenAI的GPT-4,来搜索电子健康记录中的趋势。

哈佛大学公共卫生学讲师Heather Mattie研究人工智能对医疗保健的影响,她第一次使用ChatGPT时感到印象深刻。她要求对如何使用建模社会关系来研究艾滋病进行摘要,这是她研究的主题。最终,模型触及了她不熟悉的领域,她无法再判断其是否准确。她开始想知道ChatGPT如何调和医学论文中两个完全不同或相反的结论,以及谁决定一个答案是否合适或有害。

马蒂(Mattie)现在表示她比早期经历时更加“不那么悲观”。她认为ChatGPT可以用于一些任务,比如总结文本,但前提是用户要知道聊天机器人可能不会100%正确,并且可能生成带有偏见的结果。她特别担心ChatGPT在处理心血管疾病诊断工具和重症监护损伤评分时的情况,因为这些工具存在种族和性别偏见的记录。但她在临床环境中仍然对ChatGPT持谨慎态度,因为它有时会编造事实,并且不清楚其所依据的信息的时间。

“医学知识和实践随着时间的推移而不断变化和发展,无法确定ChatGPT在提供典型治疗方案时从医学时间线的哪个时期获取信息,” 她说道。”这些信息是最近的还是过时的?”

用户还需要注意,ChatGPT风格的聊天机器人可以以表面上流利的方式呈现虚构或“幻觉”的信息,如果一个人不核实算法的回答,可能会导致严重的错误。而且,人工智能生成的文本可以以微妙的方式影响人类。一项于一月份发布的、尚未经过同行评审的研究对ChatGPT提出了一些伦理问题,并得出结论称,即使人们知道建议来自人工智能软件,该聊天机器人也会成为一个不一致的道德顾问,可以影响人类的决策过程。

成为一名医生远不仅仅是重复记忆百科全书般的医学知识。虽然许多医生对将ChatGPT用于文本总结等低风险任务持有热情,但一些生物伦理学家担心,当医生面临艰难的伦理决策时,例如是否对一位生存或康复可能性较低的患者进行手术时,医生会向聊天机器人寻求建议。

爱丁堡大学技术道德未来中心的生物伦理学家杰米·韦伯(Jamie Webb)表示:“你不能将这种过程外包或自动化给生成型人工智能模型。”去年,韦伯和他的团队以先前的研究为灵感,探索了构建用于医学的AI驱动“道德顾问”所需的条件。韦伯和他的合著者得出结论,这样的系统要可靠地平衡不同的道德原则是困难的,如果医生和其他员工过度依赖机器人而不是自行思考复杂的决策,可能会导致“道德技能减退”。

韦伯指出,医生们曾经被告知处理语言的人工智能将彻底改变他们的工作,但最终感到失望。在2010年和2011年的“危险边缘!”比赛中,IBM的沃森部门取得了胜利,之后转向肿瘤学,并声称AI在与癌症作斗争方面的效果。然而,这个最初被称为“Memorial Sloan Kettering in a box”的解决方案在临床环境中并没有像炒作所暗示的那样成功,而在2020年,IBM关闭了该项目。

当炒作落空时,可能会产生持久的后果。在哈佛大学关于医学领域中人工智能潜力的讨论会上,基层医生特里尚·潘奇(Trishan Panch)回忆起在聊天机器人发布后不久,看到一位同事在Twitter上发布了使用ChatGPT诊断疾病的结果。

兴奋的临床医生迅速表示愿意在自己的实践中使用这项技术,潘奇回忆说,但在大约第20个回复左右,另一位医生插话说,模型生成的所有参考资料都是虚假的。潘奇是医疗软件初创公司Wellframe的联合创始人,他说:“只需要一个或两个类似的事情就足以破坏对整个系统的信任。”

尽管人工智能有时会犯明显的错误,但曾在凯泽健康保险公司工作的罗伯特·珀尔对像ChatGPT这样的语言模型仍然非常乐观。他认为,在未来几年里,语言模型在医疗领域将变得更像iPhone,充满功能和能力,可以增强医生的能力,帮助患者管理慢性疾病。他甚至怀疑像ChatGPT这样的语言模型可以帮助减少美国每年因医疗错误导致的25万多人死亡。

珀尔确实认为有些事情不适合交给人工智能处理。他说,帮助人们应对悲伤和失去、与家人进行临终谈话以及讨论涉及高风险并发症的程序,不应该由机器人参与,因为每个患者的需求都是如此多变,你必须进行这些对话才能达到目标。

“那些是人与人之间的对话,”珀尔说道,他预测现在可用的技术只是潜力的一小部分。“如果我错了,那是因为我高估了技术改进的速度。但每次我看的时候,它的发展速度都比我想象的还要快。”

目前,他将ChatGPT比作一名医学生:能够为患者提供护理和协助,但它所做的一切都必须由主治医生进行审核。

ChatGPT:医疗领域的机遇与挑战

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!