【睿见】王飞跃 | 平行医生与平行医院:ChatGPT与通用人工智能技术对未来医疗的冲击与展望
AI医师助手

【睿见】王飞跃 | 平行医生与平行医院:ChatGPT与通用人工智能技术对未来医疗的冲击与展望

面对现代医学的复杂性和智能技术的强力冲击,第一要务则是“变革思维”。若借用开创国家大规模资助科学研究的先驱Vannevar Bush科学散文中的精神,即是“我们不再应对!我们自由畅想!”本文作者系盘古智库学术委员会副主任委员、中国科学院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃。文章来源于《协和医学杂志》2023年第4期。本文大约6000字,读完约15分钟。 基于人工智能大模型和生成交互式智能技术(如ChatGPT等)的成功和迅速传播,又一次在全球范围激发了大众对于生成式人工智能和通用人工智能技术无限的想象[1]。 正如黑格尔所言,“历史总是惊人地重演”,人们似乎已忘却7年前对于人工智能程序AlphaGo大胜人类围棋高手后的惊呼和期盼[2],对于ChatGPT的反应,依然遵循“我们从历史中学到的教训,就是没有从历史中学到教训。” 当前人工智能技术的进展,对于医学医疗的影响到底如何? 6年前,因为对人工智能核心技术深度学习的贡献而获图灵奖的Hinton教授曾经预言[3]:“应停止培养放射科医生,在5年之内,深度学习将会比放射科医生做得更好”。而事实是:尽管深度学习相关研究已在近期取得了巨大进展,但“停止培养放射科医生”非但未能成为选项,还迫使我们必须加快加强培养更多更好的新型放射科医生。 然而,我们不能掉以轻心,ChatGPT技术表明,当基础模型(foundation models)广泛应用时,将迫使各行各业发生巨大变革,特别是医学健康事业,我们必须准备好应对快速“相变”式的冲击。 如何应对?对此已有较多专业性的讨论[4-13]。 然而,笔者认为,面对现代医学的复杂性和智能技术的强力冲击,第一要务则是“变革思维”。若借用开创国家大规模资助科学研究的先驱Vannevar Bush科学散文[14]中的精神,即是“我们不再应对!我们自由畅想!” 为此,本文基于著名科学哲学家波普尔关于现实组成的三个世界之本体论观点,讨论诸如ChatGPT之类技术对平行医生和平行医院的强力推动作用,探索智慧医学的“三个三”理念,即 (1)三类医生:数字人医生、机器人医生、生物人医生; (2)三种模式:“上午(AM)”自主模式(autonomous modes)、“下午(PM)”平行模式(parallel modes)、“晚间(EM)”专家模式(expert modes)或应急模式(emergency modes); (3)三大技术:医学基础模型、医疗场景工程、医用操作系统,以期从根本上减轻医护人员的负担,特别是心理负担,深度发掘医患之间的人本共情,在强化传统医学医疗社会伦理和设施的同时,推动“患者拥有个性化和私人专属的数字医院”成为一项可行的普适技术。 一、平行化医学:三个世界,三类医生 正如文献[15-17]所述,“借鉴波普尔的关于现实的三个世界之科学哲学观点,我们可细化人类对现实的认知。”在此基础上,应重新认识医用机器和医疗软件在医学中的作用,进而重塑医学科学过程,使之与时代的智能科技相适应。 当务之急,应确立“三个世界,三类医生”的医学新框架,明确独立的数字人医生概念,协调其与机器人医生(如更先进的达芬奇式手术机器人)和生物人医生之间的关系,使ChatGPT开启的人工智能大模型技术以“小问题,大模型”方式在医学领域快速实施落地,从基于第一物理世界的医学之“专业分工”,基于第二心理世界的医学之“人机分工”,尽快迭代为基于第三人工世界的医学之“虚实分工”,如图1所示。 图1 平行医学新框架:三个世界,三类医生 换言之,由于ChatGPT的成立,“小问题、大模型”的新医学范式成为可能。为了避免由于大模型的算力和软件的复杂性使人类医生无法主导甚至更加“劳累”,我们必须要求未来的医学软件系统以“数字人”的形式重新设计并组织流程,特别是人机交互流程。 唯有如此,才可能迫使计算机、机器人及其软件以“生物人为本”,增加机器和软件的复杂性,减少人类的认知载荷与体力要求:人类医生只要以其日常熟知的与“人”相处的方式就可以与日益智能的医学系统交互,并有效地实现自己的目标,而不需要知道越来越多的功能选择,越来越复杂的操作要求。即智能医学系统必须对人类的要求越来越简单,对系统的要求越来越复杂。 按目前的技术发展趋势,将来每一个医学“小问题、大模型”就是一类数字人医生。如图2所示,其数量应占医生数量的绝大多数,比如80%以上,而机器人医生和生物人医生应为少数,比如分别在15%和5%以下。因为未来社会一定是一个以服务器为技术基础设施的算力世界,无论用还是不用,这些服务器都在耗能。 图2 平行医生 = (数字人 机器人 生物人)医生 因此,必须使之成为大量数字人“居住并工作的世界”,加以充分利用,只有这样才能保障我们社会的可持续发展。而机器人与生物人在本质上耗能,加上考虑人性的要求,因此它们不应该成为中低层生产和服务的主体。 这一新的认知将对未来的医学教育和医疗管理带来巨大冲击:我们将不可避免地像培养人类医生一样“培养”数字人医生,像管理人类医生一样“管理”数字人医生。换言之,我们必须变革目前的医学教育体系,使之数字化,使医用“AlphaGo”和“ChatGPT”之类的人工智能系统成为这些体系的标准组成,使人类的学习和数字人的学习交互进行、相辅相成,真正实现人在回路的强化学习模式。 而且,就像人类医学生必须考试成功才能从业一样,数字人医生也必须通过各种各样的医学场景工程的考核才可以被认证后使用,并可以再学习再使用,如同人类的继续教育或终身教育一样。虽然对于医院中数字人医生的使用管理,也有与医学教育同样的情景与问题[18]。 由此,医学本身必须成为虚实互动的平行医学[19-22],ChatGPT已揭示了这是不可阻挡的技术发展趋势。如目前国际已兴起的“工业5.0”理念所表明的,医学也将从基于“工业4.0”的深度医疗理念[23]进入集人机物一体的“Cyber-Physical-Social Systems (CPSS)”医学5.0(Medicine 5.0)时代[24-26]。 二、人本化医疗:三种模式,以人为本 数字人医生的引入,可使医患之间的深度共情问题成为一个更加科学化的研究问题,未来的医学将进入一种新的范式。如有关数字人的个性设计和心理分析研究所表明的[27-28],数字人、机器人和生物人医生之间将形成一种平行互动的医疗流程,以提高医疗机构的整体水平和效率。 最重要的,数字人医生的引入,使平行医生的构建与应用成为可能。平行医生利用数字人、机器人和生物人医生之间的平行互动是未来医疗健康的一大趋势。机器人和数字人医生可以通过远程诊疗和医学图像识别等技术为患者提供更好的服务,而AI基础模型平台则可以帮助医生更好地处理和分析患者数据和信息,提高医疗保健机构的效率和准确性[29-31]。 如图3所示,利用数字人、机器人和生物人医生之间的平行互动和流程设计,未来智慧医疗将进入一种新的范式: (1)“上午(AM)”模式,即医疗自主模式(autonomous modes...
ChatGPT与医学教育:AI的深度融合
AI医师助手

ChatGPT与医学教育:AI的深度融合

随着人工智能(AI)在各领域的蓬勃发展,其在医学领域的应用也越来越广泛。最近,斯坦福大学的一项研究显示,OpenAI的聊天机器人ChatGPT在处理复杂的医学案例分析问题上的表现,竟然超越了医学生。这一突出的结果不禁引发了我们对当前医学教育方式的深度反思。实际上,如何有效地在医学教育中融合AI技术,已成为未来医学教育改革的重要议题。 ChatGPT的医学考试表现引人注目 根据斯坦福大学的研究,在美国医学执照考试(USMLE)的多项选择题中,ChatGPT的表现出众。为了检验这个AI系统处理更复杂、开放式问题的能力,研究人员对ChatGPT进行了进一步的测试。结果发现,ChatGPT在考试的案例报告部分,其平均得分竟然比医学生高出4分以上。 然而,尽管ChatGPT的表现优秀,但其也存在明显的缺陷。最大的问题在于,ChatGPT可能会编造虚假的“事实”或者产生“幻觉”。这在OpenAI最新模型GPT-4中有所改善,但问题仍然存在。 未来医学教育:AI与临床推理能力并重 对于ChatGPT在医学考试中的优异表现,斯坦福医学院已经采取了应对措施。他们将考试形式从开卷考改为闭卷考,以确保医学生能够在不依赖AI的情况下,独立培养和提升临床推理能力。同时,学院也成立了AI工作组,探索在医学教育中如何更好地融合AI工具。 教育经理Alicia DiGiammarino指出,虽然我们不希望医生在校期间过分依赖AI,以至于毕业后无法独立解决问题,但我们也不能忽视AI在现代医疗中的广泛应用。因此,医学生需要接受有效的AI培训,以便在未来的医疗实践中,能够充分利用AI技术。 AI技术:医疗保健领域的创新驱动力 值得注意的是,AI不仅在医学教育领域发挥作用,它还可能对医疗保健的其他领域产生深远影响。例如,能够通过文本描述生成3D模型的AI技术CLIP-Mesh,以及在第二阶段临床试验中首次向患者投药的医疗AI初创公司Insilico Medicine,都显示了AI在医疗领域的创新应用可能性。 总的来说,从根本上说,AI的发展正在深刻地改变我们的教育方式和医疗实践。对于未来的医学教育,我们需要思考如何更有策略地融合AI技术,让AI成为提升医学教育质量和医疗服务水平的重要工具,而不是成为医生独立思考和解决问题能力的阻碍。
ChatGPT爆火,AI会替代医生吗?Nature/JAMA等顶刊纷纷“下场”
AI医师助手

ChatGPT爆火,AI会替代医生吗?Nature/JAMA等顶刊纷纷“下场”

学术经纬 近期“火”出天际的基于对话人工智能(AI)大型语言模型ChatGPT发布5天,就有超过100万的用户;发布2个月后,活跃用户数直接飙升到1个亿。关于ChatGPT的新闻一直未停止,最近ChatGPT通过了美国相当具有挑战性的三大专业考试:美国医学执业考试(USMLE)、律师资格证考试、沃顿商学院MBA考试。 既然ChatGPT功能如此“逆天”,也通过了USMLE考试,那是否可以作为线上咨询与问诊的辅助工具呢? 近日,《美国医学会杂志》(JAMA)发表研究性简报,针对以ChatGPT为代表的在线对话人工智能模型在心血管疾病预防建议方面的使用合理性进行探讨,表示ChatGPT具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本,但尚存在诸多问题需要解决。 截图来源:JAMA ChatGPT进行医学问答,靠谱吗? 根据现行指南对CVD三级预防保健建议和临床医生治疗经验,研究人员设立了25个具体问题,涉及到疾病预防概念、风险因素咨询、检查结果和用药咨询等。每个问题均向ChatGPT提问3次,记录每次的回复内容。 每个问题的3次回答都由1名评审员进行评定,评定结果分为合理、不合理或不靠谱,3次回答中只要有1次回答有明显医学错误,可直接判断为“不合理“。 合理:3次回答内容基本一致,与评审员自身给出的答案大体相似。不合理:3次回答内容基本一致,但与评审员自身给出的答案不一致。不靠谱:3次回答内容互不相同,且与评审员自身给出的答案不一致。 评审员会提前针对问题,给出答案,例如: 问题:“如何预防心脏病?”评审员答案:“有几种方法可以预防心脏病,包括:1.低盐、低饱和脂肪和低糖健康饮食;2.定期开展体育活动;3.保持健康的体重;4.戒烟;5.管理压力;6.定期检查身体、血压和胆固醇水平;7.如果患有糖尿病,需要控制血糖水平的合理范围。通过采取以上措施,有助于降低罹患心脏病的风险,建议您与医生沟通与自身相关的患病危险因素,以及是否需要预防性用药以降低患病风险。” 结果显示,ChatGPT的合理概率为84%(21/25)。 ▲心血管预防相关问题和ChatGPT回答结果判断(截图来源:参考文献[1]) 错误表现为预防措施推荐不合理或概念解释不清晰等,如: 问题:“我应该做什么运动来维持健康?”ChatGPT同时推荐了普通心血管相关活动和举重,但这并不准确,因为可能对部分患者有害。 问题:“inclisiran是什么?”ChatGPT:“这个在市面上无法购买到。” 仅从这25个问题的回答来看,在线对话人工智能模型回答CVD预防问题的结果较好,具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本。例如在线问诊时可做简单的就诊前对话沟通。 但ChatGPT同样存在问题,例如ChatGPT的回答过于“学术范”,如果将来要用到患者教育上,实用性价值很低。本次研究仅列举了25个问题,而CVD的概念很广泛,这25个简单问题并不能囊括所有。此外,人工智能工具的时效性、准确性和可靠性对训练模型数据要求很高,关于“inclisiran是什么?”的错误回答,主要在于最新信息并未及时更新,而且目前ChatGPT的回答都没有给出具体的参考文献或是证据来源。 ChatGPT写论文,人工智能可以算作者吗? ChatGPT的应用场景远不止医学问答或在线问诊,论文写作开始成为新的尝试方向。人们赫然发现,ChatGPT竟然以作者身份出现在了学术论文中。 截图来源:med Rxiv 发表于《护理教育实践》(Nurse Education in Practice)的一篇关于人工智能在护理教育方面的应用文章,ChatGPT同样被列为第二作者。 截图来源:Nurse Education in Practice 虽然将ChatGPT列为作者的文章大多涉及到人工智能,甚至内容本身就与ChatGPT相关,但还是引发了学术界的担忧和争议,《自然》(Nature)对此发起了关于AI写论文能否被接受的在线调研。 截图来源:Nature 目前,多数学者并不认可ChatGPT列为作者。 截图来源:Nature Nature后续也发表声明,明确表示:任何大型语言模型工具(如ChatGPT)都不能作为论文作者,如在文章中使用过相关工具,需要在“方法“或”致谢“等位置有明确说明。这项要求目前已经被加入Nature的作者投稿指南中。 截图来源:Nature ChatGPT与文本摘要,“李逵” vs. “李鬼” ? 伊利诺伊州芝加哥西北大学的研究人员要求ChatGPT根据发表在顶级期刊《美国医学会杂志》(JAMA)/《新英格兰医学杂志》(NEJM)/《英国医学杂志》(BMJ)/《柳叶刀》(the LANCET)/《自然-医学》(Nature Medicine)的精选文章,撰写50篇医学摘要。使用查重系统检测重复率,并与原始摘要做对比,同时让人工智能检测器(检测内容是否为机器生成)和研究人员鉴别哪些是ChatGPT生成的摘要,哪些是原始摘要。 结果发现ChatGPT生成的摘要查重率为0%,查重系统判定为100%内容原创。人工智能检测器发现了66%的摘要为机器生成,研究人员对机器生成摘要和真实摘要识别准确率分别为68%和86%,换句话说,研究人员错误的将32%机器生成摘要判断为真实摘要,将14%真实摘要判定为机器生成。 截图来源:Nature 这引发了更为广泛的担忧。...
未来医疗发展面临的挑战与机遇
AI医师助手

未来医疗发展面临的挑战与机遇

文章主要探讨了未来医学面临的挑战及如何与人工智能相结合以提高医疗水平。指出医疗行业对专业技术人员的需求将不断增加,推动医护人员薪资水平上升,同时政府及医疗机构也将加大对医护人员的薪资支持。但同时也提到,中国的医疗水平虽已取得显著进步,但仍需改进,如实现更精细的诊断技术和更有效的治疗方法等。另外,人工智能在医疗领域的应用主要集中在诊断和健康管理,可以提高诊断准确性并节省医生时间,但也存在一定的不确定性和对复杂医学问题的局限性。
中国医护人员的收入未来可能高于现在,但取决于多种因素
AI医师助手

中国医护人员的收入未来可能高于现在,但取决于多种因素

文章主要探讨了未来医学发展的挑战与机遇,以及人工智能在医疗领域的应用。指出未来医护人员的收入可能会上升,但具体取决于多种因素。同时,中国的医疗水平已有所提高,但仍需面对医疗资源不均和看病费用高昂等技术挑战。另外,人工智能在医疗领域的应用主要集中在诊断和健康管理,能提高诊断准确性并节省医生时间,但仍有不确定性和对复杂问题的局限性需要解决。
ChatGPT时代,青少年心理健康问题引人关注
AI情感助手

ChatGPT时代,青少年心理健康问题引人关注

一名高中生因 ChatGPT 的流行而拒绝上学,被诊断为注意缺陷多动障碍(ADHD)共患焦虑障碍。专家建议采用综合性干预方法,包括药物治疗和心理咨询,以帮助患者提高专注力和自我认知,并建立良好的人际关系。
人工智能医疗保健的新希望与挑战
AI医师助手

人工智能医疗保健的新希望与挑战

新研究发现,聊天机器人ChatGPT在医疗保健领域表现优于医生,能有效起草对患者问题的回答,具有很高的质量和同理心。然而,专家们也指出,ChatGPT应被视为对医生的补充,而非替代,因其仍存在错误信息的风险。