近年来,ChatGPT 等生成式 AI 大模型展示了巨大的商业潜力,并在人类任务中表现出色。这种具有里程碑意义的技术已经在医疗保健领域证明了有效性。然而,我们也必须认识到生成式 AI 大模型存在一些缺点,例如可能会生成错误信息并有泄露患者隐私等风险。因此,在应用大模型于医疗保健领域时,我们必须建立适当的监管流程和规则,以确保更好地利用它们来提高效率。这样一来,我们可以确保患者的隐私得到保护,同时充分发挥生成式大模型的潜力。
AI 在医疗领域的应用
“AI+”医疗已经不是新闻,早在 2018 年腾讯、阿里、科大讯飞等企业就开始布局 AI+ 医学影像行业,发展至今已经有 70 个 AI 医学影像产品获得了三类证。根据亿欧报告,2023 年人工智能医学影像的市场规模预计为 24 亿元。
除了在 AI 医学影像领域取得突破,近期 ChatGPT 火爆出圈也释放了病理诊断的市场潜力。一些医疗平台机构通过微调 ChatGPT 等底座模型,相继发布了在医疗领域应用的大型模型。国外方面,微软正在基于 GPT-4 开发医疗模型 LLaVA-Med,旨在加速医疗进程,建立更加精准的病理模型。谷歌在 7 月发布了 Med-PaLM 2,这是首个在美国医疗执照考试中达到专家水平的大型语言模型,能够回答各种医学问题。国内方面,叮当健康在 6 月 28 日发布了叮当 HealthGPT,并推出了基于此模型研发的应用型医药 AI 产品,如叮当药师和营养师 AI 助手。另外,今年 5 月,医联也发布了国内首款基于 Transformer 架构的医疗大型语言模型 MedGPT。这些进展表明了大型语言模型在医疗领域的重要性和广泛应用。
AI 在医疗领域的商用场景
从医院内场景来分析,有 AI 加持的大型医疗器械能够更好满足医院的需求,在整体竞争上有一定优势,避免产品陷入价格战。然而,从大型医疗器械如手术机器人的发展趋势来看,治疗过程中的医用耗材正在逐渐成为收入的主要来源,确保了收入的可持续性增长。从销售小型医疗器械和专科信息系统产品来看,产品本身的客单价就较低,竞争就异常激烈,即使有 AI 加持,在低定价的前提下,需要以用户规模取胜。由于 AI 技术与医疗器械产品的应用场景主要集中在中大型医院,因此市场规模被大大压缩。但随着大模型技术的日益成熟,AI+ 医疗产品有望打破市场上限,促进市场快速发展。
从医院外场景来看,互联网 AI 医疗以健康管理为主。尽管声称具有治疗作用,但在国内的实际情况是,它目前仅以开处方形式提供服务。由于技术尚未成熟,许多复杂疾病需要多方面数据的综合分析,并且每个患者的情况都有所不同。因此,这些复杂疾病需要个性化的治疗方案,而算法仅能在数据方面提供辅助参考,无法替代医生的决策。
为了进一步加强对互联网医疗的监管,北京市卫健委于 8 月 22 日牵头制定了《北京市互联网诊疗监管实施办法(试行)》,以禁止 AI 开处方。这一举措有助于确保互联网诊疗行为的质量。
随着 AI 人工智能的快速发展,制定相关监管规则的及时跟进变得非常重要。这不仅有助于互联网诊疗平台建立可依据的监管制度,还能有效保护消费者的数据隐私、提高诊疗服务质量、增加诊疗信息的透明度,以及确保患者的知情权得到切实有效的保护。
大模型在 AI 医疗领域的挑战
虽然大模型在执行人类任务方面显示出巨大的潜力,但也表现出明显的缺点,包括生成错误信息、伪造数据、信息泄露和助长内容抄袭等。笔者认为,虽然一些缺点在某些场景中仅仅是令人担忧,例如在 Chatbot(聊天机器人)中的应用,但在医疗保健方面,这些缺点可能会产生更为严重的后果。
随着 AI 大模型在医疗保健领域的实用性探索,包括生成医疗记录、临床报告和提供医疗建议,都需要避免大模型生成虚假、有偏见、错误的医疗结果。因此,我们认为 AI 应该仅仅作为人类医生的辅助工具,具体的诊断结果和决策仍需要医生来完成。通过 AI+ 医疗的结合,我们可以解决医疗资源分配不均和缓解医疗诊断工作的问题。然而,在这个过程中,我们必须严格控制 AI 模型的应用范围和数据质量,确保医疗行业的安全和可靠性。只有这样,我们才能更好地利用 AI 技术,为人类的健康事业做出贡献。
来源:EC Innovations