原创 劲弩u回复 全球医生组织 2024-03-16 06:30美国
阅读文摘
生成式人工智能(AI)模型逐渐融入了医学领域,AI公司强调,在临床应用之前,建议进行人工测试和审核,避免潜在的医疗错误或算法失误。
这种“人在回路”研发模式,旨在作为安全保障,但在实际操作中,却存在着巨大变数。
首先,AI技术研发机构可以将其AI产品定位是有益辅助工具,而非决策工具,这样做的目的,是希望临床专家,仅仅审核AI生成的内容,而规避参与其AI技术核心和对训练数据的见解。
目前,对于AI医疗产品的监管及临床应用,仍缺乏行业监管共识。尽管FDA正在开始着手解决这个问题,要求AI技术供应商披露其算法的工作原理。
此外,AI健康联盟也在协作制定行业使用标准,以增加AI在医疗保健领域中使用的透明度。
然而,在缺乏统一标准和基准的情况下,AI技术企业需要提高其AI算法模型的透明度,以确保其安全地应用于临床环境中,这仍然是一个仁者见仁智者见智的问题。