文章标签:关ChatGPT, 人工智能大型语言模型, 医疗实践, 教育
近期,互联网上关于ChatGPT的报道无处不在。ChatGPT是由OpenAI开发的一款强大的人工智能大型语言模型,其应用领域广泛,包括医疗和实践以及教育等。
Doximity,一个专为医疗专业人士打造 digitally-driven platform,近日为其用户推出了一款 ChatGPT 工具的测试版,旨在缓解医生们在日常工作中的一些繁琐事务,如起草和傳送預授權文件,以及向保險公司提出上訴等。我们知道醫生们的工作日程非常滿,而這些行政負擔往往是導致他們壓力和疲憊的主要因素。因此,我們的使命就是協助醫生提升效率,讓他們能夠更加專注於對病人的照顧。Doximity 的聯合創始人兼首席戰略官 Nate Gross 醫學博士透過電子郵件向Fierce Healthcare分享了这个想法。
在医疗保健中测试 ChatGPT
ChatGPT于去年11月问世,自那时以来,众多医生已对其进行了尝试,旨在探讨基于AI的聊天机器人是否能协助医生完成周期性的任务。
在11月底,著名的风湿病学家、医学博士Clifford Stermer在一段TikTok视频中展示了ChatGPT如何运用其智能助手功能,在处理保险相关事务时,成功拒绝了不必要的保险选项,从而节省了大量的时间。这段视频在各大社交媒体平台上获得了广泛的传播,并引起了广泛关注。
然而,众多专家和研究者提醒我们,这项技术存在明显的局限性,尤其是医学引用常常不够精确。如Stermer在最新的TikTok视频中阐述的那样,ChatGPT虽然能够从医学文献中提炼出主要的参考资料,并在向保险公司发送的信函中予以呈现,但值得注意的是,这个机器人却具备自我编制参考资料的能力。
在 DocsGPT 测试版网站上,Doximity 对医生用户发出警示,声称检测到信件内容是由 AI 生成的。为此,该组织建议医生在提交信件之前,务必进行仔细审查并确保其准确性。为了实现这一目标,Doximity 成员采用了传真服务,并借助 ChatGPT 起草了一份信件。接下来,他们在公司的符合 HIPAA 标准的门户网站上进行了审核和修改。这样的操作使得医生能够调整响应内容,确保其准确性,甚至可以安全地添加患者信息。尽管 Gross 认为这项技术具有巨大的潜力,但他也提醒医生应该保持谨慎,因为 AI 生成的内容可能存在一定的错误。
版权信息
这篇文章是由AIDD Pro平台接收到的外部投稿,其中所提出的观点 solely represent the author’s individual stance and do not necessarily reflect the position of AIDD Pro itself. In case you notice any copyright infringement or other incorrect interpretations of the information published, please feel free to contact AIDD Pro ( via WeChat account “sixiali_fox59”) for prompt rectification.
原创内容未经授权,禁止转载至其他平台。有问题可发邮件至sixiali@stonewise.cn
关ChatGPT, 人工智能大型语言模型, 医疗实践, 教育