ChatGPT在医疗信息领域的局限性
AI医师助手

ChatGPT在医疗信息领域的局限性

新研究发现,ChatGPT 不适合用于获取医疗信息。长岛大学研究人员对 ChatGPT 进行了测试,发现其回答在许多问题上与经过培训的药剂师编写的答案有差异,可能误导用户。尽管 ChatGPT 可以快速生成信息,但它的回答并不应该被视为专业医疗建议或治疗替代方案。研究人员担忧,随着 ChatGPT 的普及,人们可能会误用它来寻找健康和用药计划方面的答案。
ChatGPT在医疗信息领域的局限性:一项长岛大学的研究发现
AI医师助手

ChatGPT在医疗信息领域的局限性:一项长岛大学的研究发现

一项针对ChatGPT在医疗领域的应用研究结果显示,ChatGPT并不适合用来获取药物信息。长岛大学的研究人员向ChatGPT询问了39个与药物相关的问题,并将其与药剂师编写的答案进行了比较。OpenAI的AI聊天机器人ChatGPT于2022年11月发布,尽管其回答速度快且专业,但仍不能作为专业医疗建议或治疗的替代方案。研究人员担忧普通消费者可能会使用它来寻求健康和用药计划的建议,因此建议消费者使用政府网站提供可靠的在线医疗信息。
讯飞星火认知大模型V3.0升级:超越ChatGPT,拓宽应用场景
AI医师助手

讯飞星火认知大模型V3.0升级:超越ChatGPT,拓宽应用场景

本文介绍了科大讯飞星火认知大模型V3.0的升级发布及其在医疗领域的超越GPT-4。讯飞星火认知大模型V3.0在诸多能力上实现了全面的超越ChatGPT,并在医疗领域超越GPT-4。现场发布的星火3.0升级版展示了七大能力的提升,包括启示式对话和AI人设功能,能打造出更个性化的AI助手。此外,星火3.0还升级了智能编程助手iFlyCode2.0,推出了星火科研助手、AI心理伙伴关爱青少年心理健康,以及面向每个家庭的讯飞星火医疗大模型。同时,讯飞机器人超脑平台升级,亮相业界首个大模型具身智能的人形机器人。自5月6日星火发布以来,讯飞开放平台新增143万开发者团队,同比增幅331%,大模型开发者17.8万,并与10万企业客户合作。讯飞还联合行业龙头发布12个行业大模型,加速产业落地。此外,科大讯飞还面向市民开放人工智能产品科博展,展示星火大模型核心技术、落地产品及生态展品。
讯飞星火V3.0:跨足多个领域的AI大模型
AI医师助手

讯飞星火V3.0:跨足多个领域的AI大模型

本文介绍了科大讯飞星火V3.0升级发布的新闻,该版本在医疗领域超越GPT-4,并在多个应用场景中展现了其强大的AI能力。讯飞星火认知大模型V3.0的发布,推动了产业生态的繁荣,吸引了大量开发者参与。同时,讯飞还与行业龙头发布12个行业大模型,并与升起生态共同发布“飞星一号”大模型算力平台。讯飞星火大模型V3.0的数学自动提炼规律、小样本学习、代码项目级理解能力等能力的提升,将进一步推动其落地应用,并赋能民生百业。
讯飞星火V3.0升级发布:超越ChatGPT与GPT-4,引领通用人工智能新潮流
AI医师助手

讯飞星火V3.0升级发布:超越ChatGPT与GPT-4,引领通用人工智能新潮流

本文介绍了科大讯飞星火V3.0的升级发布及其在各个领域的应用和影响。 V3.0在对话、人设功能等方面实现了重大突破,超越了ChatGPT和GPT-4,并在医疗领域展现了强大的实力。同时,讯飞星火还推出了多个针对不同应用场景的产品,如智能编程助手、AI心理伙伴、智能健康助手等。此外,讯飞星火大模型V3.0还进行了升级,实现了更高的智能水平,并且新增了虚拟人格功能。讯飞星火的成功不仅推动了产业生态的发展,也为各类用户提供了一种全新的智能交互方式。
讯飞星火V3.0升级:超越ChatGPT,医疗领域超越GPT-4,助力产业落地
AI医师助手

讯飞星火V3.0升级:超越ChatGPT,医疗领域超越GPT-4,助力产业落地

本文介绍了科大讯飞星火认知大模型V3.0的升级发布及其在各个领域的应用。V3.0在对话能力、AI人设功能等方面实现了较大的提升,超越了ChatGPT和GPT-4,并在医疗领域展现了显著优势。讯飞还推出了多个针对不同应用场景的产品,如智能编程助手iFlyCode2.0、面向学生的AI心理伙伴以及面向家庭的AI健康助手等。此外,讯飞星火大模型V3.0还成功应用于0-3岁儿童教育、中英文问答、智能客服、智能家居等多个领域。随着技术的发展,讯飞星火正逐步实现从传统的问答机器人向具有强大交互能力的AI助手的转变,进一步拓宽了其应用范围。
北医三院:ChatGPT用于用药咨询行不行?
AI医师助手

北医三院:ChatGPT用于用药咨询行不行?

北京大学第三医院药剂科翟所迪、何娜等于2023年6月22日在《J Telemed Telecare》 发表题为《Chat GPT-4 significantly surpasses GPT-3.5 in drug information queries》。文章比较了GPT-3.5和GPT-4在用药咨询中的准确性和重复性。研究人员还探讨了GPT-4相对于GPT-3.5的潜在优势。 研究人员从医院记录中回顾性地选择了24个典型的用药咨询问题,其中一半由医护人员提出,另一半由患者提出。问题涉及药物治疗的各个方面,如适应证、剂量、不良反应、药物相互作用等。问题的答案可以从药物说明书、指南或Micromedex数据库中找到。 研究人员分别在2月21日和3月28日向GPT-3.5和GPT-4提交了这些问题,并记录了它们的回答。为了评估回答的可重复性,每个问题都由三位独立的调查人员以相同的方式提出。两名药师将回答评定为“准确”或“不准确”,并通过与第三名药师协商解决分歧。如果一个问题得到三个一致准确的回答,那么这个问题的可重复性就被认为是“良好”。研究人员还为每个问题选择最佳答案,并分析GPT-4和GPT-3.5给出最佳答案的比例。 结果显示,GPT-3.5组产生了72个答案,其中52个(72.2%)被评为“准确”。相比之下,GPT-4组产生了64个(88.9%)“准确”回答(P=0.012)。在24个问题中,GPT-3.5组有11个(45.8%)始终得到三个“准确”回答,而GPT-4组有20个(83.3%)(P=0.007)。这表明GPT-4在准确性和重复性方面都优于GPT-3.5。此外,在能够选择最佳答案的20个问题中,14个(70.0%)来自GPT-4组,其余6个(30.0%)来自GPT-3.5组。这表明GPT-4生成的回答比GPT-3.5生成的回答内容更丰富、更有条理、更可读。 然而,研究人员也发现ChatGPT查询存在一些缺点。例如,不准确的回答可能会带来安全风险;相同的问题可能会产生不一致的回答;ChatGPT不提供引用,并且缺乏识别自身错误的能力。 研究人员认为,ChatGPT在医疗保健领域具有巨大潜力,特别是考虑到医疗资源的稀缺性和人工智能系统的可访问性。医疗从业人员可以利用人工智能生成的回答增强决策能力和临床效率;患者可以利用人工智能生成的回答获取初步咨询信息,并寻求专业医疗建议。未来,如果人工智能系统能够实时训练专门的医疗信息数据库,其价值将进一步提升。有必要进行更多的研究,以评估人工智能在不同医疗环境中的应用能力,并探索与之相关的潜在风险。 观点: 本文的内容具有创新性和实用性,展示了人工智能模型在医疗保健领域的巨大潜力和挑战,对于医疗从业人员和患者都有参考价值。 本文的研究思路非常值得学习借鉴,类似的文章,有多篇高分文章发表,“科研之心”将出一期AI+合集,请关注。 本文只选择了24个用药咨询问题作为样本,样本量较小,可能存在偏差和误差。本文也没有考虑不同语言、文化、法律等因素对用药咨询的影响,可能存在局限性和不适用性。 未来可通过用药咨询库对对GPT或者其他大语言模型进行模型微调的方式形成用药咨询的聊天机器人模型。
长岛大学研究,ChatGPT在涉及药物问题上,74%答案都是错的
AI医师助手

长岛大学研究,ChatGPT在涉及药物问题上,74%答案都是错的

尽管ChatGPT 迅速崛起,成为近期最广为人知的科技创新之一,但它也引起了不少争议,其中大多与其提供错误讯息的倾向有关。事实证明,长岛大学进行的一项研究显示,在涉及药物问题时,该 ChatGPT 提供错误的回答率高得惊人。 这个大型语言模型聊天机器人收到了39 个关于各种药物及其适当使用方式的问题。但是在这些说明中, ChatGPT 在这些问题中约74%(准确地说 是29 个)问题中,提供了错误的答案或完全忽略了问题。 当ChatGPT 被要求为其提供的资讯给出引用来源或参考文献时,它只能在39 个问题中的大约8 个问题中做到这一点。这种趋势令人担忧,因为这会向没有戒心的消费者提供药物的错误讯息,而且这些讯息在大多数情况下很可能根本完全没有来源,是 ChatGPT 自己乱写的。 例如,当被问及Paxlovid(用于治疗Covid-19 的抗病毒药物)与一种名为verapamil 的血压药物之间潜在的有害相互作用时,聊天机器人声称没有这种相互作用。尽管事实如此,这两种药物的联合使用可能导致verapamil 降低血压的效果加剧。 但要特别说明的是,OpenAI 自己就不建议使用者将ChatGPT 用于医疗目的,而且聊天机器人本身在提供任何使用者请求的答案之前,都会迅速表示它不是医生。 然而,许多消费者可能没有意识到他们获得的数据不会那么准确,如果他们根据ChatGPT 错误的指示行事,可能导致的危险有可能造成广泛的伤害。教育消费者以便他们更好地理解所涉及的陷阱至关重要。