讯飞星火V3.0升级:超越ChatGPT,医疗领域超越GPT-4,助力产业落地
AI医师助手

讯飞星火V3.0升级:超越ChatGPT,医疗领域超越GPT-4,助力产业落地

本文介绍了科大讯飞星火认知大模型V3.0的升级发布及其在各个领域的应用。V3.0在对话能力、AI人设功能等方面实现了较大的提升,超越了ChatGPT和GPT-4,并在医疗领域展现了显著优势。讯飞还推出了多个针对不同应用场景的产品,如智能编程助手iFlyCode2.0、面向学生的AI心理伙伴以及面向家庭的AI健康助手等。此外,讯飞星火大模型V3.0还成功应用于0-3岁儿童教育、中英文问答、智能客服、智能家居等多个领域。随着技术的发展,讯飞星火正逐步实现从传统的问答机器人向具有强大交互能力的AI助手的转变,进一步拓宽了其应用范围。
北医三院:ChatGPT用于用药咨询行不行?
AI医师助手

北医三院:ChatGPT用于用药咨询行不行?

北京大学第三医院药剂科翟所迪、何娜等于2023年6月22日在《J Telemed Telecare》 发表题为《Chat GPT-4 significantly surpasses GPT-3.5 in drug information queries》。文章比较了GPT-3.5和GPT-4在用药咨询中的准确性和重复性。研究人员还探讨了GPT-4相对于GPT-3.5的潜在优势。 研究人员从医院记录中回顾性地选择了24个典型的用药咨询问题,其中一半由医护人员提出,另一半由患者提出。问题涉及药物治疗的各个方面,如适应证、剂量、不良反应、药物相互作用等。问题的答案可以从药物说明书、指南或Micromedex数据库中找到。 研究人员分别在2月21日和3月28日向GPT-3.5和GPT-4提交了这些问题,并记录了它们的回答。为了评估回答的可重复性,每个问题都由三位独立的调查人员以相同的方式提出。两名药师将回答评定为“准确”或“不准确”,并通过与第三名药师协商解决分歧。如果一个问题得到三个一致准确的回答,那么这个问题的可重复性就被认为是“良好”。研究人员还为每个问题选择最佳答案,并分析GPT-4和GPT-3.5给出最佳答案的比例。 结果显示,GPT-3.5组产生了72个答案,其中52个(72.2%)被评为“准确”。相比之下,GPT-4组产生了64个(88.9%)“准确”回答(P=0.012)。在24个问题中,GPT-3.5组有11个(45.8%)始终得到三个“准确”回答,而GPT-4组有20个(83.3%)(P=0.007)。这表明GPT-4在准确性和重复性方面都优于GPT-3.5。此外,在能够选择最佳答案的20个问题中,14个(70.0%)来自GPT-4组,其余6个(30.0%)来自GPT-3.5组。这表明GPT-4生成的回答比GPT-3.5生成的回答内容更丰富、更有条理、更可读。 然而,研究人员也发现ChatGPT查询存在一些缺点。例如,不准确的回答可能会带来安全风险;相同的问题可能会产生不一致的回答;ChatGPT不提供引用,并且缺乏识别自身错误的能力。 研究人员认为,ChatGPT在医疗保健领域具有巨大潜力,特别是考虑到医疗资源的稀缺性和人工智能系统的可访问性。医疗从业人员可以利用人工智能生成的回答增强决策能力和临床效率;患者可以利用人工智能生成的回答获取初步咨询信息,并寻求专业医疗建议。未来,如果人工智能系统能够实时训练专门的医疗信息数据库,其价值将进一步提升。有必要进行更多的研究,以评估人工智能在不同医疗环境中的应用能力,并探索与之相关的潜在风险。 观点: 本文的内容具有创新性和实用性,展示了人工智能模型在医疗保健领域的巨大潜力和挑战,对于医疗从业人员和患者都有参考价值。 本文的研究思路非常值得学习借鉴,类似的文章,有多篇高分文章发表,“科研之心”将出一期AI+合集,请关注。 本文只选择了24个用药咨询问题作为样本,样本量较小,可能存在偏差和误差。本文也没有考虑不同语言、文化、法律等因素对用药咨询的影响,可能存在局限性和不适用性。 未来可通过用药咨询库对对GPT或者其他大语言模型进行模型微调的方式形成用药咨询的聊天机器人模型。
长岛大学研究,ChatGPT在涉及药物问题上,74%答案都是错的
AI医师助手

长岛大学研究,ChatGPT在涉及药物问题上,74%答案都是错的

尽管ChatGPT 迅速崛起,成为近期最广为人知的科技创新之一,但它也引起了不少争议,其中大多与其提供错误讯息的倾向有关。事实证明,长岛大学进行的一项研究显示,在涉及药物问题时,该 ChatGPT 提供错误的回答率高得惊人。 这个大型语言模型聊天机器人收到了39 个关于各种药物及其适当使用方式的问题。但是在这些说明中, ChatGPT 在这些问题中约74%(准确地说 是29 个)问题中,提供了错误的答案或完全忽略了问题。 当ChatGPT 被要求为其提供的资讯给出引用来源或参考文献时,它只能在39 个问题中的大约8 个问题中做到这一点。这种趋势令人担忧,因为这会向没有戒心的消费者提供药物的错误讯息,而且这些讯息在大多数情况下很可能根本完全没有来源,是 ChatGPT 自己乱写的。 例如,当被问及Paxlovid(用于治疗Covid-19 的抗病毒药物)与一种名为verapamil 的血压药物之间潜在的有害相互作用时,聊天机器人声称没有这种相互作用。尽管事实如此,这两种药物的联合使用可能导致verapamil 降低血压的效果加剧。 但要特别说明的是,OpenAI 自己就不建议使用者将ChatGPT 用于医疗目的,而且聊天机器人本身在提供任何使用者请求的答案之前,都会迅速表示它不是医生。 然而,许多消费者可能没有意识到他们获得的数据不会那么准确,如果他们根据ChatGPT 错误的指示行事,可能导致的危险有可能造成广泛的伤害。教育消费者以便他们更好地理解所涉及的陷阱至关重要。
《ChatGPT使用指南与思考》
AI医师助手

《ChatGPT使用指南与思考》

这篇文章强调了在使用 ChatGPT 之前需要进行充分测试、评估、监督和管理的重要性,以确保其安全和有效。同时,文章也强调了保护用户隐私和伦理问题的重要性。此外,作者还呼吁对用户进行教育和指导,帮助他们理解和使用 ChatGPT。
ChatGPT在医疗领域的应用及其挑战概述
AI医师助手

ChatGPT在医疗领域的应用及其挑战概述

人工智能ChatGPT悄然来袭,其强大的语言生成能力让许多行业为之兴奋。那它对医疗健康领域又将带来什么影响呢?我们一起来看看! ChatGPT自2022年11月发布以来,在医疗领域引起了众多人士的广泛关注,很多学者也积极探索ChatGPT在医疗领域应用的实践。媒体很多报道集中在临床应用、患者沟通和医学教育等一些场景的应用上,本文从当前学术研究的视角看ChatGPT在医疗领域的实际应用。结合ChatGPT在科研写作、医疗教育、临床研究和实践中的应用前景及相关问题,探讨其优势与局限性。 01 ChatGPT在医疗领域的应用优势 ChatGPT作为一种先进的人工智能聊天机器人,在医疗和学术领域有着广泛的应用前景。 (1)学术/科学写作应用 超过一半的研究文献特别强调了ChatGPT在学术和科学写作方面的潜在优势。医学写作不仅仅局限于科学论文的创作,它涵盖了从检查报告、监管文件、患者教育材料到临床实验方案等各种基于文本的交流。此外还可以将医学文章翻译成多种语言。ChatGPT的训练方法是基于人类反馈的强化学习,其中包括筛选和标记文本。这种技术允许机器根据人类评估者的输入调整其行为。因此,ChatGPT在理解用户意图、人类的生成式文本以及保持文本连贯性方面表现出色。 经过医学写作训练的ChatGPT可以根据作者的指示为文档生成初稿,从而为医学作者提供初步的写作支持。之后,作者可以审查和编辑这些生成的文本,确保其准确性和清晰度。此外,ChatGPT还可以自动化审查和编辑流程,为多个审稿人提供文档的反馈和建议,从而提高写作效率。 ChatGPT的这些功能不仅提高了研究的质量,还为研究者节省了大量时间。对于那些非英语为母语的作者,ChatGPT提供了一个便捷的英文写作工具,帮助他们克服语言障碍,更加流畅地进行学术交流。但值得注意的是,尽管ChatGPT在写作方面提供了很大的帮助,最终的文档仍然需要经过人类的审查和判断,以确保其质量和准确性。 (2)在科学研究应用 ChatGPT已经在科学研究领域被认为是一种高效且有潜力的工具,特别是在进行全面的文献综述和生成计算机代码时。这种工具为研究人员节省了大量时间,特别是在那些需要深入思考的研究过程中,例如流行病学研究和实验设计。 在流行病学研究中,STROBE指南被广泛采用。这些指南为报告研究的各个方面提供了明确的建议,如研究设计、参与者的选择、暴露和结果的测量,以及结果的分析和解释。意大利的研究者利用STROBE检查表作为基础,为ChatGPT制定了问题。他们让ChatGPT将STROBE清单的每一项转化为具体的问题或提示。接着,ChatGPT回答这些问题,为流行病学研究提供了有力的支持。领域专家随后评估了ChatGPT对每个提示的回答,特别是其连贯性和相关性。结果显示,ChatGPT在连贯性上的平均得分为3.6(满分5.0),在相关性上的平均得分为3.3(满分5.0),这表明ChatGPT为流行病学研究提供了有价值的支持。 此外,ChatGPT在处理大数据,如电子健康记录或基因组数据时显示出其高效性。这意味着科学家们可以将更多的时间用于思考和设计实验,而不是被复杂的数据分析所困扰。在药物设计和发现方面,ChatGPT也展现出了巨大的潜力,有望加速药物研发的进程。 (3)临床实践上的研究 从临床实践的角度看,多数研究者对ChatGPT的临床应用持相对谨慎的态度。然而,ChatGPT在简化临床工作流程方面展现出了巨大的潜力,这不仅可能帮助医疗机构节省成本,还能提高工作效率。例如,ChatGPT能够自动生成高效的出院小结,从而减轻医生的文书工作负担。 在放射学领域实践上,ChatGPT的答案与美国放射学会(ACR)关于乳房疼痛和乳腺癌筛查的适当性标准进行了比对。在开放式(OE)提示格式中,ChatGPT被要求推荐最合适的单一成像程序;而在选择所有适用(SATA)格式中,ChatGPT则提供了一个待评估的成像模式列表。根据评分标准,ChatGPT的建议是否与ACR指南相符进行了评估。对于乳腺癌筛查,ChatGPT的OE平均得分为1.83(满分2分),SATA的平均正确率为88.9%;而对于乳房疼痛,OE的平均得分为1.125,SATA的平均正确率为58.3%。这些数据验证了ChatGPT在放射学决策中的应用潜力,它有助于优化临床工作流程并更加负责任地利用放射学服务。 此外,ChatGPT在提高个性化医疗服务方面也展现出了其优势。它能够为患者提供易于理解的健康信息,提高他们的健康知识素养。ChatGPT能够根据具体的问题提供定制化的答案,并依据最新的研究和指南为医疗决策提供基于AI的建议。这意味着,医务人员无需逐篇查阅相关指南和研究,就可以快速获取AI总结和提炼的关键信息。 总的来说,ChatGPT为医疗行业带来了新的视角和工具。它不仅可以帮助医生更准确地预测疾病的风险和结果,为患者提供更加个性化的治疗方案,还可以优化诊断和记录流程。对于那些日常工作繁重的护士,ChatGPT则可以成为他们的得力助手,帮助他们简化工作流程,提高工作效率。 (4)在医学教育方面的应用 在医学教育领域,ChatGPT同样展现了巨大的潜力,逐渐成为医学教育的重要辅助工具。ChatGPT 已经通过一些国家执业医师的考试比如美国的 USMSL,在帮助医学生学习和复习时确实显示出了其价值。ChatGPT能够生成准确且广泛的临床教育内容,为学生提供个性化的学习体验,并在小组学习中发挥助教的作用。其个性化的交互方式极大地增强了自主学习的能力,同时还能为医学生提供职业沟通技巧的指导和培训,使医学教育更加全面。 例如,在眼科检查的研究中,Antaki等人发现ChatGPT的表现与初级住院医师的水平相当。这意味着,通过特定的预训练,我们可以进一步为眼科医生提供更加专业化的培训,从而提高他们在眼科子专业中的技能和知识。 总的来说,ChatGPT为医学教育带来了新的机会和挑战,未来在这一领域还有很大的发展空间。 02 ChatGPT医疗应用潜在的局限性和风险 我们必须认识到,ChatGPT是双刃剑,不可忽视其局限性与潜在的风险。法律角度上,人工智能生成的内容应用于商业目的时须注意不侵犯版权,人类作者必须确定人工智能生成的文本符合相关法规和法律。 需要指出的是,当前版本的ChatGPT在医疗应用各种测试中仅取得了“中等”或“及格”的性能,并且对于实际临床部署不可靠,因为它本身最初不是设计用于临床应用的,所以ChatGPT在医疗领域应用中仍有一定的局限性。但是,在医学数据集上训练的专业NLP模型仍然代表了临床应用的主导方向。 根据目前文献研究,大部分提到了与道德和伦理有关的问题,其中包括偏见风险(30.0%)、抄袭风险(30.0%)和数据隐私及安全问题(23.3%)。这些问题不仅限于道德层面,还涉及到实际应用中可能出现的多种风险,如不准确信息的传播(33.3%)、引用不当(16.7%)和透明度不足(16.7%)。此外,还有一些法律问题(11.7%)和关于使用过时信息(10.0%)的担忧。更有甚者,一些研究还提到了误传风险(8.3%)、内容过于详细(8.3%)、版权问题(6.7%)和缺乏原创性(6.7%)。 Sallam M. Healthcare (Basel). 2023 Mar 19;11(6):887. 笔者实际测试过程中,发现ChatGPT可以提供看上去极为真实的参考文献,但实际不存在,主要根源是 ChatGPT根据上下文的内容推测生成。现在提交SCI论文时,大部分期刊要求注明是否借鉴了AIGC工具协助创作。 03 ChatGPT应用规范建议 综合当前文献的研究结论,笔者提出了ChatGPT的应用规范的原则建议。 研究透明性:研究人员在使用ChatGPT时,应全面披露其在研究中的应用,并对生成的内容进行严格校验,确保其原创性和可信度。 医疗应用的补充性:医务人员在使用ChatGPT时,应当明确内容的局限性,将ChatGPT提供的内容作为其专业判断的补充,而非替代。 医学教育策略:医学教育工作者在使用ChatGPT时,应调整教学策略,防止其被用于不正当目的,如作弊,并应更加注重培养学生的批判性思维能力。 出版和审查机制:出版界应建立有效的审查机制,以识别和管理由ChatGPT生成的内容,确保学术的诚信和质量。 道德和监管规范:应制定相应的道德和监管规范,加强对ChatGPT及类似工具的管理,确保其安全、负责任的应用。...
ChatGPT在医学领域的应用及伦理Considerations
AI医师助手

ChatGPT在医学领域的应用及伦理Considerations

这篇文章探讨了ChatGPT在医学领域的应用及其在医学写作中的优势和局限性。文章指出,ChatGPT可以在医学领域中识别潜在的研究主题、协助专业人员进行临床和实验室诊断、帮助医学生、医生、护士和所有医疗团队成员了解他们各自领域的更新和新发展,以及开发虚拟助理来帮助患者管理他们的健康。然而,也应注意到ChatGPT在医学写作中的局限性,如缺乏可靠性和准确性、缺乏逻辑性和连贯性、缺乏原创性和创新性以及需要遵守相关法律规定。此外,使用ChatGPT生成内容还需要考虑AI透明度问题,并在医学写作中注意版权法律问题、医疗法律问题以及AI透明度问题。最后,文章展望了ChatGPT在医学领域的未来发展方向和可能的挑战,包括提高ChatGPT的性能和能力、扩大ChatGPT的应用范围和影响力,以及解决ChatGPT的伦理和法律问题。
ChatGPT在医学写作中的应用、优势、局限性和伦理考虑
AI医师助手

ChatGPT在医学写作中的应用、优势、局限性和伦理考虑

这篇文章主要探讨了ChatGPT在医学领域的应用及其在医学写作中的优势和局限性。文章指出,ChatGPT可以在医学领域发挥重要作用,如识别潜在研究主题、协助专业人员进行临床和实验室诊断、帮助医学生和医生了解最新医学信息等。然而,它也存在一些局限性,如缺乏可靠性和准确性、缺乏逻辑性和连贯性、缺乏原创性和创新性等。在伦理方面,文章强调了遵守版权法律、医疗法律和AI透明度等问题。最后,文章对ChatGPT在医学领域的未来前景进行了展望,提到了提高其性能和能力、扩大其应用范围和影响力,以及解决其伦理和法律问题的重要性。