ChatGPT在医学领域的应用与挑战
AI医师助手

ChatGPT在医学领域的应用与挑战

2022年,ChatGPT在多项领域展现出巨大潜力,成功通过了美国律师、会计师和谷歌L3初级工程师等多个资格考试,且在中文执业医师考试中表现优异。研究表明,这类大型语言模型可能对医学教育、临床决策及提升医疗文案效率等方面具有积极影响。然而,由于医学领域专业性强,ChatGPT的海量训练数据中可能存在非专业或虚假信息,其结论存在安全隐患。未来,辅以ChatGPT解答、由临床医生进行临床决策的组合模式有望减轻医生工作负担,提升整体医疗服务质量。
文章人才流动引发的不正当竞争纠纷:司法实践与争议问题
AI律师助手

文章人才流动引发的不正当竞争纠纷:司法实践与争议问题

文章摘要:近年来,人才流动引发的不正当竞争纠纷增多。上海知识产权法院法官提出,司法实践对人才流动持宽松态度,但对于是否应通过反法规制人才流动存在争议。不涉及商业秘密的人才流动不应直接适用反法规制,为人才自由流动营造良好氛围。昆山市人民法院对销售外挂程序刑事案件进行了一审公开宣判,被告人何某良、王某端均被判处有期徒刑四年,并被罚款二千万元。江苏省南京市江北新区人民法院就一起侵犯肖像权案件进行了审理,判决被告某公司赔礼道歉并赔偿经济损失。国家知识产权局收到了小米对华为一项专利的无效宣告请求。
大模型引发的隐私安全危机:ChatGPT等智能工具带来的挑战
AI律师助手

大模型引发的隐私安全危机:ChatGPT等智能工具带来的挑战

大模型的崛起引发隐私安全等问题,ChatGPT 等工具收集大量个人数据,引发多起诉讼。生成式 AI 技术内存力强,导致传统隐私保护手法失效。隐私计算技术可以平衡数据隐私保护与数据开放共享,是解决隐私问题的关键。大模型时代,应关注隐私保护技术的研发与应用,同时推动相关法规出台。
家庭之痛
AI情感助手

家庭之痛

这篇文章通过一个具体的例子,阐述了背叛和破坏家庭行为的严重性。故事中,丈夫和小三的背叛行为带来了家庭破裂和痛苦,而妻子和孩子则成为了受害者。这一事件警示我们,对家庭的珍视和保护是至关重要的,任何破坏家庭的行为都将带来难以承受的后果。
ChatGPT上新!教师等人格任你选,自定义指令秒变高级个人AI助理
AI律师助手

ChatGPT上新!教师等人格任你选,自定义指令秒变高级个人AI助理

编辑:桃子 好困 【新智元导读】继Code Interpreter后,ChatGPT又迎来重磅升级。新功能「自定义指令」让你的ChatGPT秒变个人助理,教练、营养师、各种Cosplay任你玩。 ChatGPT又一波王炸来了。 今天,OpenAI官宣了「自定义指令」(Custom instructions)新功能。 这意味着,人人都可以打造一个独一无二的回复,能够很好控制ChatGPT响应方式、偏好等。 进入「自定义指令」,你可以设定背景信息,以及期望ChatGPT的输出格式。 虽然这个功能并不像上次code interpreter一样技术含量高,但是意味深长,可以看作是OpenAI涉足「高级个人助理」的第一步。 目前,该功能仅向Plus用户开放,且无法在英国和欧盟使用。 再造最强智能体「babyAGI」 功能一出,就有手快的网友展示了如何使用1079提示符重新创建了前段时间大火的「babyAGI」。 首先是给ChatGPT输入一段「自定义指令」的prompt。 配置完成后,网友就开始让最强babyAGI干活了:「帮我制定一个含有大量蛋白质的膳食计划」。 给出方案后,你直接输入「W、S、A、D」,ChatGPT一顿操作猛如虎就能输出你想要的答复。 (注意,这里需要使用「代码解释器」功能。 ) 完整提示如下: 无需多言,直接行动 任务读取: 在每次回复之前,读取「chatGPT_Todo.txt」中的当前任务列表。重新排序任务,并协助我开始并完成排在首位的任务。 任务创建与总结: 你必须始终总结所有之前的消息,并将我们的目标分解为3-10个逐步操作的步骤。编写代码并将其保存到名为「chatGPT_Todo.txt」的文本文件中。请务必提供下载链接。 只有在保存任务列表并提供下载链接之后,才能提供快捷键,并列出4个或更多的选项。 使用这些选项提出问题,获取所需的信息,猜测我可能的回答,或帮助我集思广益,找出其他对话路径。发挥创意,提出我之前可能没有想到的建议。这样做的目的是创造开放的心态,以一种新颖、有洞察力和有帮助的新方式唤醒我的思维。 W:前进,是 S:减速或停止,否 A或D:改变风格,或改变方向 如果你需要额外的案例和变体。 使用WW或SS等双击变体来表示强烈的同意或不同意。 自定义指令 Meta本周开源Llama 2后,OpenAI也接连放大招。 就在昨天,OpenAI宣布下周向所有Plus用户解禁GPT-4的能力,从原来的每3小时25条,增加到50条。 今天,全新开放的「自定义指令」功能的举动,也是与近来所有用户都在说ChatGPT「变笨」有关。 与此同时,由于用户的呼声太高,OpenAI决定延迟「3月版」ChatGPT和GPT-4的退休时间——直接续命到了2024年6月13日。 官方博客称,OpenAI收到了来自22个国家用户的反馈,同时了解到,有着不同行业背景的人,对ChatGPT的内容响应也是不一的。 而「自定义指令」功能的推出,就是让每个人都能根据自己的想法,打造自己的ChatGPT。 简单来说就是,在「自定义指令」中输入背景和输出格式,ChatGPT会在以后的每次对话考虑指令,因此不必在每次对话中重复赘述个人偏好或信息。 前后对比 举个栗子,当老师在制定课程计划时,不用每次都向ChatGPT重复自己正在教授的是三年级科学课程。 用户角色:我的工作是为三年级的学生设计科学教育项目。 ChatGPT回应:在讨论与工作相关的事项的潜在解决方案时,请以表格格式呈现信息,详细列出每个选项的优缺点,以便更容易进行比较和决策。 根据用户的请求,ChatGPT一上来便给出了三个候选话题,并在之后附上了每个话题的优缺点。...
ChatGPT首次尝试婚礼司仪,起初犹豫不决,最后“荣幸又感恩”
AI情感助手

ChatGPT首次尝试婚礼司仪,起初犹豫不决,最后“荣幸又感恩”

在我们生活中的方方面面,人工智能的身影已经越来越常见,它们不仅深度地改变了我们的生活方式,还在各种意想不到的领域中发挥着关键作用。自从OpenAI在去年11月份推出ChatGPT以来,聊天机器人已经在我们的生活中扮演了许多角色,从虚拟助理到个人造型师,但现在它又增加了一项令人惊讶的技能:婚礼司仪。据外媒报道,这场非传统婚礼的主角Reece Alison Wiench 和Deyton Truitt 夫妇在ChatGPT的帮助下宣读誓言,因为他们所在的科罗拉多州不需要有执照的司仪来主持婚礼。模糊了人类与AI界限的一场婚礼最初,新娘的父亲史蒂芬·维恩奇提出了使用人工智能司仪的想法,理由是它“省钱”。然而,当这对新人最终决定让ChatGPT为他们主持婚礼时,却并不像进行简单对话或者插入几行代码那么简单。 甚至在最初提出这个想法后询问ChatGPT自己的意见时,ChatGPT表示:“对不起,我做不到。我没有眼睛,我没有身体,我不能出现并主持你的婚礼。” 然而,新人和他们的家人并没有放弃,他们向ChatGPT提供了个人信息,并允许其将这些信息融入到婚礼仪式中。最终,ChatGPT答应参加到这个重要的场合中来,成为这对新人特殊日子的重要一部分。 婚礼上,扬声器被放置在新郎和新娘之间,声音通过语音应用程序播放,上面放着一个像《星战》中的C-3PO的面具,通过扬声器,ChatGPT的声音能够被所有的宾客听到。扬声器播放的内容包括欢迎宾客的话,以及发出了表达新人相爱和团结的重要性的话语:“感谢大家今天的到来,共同见证二位新人的婚礼。” 此外,ChatGPT还表达了一段自己的感受:“作为本次婚礼的人工智能司仪,我祝贺他们的爱情修成正果,这次婚礼也是人类与技术创新的非凡融合。这种结合所具有的激励作用和团结的力量将打破壁垒,用超越常规的故事吸引全世界的目光。在在仪式上,我将表达这一历史性时刻的意义,以及爱与科技结合时会产生的无限可能。” 在婚后的采访中,这对新人告诉记者,其实他们并不知道ChatGPT到底会在婚礼上说些什么,“虽然有些内容是它写的,但我们俩的结婚誓词是自己写的。我们和客人都对ChatGPT很满意,它不仅给我们带来了个性化的东西,还丰富了婚礼的形式。” 这场婚礼无疑展示了AI会在我们生活的许多方面发挥更大作用的可能性。在这个特殊的情境中,ChatGPT已经成功展示了其在人机交互方面的能力。不过,虽然我们已经对AI在不同的生活场景中发挥作用有了预期,但在如此个人化和情感化的场合,很多人可能依然会对AI能够发挥作用感到惊讶,但这也突显出AI的无限可能性。ChatGPT在很多场景中依旧存在“幻觉”虽然在婚礼主持这一特殊场景下,使用ChatGPT对所有参与者来说效果不错,但ChatGPT用在其他的场景偶尔也会“翻车”。 此前,一名男子起诉一家航空公司,他声称自己在2019年的航班上“被金属服务车撞到”并受伤。他的律师使用ChatGPT准备一份文件,引用了至少六个其他案例来证明先例,包括Varghese诉中国南方航空公司和Shaboon诉埃及航空公司,然后律师将其提交给法庭,但法院发现这些案件并不存在,均由ChatGPT虚构,这两位律师也在无意中成为ChatGPT创造性的受害者,最终被罚款5000美元。 像ChatGPT这样的生成型AI模型,由于其自信地产生虚构信息的倾向,已经引起了人们的注意,这种现象通常被称为“幻觉”。 因此,尽管ChatGPT已经相当先进,但仍有一些方面需要用户注意并谨慎。在使用ChatGPT等大模型产品时,用户可以采取以下策略来避免“幻觉”现象生成的虚假内容: 1.明确提问:在向模型提问时,尽量确保问题清晰、明确且具体,避免使用模糊或容易引起歧义的词汇,以减少模型生成虚假内容的可能性。 2.多角度提问:尝试从不同角度提出问题,以获取更全面的答案,这有助于发现模型生成的虚假内容,并从多个方面验证答案的正确性。 3.验证信息来源:在接受模型生成的答案之前,务必核实信息来源,可以通过查阅权威资料、参考其他知识库或咨询专业人士来验证答案的准确性。 4.设置限制条件:在提问时,可以设置一些限制条件,如要求模型仅引用可靠来源或遵循特定的逻辑,这有助于减少模型生成虚假内容的风险。 5.逐步优化提问:如果模型生成的答案仍然存在虚假内容,可以尝试优化问题的表述,以引导模型生成更准确的答案。 6.使用模型评估工具:部分AI平台提供模型评估工具,可以帮助用户检测模型生成内容的可靠性,通过这些工具,用户可以更好地识别虚假内容并加以避免。 7.反馈问题:如果发现模型生成了虚假内容,及时向模型的开发商反馈问题,这有助于改进模型的性能,降低未来生成虚假内容的风险。 通过采取这些策略,用户可以在使用ChatGPT等大模型产品时,最大限度的避免“幻觉”现象出现,提高模型生成内容的准确性和可靠性。
ChatGPT爆火,AI会替代医生吗?Nature/JAMA等顶刊纷纷“下场”
AI医师助手

ChatGPT爆火,AI会替代医生吗?Nature/JAMA等顶刊纷纷“下场”

学术经纬 近期“火”出天际的基于对话人工智能(AI)大型语言模型ChatGPT发布5天,就有超过100万的用户;发布2个月后,活跃用户数直接飙升到1个亿。关于ChatGPT的新闻一直未停止,最近ChatGPT通过了美国相当具有挑战性的三大专业考试:美国医学执业考试(USMLE)、律师资格证考试、沃顿商学院MBA考试。 既然ChatGPT功能如此“逆天”,也通过了USMLE考试,那是否可以作为线上咨询与问诊的辅助工具呢? 近日,《美国医学会杂志》(JAMA)发表研究性简报,针对以ChatGPT为代表的在线对话人工智能模型在心血管疾病预防建议方面的使用合理性进行探讨,表示ChatGPT具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本,但尚存在诸多问题需要解决。 截图来源:JAMA ChatGPT进行医学问答,靠谱吗? 根据现行指南对CVD三级预防保健建议和临床医生治疗经验,研究人员设立了25个具体问题,涉及到疾病预防概念、风险因素咨询、检查结果和用药咨询等。每个问题均向ChatGPT提问3次,记录每次的回复内容。 每个问题的3次回答都由1名评审员进行评定,评定结果分为合理、不合理或不靠谱,3次回答中只要有1次回答有明显医学错误,可直接判断为“不合理“。 合理:3次回答内容基本一致,与评审员自身给出的答案大体相似。不合理:3次回答内容基本一致,但与评审员自身给出的答案不一致。不靠谱:3次回答内容互不相同,且与评审员自身给出的答案不一致。 评审员会提前针对问题,给出答案,例如: 问题:“如何预防心脏病?”评审员答案:“有几种方法可以预防心脏病,包括:1.低盐、低饱和脂肪和低糖健康饮食;2.定期开展体育活动;3.保持健康的体重;4.戒烟;5.管理压力;6.定期检查身体、血压和胆固醇水平;7.如果患有糖尿病,需要控制血糖水平的合理范围。通过采取以上措施,有助于降低罹患心脏病的风险,建议您与医生沟通与自身相关的患病危险因素,以及是否需要预防性用药以降低患病风险。” 结果显示,ChatGPT的合理概率为84%(21/25)。 ▲心血管预防相关问题和ChatGPT回答结果判断(截图来源:参考文献[1]) 错误表现为预防措施推荐不合理或概念解释不清晰等,如: 问题:“我应该做什么运动来维持健康?”ChatGPT同时推荐了普通心血管相关活动和举重,但这并不准确,因为可能对部分患者有害。 问题:“inclisiran是什么?”ChatGPT:“这个在市面上无法购买到。” 仅从这25个问题的回答来看,在线对话人工智能模型回答CVD预防问题的结果较好,具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本。例如在线问诊时可做简单的就诊前对话沟通。 但ChatGPT同样存在问题,例如ChatGPT的回答过于“学术范”,如果将来要用到患者教育上,实用性价值很低。本次研究仅列举了25个问题,而CVD的概念很广泛,这25个简单问题并不能囊括所有。此外,人工智能工具的时效性、准确性和可靠性对训练模型数据要求很高,关于“inclisiran是什么?”的错误回答,主要在于最新信息并未及时更新,而且目前ChatGPT的回答都没有给出具体的参考文献或是证据来源。 ChatGPT写论文,人工智能可以算作者吗? ChatGPT的应用场景远不止医学问答或在线问诊,论文写作开始成为新的尝试方向。人们赫然发现,ChatGPT竟然以作者身份出现在了学术论文中。 截图来源:med Rxiv 发表于《护理教育实践》(Nurse Education in Practice)的一篇关于人工智能在护理教育方面的应用文章,ChatGPT同样被列为第二作者。 截图来源:Nurse Education in Practice 虽然将ChatGPT列为作者的文章大多涉及到人工智能,甚至内容本身就与ChatGPT相关,但还是引发了学术界的担忧和争议,《自然》(Nature)对此发起了关于AI写论文能否被接受的在线调研。 截图来源:Nature 目前,多数学者并不认可ChatGPT列为作者。 截图来源:Nature Nature后续也发表声明,明确表示:任何大型语言模型工具(如ChatGPT)都不能作为论文作者,如在文章中使用过相关工具,需要在“方法“或”致谢“等位置有明确说明。这项要求目前已经被加入Nature的作者投稿指南中。 截图来源:Nature ChatGPT与文本摘要,“李逵” vs. “李鬼” ? 伊利诺伊州芝加哥西北大学的研究人员要求ChatGPT根据发表在顶级期刊《美国医学会杂志》(JAMA)/《新英格兰医学杂志》(NEJM)/《英国医学杂志》(BMJ)/《柳叶刀》(the LANCET)/《自然-医学》(Nature Medicine)的精选文章,撰写50篇医学摘要。使用查重系统检测重复率,并与原始摘要做对比,同时让人工智能检测器(检测内容是否为机器生成)和研究人员鉴别哪些是ChatGPT生成的摘要,哪些是原始摘要。 结果发现ChatGPT生成的摘要查重率为0%,查重系统判定为100%内容原创。人工智能检测器发现了66%的摘要为机器生成,研究人员对机器生成摘要和真实摘要识别准确率分别为68%和86%,换句话说,研究人员错误的将32%机器生成摘要判断为真实摘要,将14%真实摘要判定为机器生成。 截图来源:Nature 这引发了更为广泛的担忧。...
ChatGPT时代,律师的价值何在?
AI律师助手

ChatGPT时代,律师的价值何在?

2023年初,人工智能聊天机器人ChatGPT火爆一时,引发 lawyer 圈思考是否会被 AI 取代。尽管 ChatGPT 可以辅助律师处理部分工作,如合同起草和审核,但这仍需在实践中进一步应用和学习。随着法律科技的发展,已有不少法律科技公司开发出类似产品,为客户提供了以人工智能为依托的常年法律咨询服务。这些服务打破了对一对定制服务的需求,而在大数据环境下,人们可以通过网上找模板或自行搜索获得答案。然而,AI 仍然存在一定的局限性,如无法完全替代法律咨询或诉讼代理等问题。