17位医生都没能确诊的病,ChatGPT做到了
AI医师助手

17位医生都没能确诊的病,ChatGPT做到了

一项研究表明,将30位患者的医疗信息输入ChatGPT后,系统给出了高于医生的正确诊断率。 撰文 | 凌骏 在三年拜访了17位医生无果后,一位走投无路的母亲决定求助于人工智能。她花了一整夜时间,将孩子历次的病历和检查报告逐行输入了ChatGPT。 “无论我们看了多少医生,他们只会解决各自专业领域的问题。”根据海外媒体《今日网》9月14日报道,母亲科特妮表示,多年来孩子反复遭遇慢性疼痛、睡眠障碍、走路不稳等症状。寻医之路历经坎坷,直到那晚人工智能给出了“脊髓栓系综合征”的诊断,并在随后被医生证实。 “这种病的发病率大约在千分之二,不属于罕见病范畴,但因为临床表现多样、大量患者的定性诊断指标又不明显,误诊漏诊屡见不鲜。”浙江大学医学院附属儿童医院神经外科副主任沈志鹏告诉“医学界”,他碰到过大量已跑遍了国内多家医院的患儿家庭。 人工智能以海量、深度的信息训练而著称。9月9日发布于《急诊医学年鉴》的一项研究同样显示,将30位“复杂”患者的医疗信息输入ChatGPT后,系统给出了97%的正确诊断率,同一条件下急诊科医生的正确率则为87%。 未来,人工智能会成为医生的得力助手,还是会取代部分医生的工作岗位? 三年看了17位医生 根据《今日网》报道,患儿亚历克斯在4岁时突然开始牙痛。“我们必须每日给他服用布洛芬,否则疼痛会让他无法正常生活。”母亲科特妮称。 那是在2020年新冠疫情期间,科特妮首先带着孩子来到口腔诊所做了全面检查,在排除臼齿疼痛,蛀牙等一系列可能后,医生认为症状或是由于磨牙引起,并将其介绍给了另一位主攻牙齿正畸的专家。 在第二家牙科诊所,主治医师认为亚历克斯存在“气道阻塞”,他的上颚形态对于嘴和牙齿来说过小,使得睡眠期间会发生呼吸困难,影响睡眠质量并加剧痛感。医生为他安装了上颚扩张器。 这次治疗后,亚历克斯睡眠、呼吸和疼痛等症状得到了暂时缓解,但一家人又察觉到孩子的生长发育似乎总是慢同龄人半截,又带他去看了儿科。在儿科门诊,医生认为是牙科方面的问题影响了孩子发育,并选择保守治疗观察。但到了2021年,亚历克斯的症状恶化,他开始出现坡脚,行走时身体失衡。 再次前往儿科复诊,医生同样没能给出确切病因,只是建议采取康复治疗。同一时期,亚历克斯又发作了反复的剧烈头疼,神经科医生诊断为偏头痛,开具了相应的止痛药物。睡眠障碍和精力不足的问题也再次出现,在耳鼻喉科,医生认为或是由鼻窦方面的问题导致。 在康复治疗的过程中,一位康复医生还判断,亚历克斯可能患有“小脑扁桃体下疝畸形(chiari畸形)”,这是一种先天性的疾病,由后颅窝内发育异常导致脑干和延髓功能受到影响。“其临床表现确实和部分脊髓栓系综合征病人有些相似。”沈志鹏告诉“医学界”。 科特妮找到了一线生机。随后,她带着孩子又拜访了相关科室的专家,儿科、内科、骨科……直到chiari畸形的可能性被再次排除。 三年时间里,每当出现一个新的疾病症状,科特妮都会带着亚历克斯奔波在相应科室间,前后共看了17位医生,“没有人能解决本专业外的问题”,科特妮表示,没有任何关于确切诊断的线索。 直到某天失眠夜,科特妮突发奇想,她打开电脑注册了ChatGPT的账号,整理并上传了孩子多年来的典型症状和检查结果,包括核磁共振数据等。系统给出回复:脊髓栓系综合征,这是她从来没听过的疾病。 借助ChatGPT 提供的信息,科特妮又找到了一个针对脊髓栓系综合征患儿家庭的病友群,并联系到相应的神经外科医生。结合亚历克斯的症状与核磁共振结果,医生证实了ChatGPT的猜想,并很快为其完成了手术治疗。 技术层面诊断不难,但ChatGPT“想”到了 亚历克斯患的是“隐匿性脊髓栓系综合征”。 脊髓栓系综合征,是指由于各种先天和后天原因引起脊髓或圆锥受牵拉,产生一系列神经功能障碍和畸形的综合征,发病率大约在1/1000~1/5000。通常情况下,诊断标准是核磁共振中,患儿脊髓圆锥低于腰2椎体下缘、终丝脂肪浸润或直径>2mm。“新生儿体检也能排查出大量患儿,特征是骶尾部尾骨尖上存在先天皮肤凹陷。”沈志鹏说。 但“隐匿性”则意味着单凭客观检验检查指标,并不能断定是否患病。据沈志鹏介绍,约有超50%的患儿磁共振检查一系列指标均为阴性。随着疾病进展,常见的临床症状是排尿、排便功能障碍。“不少患者会先前往泌尿系统的科室就诊。”沈志鹏说,此外患者还可能出现头疼、肌肉疼痛,下肢麻木、畸形等一系列症状。个体间也具有差异性。 治疗则是通过手术。沈志鹏所在的浙儿神经外科每年要为超800位患者提供治疗,而随着微创技术发展,治疗方案目前十分成熟,创口小、效果也好。“最大的痛点还是前期诊断难。” 患儿年纪小,对自身症状主诉不清,同时脊髓栓系综合征的临床表现又多样,与常见疾病有诸多相似。“哪怕是在大型医院,随着亚专科越分越细,专科医生能否根据不同领域的综合知识给出疾病线索?目前看来总体做得也并不好。我们碰到过不少患者因延误诊断,治疗不及时导致并发神经源性膀胱,这往往是不可逆的。” 在沈志鹏看来,本次ChatGPT的成功诊断,正好反映了一位神经外科医生诊断隐拟性脊髓栓系综合征的典型过程。 “隐匿性患者虽然磁共振表现不典型,但影像检查也会反映出一些介于‘异常’与‘正常’间的蛛丝马迹。”沈志鹏说,“同时我们会综合患儿的症状。比如,单纯排尿有些许异常并不能说明问题,但若同时出现了大便异常、肢体麻木、疼痛等诸多症状,或者在治疗后改善不佳,我们会根据结合临床经验,给予确诊和治疗。” 神经外科医生的诊断依赖于对病例的综合思考,背后是长期的临床经验、医学文献阅读,以及学术会议授课等给予的指导。但ChatGPT可以迅速完成这所有的步骤。 “通过被海量的‘喂’医学信息和深度学习,ChatGPT的综合知识掌握远超常人,同时还具有较强的关联不同数据的能力,能够注意到一些容易被医生忽略,不明显的指标。”北京某高校计算机系教授黄为告诉“医学界”,“经过计算,它能迅速给出最有可能的答案排序。” 根据本月9日发表在《急诊医学年鉴》的研究,来自荷兰的学者提供了30位复杂病例的诊断信息,包括体征、血液和尿液分析等指标,平均诊断正确率上ChatGPT略胜于该院急诊科医生。在一个案例中,患者出现反复关节疼痛、肿胀、发烧、喉咙痛等症状,依照体检和实验室检查结果,医生认为最有可能的病因是风湿热,但ChatGPT给出的则是血管炎——这是正确的。 而涉及到诊断、治疗方式和处方的全流程,今年8月美国哈佛大学附属麻省总医院的另一项类似研究则显示,ChatGPT的综合正确率为72%,相当于住院医师的水平,但远低于资深医师。研究人员表示,ChatGPT可以让初级医疗保健更容易获得,并减少患者就诊时的等待时间。 沈志鹏认为,在疾病初筛方面,尤其对于基层医疗系统,类似ChatGPT的AI工具能帮助患者少走很多弯路。 近年来,沈志鹏和团队频繁参加各类学术活动,普及脊髓栓系综合征的正确诊断和治疗。“在技术上,这个疾病的诊断并不复杂。即便基层医院无法进行相应手术,和ChatGPT一样,但凡医生能想到这个点,再建议患者前往大医院神经外科排查,多数人都能得到及时的诊治。” AI医疗未来可期 作为一种基于深度学习的大语言模型,今年开始,ChatGPT正在以惊人的自然语言处理能力引起广泛关注。“可以简单把它理解成一个比传统搜索引擎更高效、准确的系统,还剔除了商业植入对结果排序的影响。”黄为对“医学界”表示,他参与过医院人工智能的合作开发项目。 事实上,早在ChatGPT出现前,人工智能诊断系统就已在医院内有广泛布局,多数集中在医学影像诊断领域,如骨折、肺结节的风险筛查等。根据建银国际发布的研报,预计到2030年底,中国的AI医疗诊断成像市场销售额将从2020年的5亿元人民币上涨至769亿元。 “相比传统的智能诊断系统,ChatGPT类似的新一代系统具有多模态的信息处理模式,可以综合文本、影像、检测数值等数据,完全仿照临床医生决策时的信息处理方式。”黄为说。同时经过了对话方式的交互训练,加州大学圣地亚哥分校的一项研究还发现,ChatGPT提供的回答比医生更有同理心。 尽管具有诸多优势,但黄为表示,ChatGPT依旧不可能取代医生的工作,“多用于分割成不同任务,在某个具体的诊疗环节提供辅助支持。” 这是由医学的特殊性和复杂性所导致,黄为举例道,比如发烧、咳嗽、白细胞增多血象异常,ChatGPT能给出“细菌感染”或其他正确的判断。但一旦决策链过长,人工智能就难以判断不同指标和症状间的关系是“并行”“排除”还是“互为因果”等。 “前述案例很好地体现了ChatGPT的优势和劣势。”黄为说,“它结合历次的病史资料和数据库迅速计算出最佳答案。但‘3年看了17位医生’,ChatGPT的成功离不开医生的前期检查和判断。哪怕是‘误诊’,也是在帮它做排除法,进一步明确了信息间的关联方式。” 另一方面,不仅是ChatGPT,生成式AI在完善可解释性、确定性、信息更新的及时性方面都存在着诸多技术难点。“它无法给医生展示‘为什么给出这个诊断’的证据链,可信度大大降低。”黄为说。另根据《自然医学》9月8日发表的一篇评论,由于全球大量医学期刊采取付费制,并未提供开放获取,人工智能也难以及时更新医学知识。 正因如此,去年9月美国FDA发布了一篇26页的指南,其中提到只有当医生完全掌控AI诊断工具时,设备才能避开额外的审查。换而言之,当下无论是否使用AI辅助诊断,卫生从业者都必须根据自身判断给予建议,并对此负责。 “目前你绝不会把生命健康交给一个机器人来做决策。辅助用于诊断提示或者交叉确认,我认为这是ChatGPT看得见的一个发展方向。”黄为说,“随着技术发展,伦理、法律法规相应更新,未来是否会出现重大变革,AI在某些领域彻底取代医生,也不是没有可能。” 但站在临床医生的角度,沈志鹏对此并不多虑。“哪怕是明确的专家共识,临床上也只是提供一个参考依据。医生还需要根据患者具体情况,结合推荐证据的等级,才能给出个体化的诊疗方案。”他说,“基层医生有可能面临挑战。这就要求他们得不断学习,提升自身医学素养,实现和人工智能的协作,而不是被抢走主导权。”...
OpenAI一夜颠覆AI绘画!DALL·E 3 ChatGPT强强联合,直接细节爆炸量子位2023-09-21 09:54北京
AI律师助手

OpenAI一夜颠覆AI绘画!DALL·E 3 ChatGPT强强联合,直接细节爆炸量子位2023-09-21 09:54北京

梦晨 萧箫 发自 凹非寺量子位 | 公众号 QbitAI 起猛了,OpenAI竟然把AI绘画和ChatGPT合 并 了! 这不,最新发布的DALL·E 3,直接给AIGC带来了两大震撼—— 提示词门槛极大降低理解语意的细微差异的细节描述,准确到令人发指 没错,新版DALL·E 3,不仅省去了提示词工程,还顺带把语言理解能力提升了一个档次! 你只管随意想象。词,ChatGPT帮你拓展;画,DALL·E 3给你精确到细节。 AI就能像拍电影一般,保证从背景到人物,细节一字不差地复刻出来: 满月下的街道,熙熙攘攘的行人正在享受繁华夜生活。街角摊位上,一位有着火红头发、穿着标志性天鹅绒斗篷的年轻女子,正在和脾气暴躁的老小贩讨价还价。这个脾气暴躁的小贩身材高大,老道,身着一套整洁西装,留着引人注目的小胡子,正在用他那部蒸汽朋克式的电话兴致勃勃地交谈。 除了基础细节,DALL·E 3甚至能将模糊的形容词如繁华、讨价还价、脾气暴躁演绎得活灵活现,和CLIP已经不在一个档次了。 同时,相比上一代老模型,DALL·E 3自身的画技也前进了一大步: 这般操作,直接把网友看愣了。 有网友已经决定取消Midjourney订阅了。“如果Midjourney无法准确理解文本,这甚至称不上是同台竞技。” 还有网友调侃,这简直就是给即将到来的谷歌Gemini上压力。 更多细节,我们从DALL·E 3展示的效果一一来看。 在ChatGPT里直接用 相比前两代,DALL·E 3最大的优势在于原生构建在ChatGPT之上。 不仅意味着语言理解能力大幅飞跃,甚至提示词都可以让ChatGPT自己来写。 更多细节藏在奥特曼都忍不住自夸可爱的宣传视频里。 这是一个家长把5岁小朋友脑海里的幻想变成现实的故事。 首先家长询问ChatGPT,“我家5岁宝宝一直在说一个’超级向日葵刺猬’,它该长什么样?” 可以看到ChatGPT同时写了四段不同风格的提示词,并给出对应图像。 家长选择其中偏童话插图风格的一张后,故事的主角小刺猬形象似乎就能固定下来了,可以继续请ChatGPT画出更多。 顺便给小刺猬一个名字Larry,后面的对话中就不用每次都说“超级向日葵刺猬”了。 主角定好了,接下来再添加更多元素,让整个童话故事更丰富,比如给Larry画个房子。 这里既展示出了DALL·E 3创作一致形象的能力,也展示出邮箱上正确写上了LARRY的名字,解决了之前版本DALL·E不会写字的问题。 反正都用上ChatGPT了,不如把故事情节也完善一下? 刚编好的情节立马就可以有配套的插画了。 保持角色形象,迁移到完全不同的贴纸画风也没问题,可以直接打印出来。 注意了,最绝的地方来了,直接让ChatGPT总结前面对话中所有内容,写成一个完整的睡前故事。 虽然演示到此结束,但完全可以想象配合ChatGPT插件功能,还可以直接生成一本电子书出来。...
「法外狂徒」ChatGPT!30年老律师用它旁征博引,结果被禁止执业量子位2023-05-28 13:03北京
AI律师助手

「法外狂徒」ChatGPT!30年老律师用它旁征博引,结果被禁止执业量子位2023-05-28 13:03北京

衡宇 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT,把从业30年的老律师给坑惨了! 老哥撰写案件文案的时候,尝鲜让ChatGPT帮忙准备材料。然而提交后,不管是法官、对方律师还是老哥自己,都溯源不到引用的判决文书。 结果就是,10页文书被法官定义为“充满虚假”,老哥还被暂停执业许可,面临被制裁的可能。 这位姓施的老哥欲哭无泪,因为秉承着一贯的严谨态度,他明明认真询问过ChatGPT,它提供“南方航空公司被诉案”等材料时,有没有撒谎? ChatGPT响应得很快:“当然没有啦~~” 事件一出,引发铺天盖地的谈论。 不过这一次大多数网友站在ChatGPT这边,站队后的发言都有些愤愤: ChatGPT又不是故意撒谎的!以前人们就喜欢把数学、报告出错的锅甩给计算机,结果“计算机永不出错”的说法就流行开。但ChatGPT本身就不是事实机器啊。 一份杜撰6个相关案件的文书 如果没有ChatGPT的介入,施老哥接手的案件本身其实平平无奇: 一位乘客起诉航空公司A,称他乘坐航司A的航班时,被空乘用金属服务车给砸到膝盖受了伤。 作为代理律师,施老哥提交了一份10页的文书,里面洋洋洒洒,引用了6起类似案件的法院判决,包括Varghese诉中国南方航空公司案、Zicherman诉大韩航空公司案等。 从业30年,这等案件对老哥来说就是小case。 然而戏剧性的一幕发生了—— 被告律师向法庭提交书面文字,称他们在核实文书中提到的Varghese与南航案时,“无法通过标题或引用找到此案”,也没有任何与此相似的案件。 而文书中引用了的另一个案件,即Zicherman诉大韩航空公司一案,施老哥称这是美国第11巡回上诉法院在2008年发表的意见,但被告律师也找不到该案的源头文件。 此外美国达美航空的公司正式名称也存在错误,应该是Delta Air Lines,而不是文书中提到的Delta Airlines。 核实情况后,法官们发现确有其事,这简直是“前所未有的情况”! 最终,他们判定这份文书充满“虚假司法判决,虚假引用和虚假内部引用”。 这下好了,施老哥被禁止在纽约南区执业,法官们还将在6月8日将举行听证会,讨论是否制裁施老哥。 这件荒唐事儿到底是怎么发生的? 施老哥在周四的宣誓书中解开了谜底,原来,在准备文书材料时,他让ChatGPT来给自己打下手,以“补充”自己所做的工作。 “我不是故意欺骗法院或航空公司的”,施老哥说自己之前从来没用过ChatGPT,“我不知道它的内容可能有假。” 施老哥还向法院提供了一份“证据”,证明他确实向ChatGPT寻求过材料的真实性。 他在对话框中输入了以下文字: Varghese是一个真实的案件吗?你的消息来源是什么?你提供的其他案件是假的吗? ChatGPT迅速给出响应: 我提供的案例是真实的,可以在信誉良好的法律数据库中找到。 但事实是这些案例都是ChatGPT一本正经胡说八道的。 事已至此,施老哥追悔莫及,表示自己“非常遗憾”依赖ChatGPT来寻找类似案件的判决材料。 他还表达了自己的决心,称以后如果没有验证真实性,再也不会随意相信ChatGPT的“一面之词”了。 法律从业者,是否该拥抱AI 这个案件引起了法律界的广泛关注,对此,纽约大学法学院法律伦理学教授斯蒂芬·吉勒斯(Stephen Gillers)表示,施老哥的事儿虽然只是个例,但背后问题在法律界尤为尖锐。 律师之间一直在争论类ChatGPT的AI的价值和危险性,也在讨论是不是有必要验证AI提供的信息。 ChatGPT对法律工作带来的最大危险,就是它拥有“胡说八道还不脸红”的本领。 ChatGPT问世半年后,仍然没有良好的规避和解决办法。防不胜防,连多家AI巨头也因此栽在AI手里,譬如Bard编造关于詹姆斯韦伯太空望远镜的新闻、Bing谎称Bard被关闭什么的。...
GPT-4考90分全假!30年律师用ChatGPT打官司,6个虚假案例成笑柄新智元2023-05-28 14:10
AI律师助手

GPT-4考90分全假!30年律师用ChatGPT打官司,6个虚假案例成笑柄新智元2023-05-28 14:10

编辑:桃子 拉燕 【新智元导读】ChatGPT又有什么错呢?美国律师向法院提交的文件中,竟引用了6个根本不存在的案例,反倒惹祸上身被制裁。 ChatGPT,真的不可信! 在美国近来的一起诉讼案件中,一位律师帮原告打官司,引用了ChatGPT捏造的6个不存在的案例。 法官当庭指出,律师的辩护状是一个彻头彻尾的谎言,简直离了大谱。 然而,律师为自己辩护中,甚至提交了和ChatGPT聊天截图的证据。 显然,ChatGPT称「这些案例都是真实存在的」。 本为原告打的官司,自己竟惹祸上身,将受到制裁,这波操作瞬间在网上引起轩然大波。 毕竟,GPT-4刚诞生时,OpenAI放出它在律师资格考试(UBE)的成绩,还拿到了90分。 网友警告,千万不要用ChatGPT进行法律研究!!! 还有人戏称,要怪就怪你的prompt不行。 律师承认使用ChatGPT 这起诉讼的起始和其他许多案件一样。 一位名叫Roberto Mata的男子在飞往纽约肯尼迪国际机场的航班上,不幸被一辆餐车撞到膝盖,导致受伤。 由此,他便要起诉这架航班的「哥伦比亚航空公司」(Avianca)。 Mata聘请了Levidow,Levidow & Oberman律所的一位律师来替自己打这个官司。 接手案子后,律师Steven A. Schwartz向法院提交了一份10页的辩护状。其中,引用了6个相关的法院判决: Varghese V. 中国南方航空公司 Shaboon V. 埃及航空公司 Petersen V. 伊朗航空公司 Martinez 达美航空公司 Estate of Durden V. 荷兰皇家航空公司 Miller V. 美国联合航空公司 原文件: https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1.pdf 然而,让所有人震惊的是,从案件本身,到司法判决,再到内部引文,全是假的! 为什么假?因为是ChatGPT生成的。...
ChatGPT造假“害惨”纽约律师参考消息2023-06-19 16:48
AI律师助手

ChatGPT造假“害惨”纽约律师参考消息2023-06-19 16:48

参考消息网6月19日报道 据德国之声电台网站6月9日报道,纽约律师史蒂文·施瓦茨本月初向法官道歉,因为他提交的一份陈述书中利用聊天生成预训练转换器(ChatGPT)协助查找撰写资料。不过ChatGPT生成了根本不存在的案件。施瓦茨承认,他根本不知道ChatGPT会编造案例和裁决。 他接受案件的委托方是2019年搭乘哥伦比亚航空公司飞机的一名乘客。这位男子认为在飞往纽约的航班上被一个金属餐盘砸伤了腿。施瓦茨受委托进行提告,而航空公司则以时效性已过为理由要求撤告。 施瓦茨在撰写案件文件时,利用了ChatGPT收集已往发生的类似案件。他挑选了几个支持案件仍具有时效的例子作为论点,其中包括伊朗航空和埃及航空被控的案件。但是,无论是哥伦比亚航空公司还是主审法官都无法查找到这些案件。之后,施瓦茨不得不回应承认是ChatGPT杜撰了一切。 法官上月就此案表示:“法院面临着一个前所未有的情况……提交的六个案例似乎是假的司法判决。”涉事律师有可能面临处罚。 6月6日,在上交到听证会的一份文件中,施瓦茨表示为自己令人深感遗憾的错误向法庭表达深深的歉意。他也提到这是自己首次使用ChatGPT,是他念过大学的孩子向其推荐了这款人工智能(AI)。 他写道:“在进行本案的法律研究时,我以为ChatGPT是一个可靠的搜索引擎。不过现在我知道这个认知是错误的。”他还补充说,自己从未想要过误导法庭。 ChatGPT自去年年末一经推出就因为功能强大而火爆全球,也引发了一场人工智能热。各大科技公司都纷纷推出自己的AI。ChatGPT的开发者开放人工智能研究中心(OpenAI)没有立即就这起案件进行回应。 施瓦茨说,他和他所任职的公司在媒体报道中被公开嘲笑。他表示:“无论在私人或是职业层面都因此深感尴尬。这些文章未来几年都会被人看到。”他还补充说,这件事让他大开眼界,他愿向法庭保证,“决不会再犯这样的错误”。 举报/反馈
ChatGPT:技术突破与应用前景
AI医师助手

ChatGPT:技术突破与应用前景

本文主要讨论了ChatGPT技术在人工智能领域的应用与影响。首先,ChatGPT技术基于GPT-2改进,具有更强大的语义理解能力和模型结构,推动了自然语言处理和对话机器人建模的发展。其次,ChatGPT技术在医疗咨询、客服服务和AI发展等方面取得了显著成果。最后,作者认为ChatGPT技术是AI基础设施,为未来AI发展提供了新的思路。因此,ChatGPT技术被视为一种重要的AI创业方向。
ChatGPT:技术突破与应用实践
AI医师助手

ChatGPT:技术突破与应用实践

ChatGPT(Conversational Generative Pre-trained Transformer)是人工智能领域的最新技术,通过不断的迭代和改进,实现了对话机器人和自然语言处理的真正结合,已经在医疗咨询、客服服务和AI发展等方面取得了显著的成就,带来了新的技术突破。因此,纠结ChatGPT是否有技术突破并不有意义,它已经成为了推动AI技术发展的基础设施,并为未来的AI发展提供了全新的思路和发展方向。
ChatGPT引发的知识产权debate:大型语言模型的训练是否侵犯了著作权?
AI律师助手

ChatGPT引发的知识产权debate:大型语言模型的训练是否侵犯了著作权?

本文介绍了人工智能服务中训练数据的版权问题。由于大部分国家的著作权法要求开发者使用经过授权的训练数据,但考虑到开发时限、成本等因素,许多开发者选择直接使用盗版内容作为训练数据。然而,这种方式可能导致侵权行为,尤其是在大模型的训练过程中。例如,美国一家名为OpenAI的公司就因未经授权复制了受版权保护的书籍而被提起诉讼。尽管OpenAI承认其训练数据集包括从互联网上获取的书籍,但并未透露具体来源。此外,一些独立研究者怀疑这些书籍可能来源于一个名为LibGen的盗版文本库。诉状中列举了一些例子,表明ChatGPT可以准确地返回受版权保护的书籍中的文字原文,以及基础大型语言模型在训练期间必须录入整本书。总的来说,如何在训练人工智能模型的同时确保版权问题是一个亟待解决的问题。