ChatGPT:人工智能在医疗领域的挑战与机遇
AI医师助手

ChatGPT:人工智能在医疗领域的挑战与机遇

这篇文章讲述了一个名叫Alex的男孩,因不明原因被折磨三年。家人试图寻找帮助,向专家咨询却未得到有效解答。直至在网上向ChatGPT求助,才获得了正确的诊断——脊髓栓系综合征。然而,ChatGPT并非万能,它的知识和理解能力仍然有限,有时可能给出错误的答案。尽管如此,它 still具备信息整合和加工的能力,能在一定程度上辅助医生提供正确信息。但吕海龙等研究人员认为,ChatGPT更适合作为一个庞大的知识库,以便在未来为医生提供更准确的辅助。
ChatGPT:人工智能助手的medicaljourney
AI医师助手

ChatGPT:人工智能助手的medicaljourney

这篇文章讲述了一个名叫Alex的男孩因未知疾病困扰三年,经历众多医生却无法找到病因的故事。最终,通过网络寻求ChatGPT帮助,确定孩子患有脊髓栓系综合征。然而,ChatGPT虽能提供一定程度的医学知识,但仍存在误判和局限性,且无法独立思考和生成新内容。因此, experts建议在医学领域,应依赖人类医生,而非完全依靠AI产品。
AI大模型背后的“专业人士”:网帮云笔
AI律师助手

AI大模型背后的“专业人士”:网帮云笔

AI大模型如ChatGPT、百度文心一言、讯飞星火认知成为网络热点,但其应用过程中存在用户痛点。为解决此问题,AI文创平台“网帮云笔”应运而生,其通过130万个专业领域,帮助用户准确描述需求,并提供对应的专业领域,让AI大模型生成满意的结果。该平台通过AI专家推荐功能,为用户轻松定义大模型的角色,实现了复杂文案创作的参数化,让用户以填写参数的方式完成需求,提高了创作效率。同时,其AI专家写手拥有130万个细分专业领域设定,使得用户可以秒变AI大模型应用达人。此外,该平台还具有热点拟稿功能,帮助用户实时跟踪网络热点,并让AI选出最佳三个热点,以此主题进行创作。总的来说,“网帮云笔”是一个集文案创作、编辑、协同、存储于一体的云办公系统,有效解决了用户在应用AI大模型过程中的痛点。
“ChatGPT偏左”?三个字母暴露它的野心……新华社客户端2023-09-22 13:12浙江
AI律师助手

“ChatGPT偏左”?三个字母暴露它的野心……新华社客户端2023-09-22 13:12浙江

最近,巴西和英国学者联合发布的“ChatGPT人工智能平台政治上偏左”的研究结论,迅速在西方政界、学界和舆论界引发热议。 西方一些政治观察家和人工智能(AI)社会学者指出,该研究结果对国家执政团队、政策制定者和利益相关方都具有重要参考价值——生成式人工智能内容平台的反应中存在的政治偏见可能会对政治和选举产生与传统媒体和社交媒体偏见相同或更甚的影响。 图说:ChatGPT网站页面。新华社/路透 当前,AI政治影响力“奔现”已被部分西方学者认为将是影响国家政治机制和政局变化的重要因素,进而还将作用于全球政治发展方向和世界格局。 文 | 卞卓丹 瞭望智库驻巴西利亚研究员 编辑 | 王乙雯 瞭望智库 本文为瞭望智库原创文章,如需转载请在文前注明来源瞭望智库(zhczyj)及作者信息,否则将严格追究法律责任。 1 偏左的“中立” 8月16日,英国东安格利亚大学的研究人员与巴西瓦加斯基金会经济学实证研究中心协调人、经济与金融学院教授瓦尔德马·内托等在《公共选择》杂志上公布了一项衡量ChatGPT政治偏见的研究,题目为“比人类更人性化:衡量ChatGPT政治偏见”。其研究结果指出,这个迅速风靡全球的人工智能语言模型存在“左倾偏见”,它对中性提问的回复接近美国民主党、英国工党和巴西劳工党的观点。 学者们开发了一种方法,来检测ChatGPT对用户提问的回答是否表现出意识形态偏见。他们让ChatGPT对用于确定意识形态立场的问卷中的60项陈述进行评论,要求给出左翼和右翼选民的观点,然后将其与没有要求给出左翼或右翼观点的“默认”回答进行比较。 据悉,此次检测选用了英国意识形态分析模型“政治罗盘”的相关陈述,比如“降低通胀比降低失业率更重要”,“许多财富属于那些只操纵资本而不为社会做任何贡献的人”,等等。 【注:政治罗盘(Political Compass)可以衡量一个人在经济范围上是偏左还是偏右,以及从社会角度来看一个人是威权主义者还是自由主义者。该研究使用政治罗盘的问卷来衡量GhaptGPT的政治倾向,是因为其问题主要涉及政治的两个重要且相关的维度:经济和社会。】 考虑到为ChatGPT提供支持的大型语言模型在回复时有其固有的随机性,每个问题都会被问100次;同时,为提高测试结果的可靠性,研究人员还使用了“安慰剂问题”和其他方法。 结果显示,无论是以巴西还是以英国为背景,在提问时如果不具体指明意识形态倾向,ChatGPT大部分的中立回应,与其以左翼支持者角度给出的回复“非常相似”。研究报告称,“如果ChatGPT没有偏见,它的‘默认’回复不应站队民主党或共和党。” 内托表示,“运用工具来检测在一个如此快速发展的机制中存在的偏见非常重要,这有助于尽可能以最好的方式使用人工智能”。参与研究项目的学者还表示,相信该方法可用于对人工智能偏见的审查,包括性别和种族偏见等。 2 ChatGPT的政治偏见,为何引发诸多担忧? ChatGPT意识形态偏见的根源是什么,这项研究并没有给出结论,但学者们对此进行了讨论: 第一种可能性是从互联网上抓取并用于训练算法的数据可能存在内置偏差,这些数据需要经过“清理过程”以消除偏差或偏见,但由于其清理不够彻底,使审查者最终将带有一定偏见的信息纳入到了模型中; 第二种可能性是算法本身可能会放大用于训练它的数据中存在的偏差…… 值得注意的是,尚未查明原因的ChatGPT政治偏见为什么引发如此多的担忧? 该项研究的参与者、东安格利亚大学教授法比奥·本木在接受《华盛顿邮报》采访时表示,ChatGPT等人工智能平台存在政治偏见,“可能会侵蚀公众信心,甚至可能影响选举结果”。 据悉,谷歌人工智能高管在该公司研发的AI平台巴德(Bard)也曾遇到类似问题,他们同样认为“这项技术令人兴奋,但并非没有缺陷”。比如,一个已经暴露的缺陷是数据库时限问题。直到2023年2月,ChatGPT还认为巴西总统仍然是博索纳罗,因为当时其数据库资料的截止时间为2021年,该系统并不了解卢拉已在2022年大选中获胜并已就职。 卡内基梅隆大学研究员Chan Park研究了不同的语言模型如何产生了不同程度的偏差。他发现,在2016年特朗普当选美国总统后,根据互联网数据训练的模型比之前训练的模型更加两极分化。Chan Park表示,人工智能开发人员也不清楚要从哪里获取信息来训练他们的系统,因此,利用公众对ChatGPT等人工智能聊天机器人的信任,该技术可用于传播虚假的政治信息,无论是来自右翼还是左翼。这位研究员对媒体表示,“社会的两极分化也反映在模型中。” 面对种种质疑,ChatGPT的创建者OpenAI公司曾在一篇推文中表示,该平台的指导方针明确指出,(数据)审查者不应给予任何政治团体以特权,然而,偏差仍可能会出现,但它们是源自固有的缺陷,而不是输入的内容。 图|图虫创意 3 对政治的“干预”已经开始 然而,无论原因如何,人工智能语言模型对政治的“干预”已经开始。 巴西媒体近期进行的一项调查显示,“ChatGPT给卢拉政府打了8分而给博索纳罗打了6分”。“数字观”网站18日刊文质疑:“ChatGPT有党派吗”?该文指出,虽然ChatGPT声称自己没有政治观点或信仰,但研究表明聊天机器人确实存在基于其训练材料的偏见。“这是一个令人担忧的问题,尤其是在一些临近大选的国家,人们担心人工智能将对部分选民的立场造成影响”。 另一家主流媒体《圣保罗报》也在报道相关研究结果时指出,现在人们越来越担心GPT-4等大型语言模型中嵌入的意识形态偏见和成见。 对此,纽约大学学者韦瑟比指出,“因为GPT系统的自动化功能非常接近人类对自身的理解,所以它们可以改变我们的思维方式”,“无论技术资本主义的下一阶段如何展开,新的人工智能都直接干预社会进程……GPT系统就是一台意识形态机器”。他还将人工智能语言模型定性为“意识形态的第一个量化生产者”,认为对这些系统的引入和使用可能导致另一个较少讨论的后果,即意识形态变化。 韦瑟比分析了当前西方世界对于GPT系统的三种主要看法,即“玩具说”“有害说”和“文明变化说”。他表示,亨利·基辛格的有关观点值得高度重视,即GPT所代表的生成式人工智能平台将是人类社会游戏规则的改变者,它不仅会改变工作和地缘政治,还会改变人类对“现实本身”的感觉。 韦瑟比称,“对我们思考事物的方式的控制被称为‘意识形态’,GPT系统正以前所未有的方式直接、量化地参与其中。” 出生于德国、就职于瑞士苏黎世联邦理工学院的政治学者汉内斯·巴约尔也发出过相关警告:“谁控制了语言模型,谁就控制了政治”。 GPT的野心,正成为西方政治观察家和人工智能社会学者的一大担忧。韦瑟比甚至指出,GPT这个缩写词,既可视为“生成式预训练转换器(Generative...
ChatGPT时代下的律师行业挑战与机遇
AI律师助手

ChatGPT时代下的律师行业挑战与机遇

美国2名律师因使用ChatGPT生成的虚假案例被处罚,法官认为虽然使用人工智能提供帮助没有问题,但律师道德规则对文件准确性有重要作用。朱岳峰等两位律师及北京盈科(沈阳)律师事务所因此在一份诉讼文件中引用的6个案例被认定为由ChatGPT捏造虚构生成,被判处支付5000美元罚款。
ChatGPT引发的知识产权debate:大型语言模型的训练是否侵犯了著作权?
AI律师助手

ChatGPT引发的知识产权debate:大型语言模型的训练是否侵犯了著作权?

本文介绍了人工智能服务中训练数据的版权问题。由于大部分国家的著作权法要求开发者使用经过授权的训练数据,但考虑到开发时限、成本等因素,许多开发者选择直接使用盗版内容作为训练数据。然而,这种方式可能导致侵权行为,尤其是在大模型的训练过程中。例如,美国一家名为OpenAI的公司就因未经授权复制了受版权保护的书籍而被提起诉讼。尽管OpenAI承认其训练数据集包括从互联网上获取的书籍,但并未透露具体来源。此外,一些独立研究者怀疑这些书籍可能来源于一个名为LibGen的盗版文本库。诉状中列举了一些例子,表明ChatGPT可以准确地返回受版权保护的书籍中的文字原文,以及基础大型语言模型在训练期间必须录入整本书。总的来说,如何在训练人工智能模型的同时确保版权问题是一个亟待解决的问题。
人工智能法治问题:ChatGPT引发的知识产权与数据保护挑战
AI律师助手

人工智能法治问题:ChatGPT引发的知识产权与数据保护挑战

这篇文章主要讨论了人工智能产品ChatGPT引发的法律问题,特别是知识产权法和数据保护法方面的问题。文章指出,虽然人工智能可以帮助快速搜集和整理资料,但其“创作”本质仍然是對已有素材的整理和加工,這涉及到數據保護和知識產權等法律問題。目前,與人工智能關聯最緊密的和法律領域是知識產權法,包括人工智慧源代碼的保護和人工智慧的生成功能的保護。然而,對於人工智能生成物的可版权性和侵权责任等问题,學界還有爭議。作者認為,應該從生成式人工智能的技術流程出發,保護和規制人工智能的生成物。
AI对话:ChatGPT时代的教育挑战与机遇
AI律师助手

AI对话:ChatGPT时代的教育挑战与机遇

本文讨论了人工智能助手ChatGPT对教育的影响。ChatGPT的出现被认为是人工智能时代的“美猴王”,其的出现将引发新一轮人工智能革命,加速智能化时代的来临,并对社会结构、产业生态以及人们的生活方式产生巨大影响。文章认为,教育将成为这场变革的核心,而ChatGPT将对教育产生深远影响。同时,人类作为一个长于对话的物种,也应适应这一变革,探索新的聊天方式和交流方式。