人工智能助手助力保险业数字化转型:ChatGPT在智能客服中的实践应用
AI情感助手

人工智能助手助力保险业数字化转型:ChatGPT在智能客服中的实践应用

本文探讨了ChatGPT技术在保险智能客服领域的应用。随着数字经济的到来,人工智能成为了科技创新的主导力量,也催生了像ChatGPT这样的现象级消费类AI应用。作为金融业的重要分支,保险业的数字化转型关键在于提升服务质量与效率。ChatGPT技术可以在智能客服、智能顾问两个领域率先得到应用,帮助保险行业实现组织架构、业务模式、内部流程的升级改造。保险行业的信息化之路可分为四个阶段,当前正处于以人工智能建设为主的阶段。此外,保险行业在信息管理方面已经经历了电子化建设、数据集中建设、数据共享建设和人工智能建设等多个阶段的发展。
ChatGPT掘金潮下,法律风险与‘秘道’隐藏——商家、个人都该知道的ChatGPT侵权大调查
AI律师助手

ChatGPT掘金潮下,法律风险与‘秘道’隐藏——商家、个人都该知道的ChatGPT侵权大调查

国内“掘金ChatGPT”现象曝光,商家通过贩卖账号和搭建平台以付费提问等方式赚钱,但微信已下架相关账号并改名。部分平台仍隐蔽收费,违反OpenAI使用条款及个人信息保护法,存在知识产权侵权风险。同时,商标抢注行为也面临审查挑战。对于消费者,若购买服务不明情,可参照游戏账号交易案例寻求法律救济。
ChatGPT版权争议:训练数据侵权的法律挑战与全球比较
AI律师助手

ChatGPT版权争议:训练数据侵权的法律挑战与全球比较

本文关注了ChatGPT引发的版权争议焦点——训练数据侵权问题。通过比较分析英国、欧盟、美国和中国对Text Data Mining(TDM)合理使用的法律规定,探讨其与ChatGPT训练行为的法律适用性。文章指出,ChatGPT依赖大量文本数据,包括用户输入和训练数据库,其中可能存在著作权侵权风险,特别是在未经授权的数据使用上。尽管存在对复制权侵权是否适用于“临时复制”的讨论,但永久性复制通常被视为复制权范畴。此外,数据预处理阶段也可能涉及演绎权侵权,因为ChatGPT在处理数据时可能进行创新性的创作。总之,文章对ChatGPT的合法数据使用提出了法律上的挑战和审视。
AI对话:ChatGPT时代的教育挑战与机遇
AI律师助手

AI对话:ChatGPT时代的教育挑战与机遇

本文讨论了人工智能助手ChatGPT对教育的影响。ChatGPT的出现被认为是人工智能时代的“美猴王”,其的出现将引发新一轮人工智能革命,加速智能化时代的来临,并对社会结构、产业生态以及人们的生活方式产生巨大影响。文章认为,教育将成为这场变革的核心,而ChatGPT将对教育产生深远影响。同时,人类作为一个长于对话的物种,也应适应这一变革,探索新的聊天方式和交流方式。
ChatGPT引发的知识产权debate:大型语言模型的训练是否侵犯了著作权?
AI律师助手

ChatGPT引发的知识产权debate:大型语言模型的训练是否侵犯了著作权?

本文介绍了人工智能服务中训练数据的版权问题。由于大部分国家的著作权法要求开发者使用经过授权的训练数据,但考虑到开发时限、成本等因素,许多开发者选择直接使用盗版内容作为训练数据。然而,这种方式可能导致侵权行为,尤其是在大模型的训练过程中。例如,美国一家名为OpenAI的公司就因未经授权复制了受版权保护的书籍而被提起诉讼。尽管OpenAI承认其训练数据集包括从互联网上获取的书籍,但并未透露具体来源。此外,一些独立研究者怀疑这些书籍可能来源于一个名为LibGen的盗版文本库。诉状中列举了一些例子,表明ChatGPT可以准确地返回受版权保护的书籍中的文字原文,以及基础大型语言模型在训练期间必须录入整本书。总的来说,如何在训练人工智能模型的同时确保版权问题是一个亟待解决的问题。
ChatGPT医疗新纪元?AI模型能否替代医生在线?研究揭示其84%潜力与潜在问题
AI医师助手

ChatGPT医疗新纪元?AI模型能否替代医生在线?研究揭示其84%潜力与潜在问题

ChatGPT因其在专业考试中的表现引发热议,被评估具有辅助临床工作的潜力,能简化患者教育和医生沟通,但存在医学错误及实用性不足的问题。尽管在护理教育领域应用人工智能,其将作为作者的行为引发了学术界的质疑。研究显示,ChatGPT生成的摘要原创性高,但误判率也高达32%,这凸显了评估AI生成内容真实性的挑战。
“ChatGPT偏左”?三个字母暴露它的野心……新华社客户端2023-09-22 13:12浙江
AI律师助手

“ChatGPT偏左”?三个字母暴露它的野心……新华社客户端2023-09-22 13:12浙江

最近,巴西和英国学者联合发布的“ChatGPT人工智能平台政治上偏左”的研究结论,迅速在西方政界、学界和舆论界引发热议。 西方一些政治观察家和人工智能(AI)社会学者指出,该研究结果对国家执政团队、政策制定者和利益相关方都具有重要参考价值——生成式人工智能内容平台的反应中存在的政治偏见可能会对政治和选举产生与传统媒体和社交媒体偏见相同或更甚的影响。 图说:ChatGPT网站页面。新华社/路透 当前,AI政治影响力“奔现”已被部分西方学者认为将是影响国家政治机制和政局变化的重要因素,进而还将作用于全球政治发展方向和世界格局。 文 | 卞卓丹 瞭望智库驻巴西利亚研究员 编辑 | 王乙雯 瞭望智库 本文为瞭望智库原创文章,如需转载请在文前注明来源瞭望智库(zhczyj)及作者信息,否则将严格追究法律责任。 1 偏左的“中立” 8月16日,英国东安格利亚大学的研究人员与巴西瓦加斯基金会经济学实证研究中心协调人、经济与金融学院教授瓦尔德马·内托等在《公共选择》杂志上公布了一项衡量ChatGPT政治偏见的研究,题目为“比人类更人性化:衡量ChatGPT政治偏见”。其研究结果指出,这个迅速风靡全球的人工智能语言模型存在“左倾偏见”,它对中性提问的回复接近美国民主党、英国工党和巴西劳工党的观点。 学者们开发了一种方法,来检测ChatGPT对用户提问的回答是否表现出意识形态偏见。他们让ChatGPT对用于确定意识形态立场的问卷中的60项陈述进行评论,要求给出左翼和右翼选民的观点,然后将其与没有要求给出左翼或右翼观点的“默认”回答进行比较。 据悉,此次检测选用了英国意识形态分析模型“政治罗盘”的相关陈述,比如“降低通胀比降低失业率更重要”,“许多财富属于那些只操纵资本而不为社会做任何贡献的人”,等等。 【注:政治罗盘(Political Compass)可以衡量一个人在经济范围上是偏左还是偏右,以及从社会角度来看一个人是威权主义者还是自由主义者。该研究使用政治罗盘的问卷来衡量GhaptGPT的政治倾向,是因为其问题主要涉及政治的两个重要且相关的维度:经济和社会。】 考虑到为ChatGPT提供支持的大型语言模型在回复时有其固有的随机性,每个问题都会被问100次;同时,为提高测试结果的可靠性,研究人员还使用了“安慰剂问题”和其他方法。 结果显示,无论是以巴西还是以英国为背景,在提问时如果不具体指明意识形态倾向,ChatGPT大部分的中立回应,与其以左翼支持者角度给出的回复“非常相似”。研究报告称,“如果ChatGPT没有偏见,它的‘默认’回复不应站队民主党或共和党。” 内托表示,“运用工具来检测在一个如此快速发展的机制中存在的偏见非常重要,这有助于尽可能以最好的方式使用人工智能”。参与研究项目的学者还表示,相信该方法可用于对人工智能偏见的审查,包括性别和种族偏见等。 2 ChatGPT的政治偏见,为何引发诸多担忧? ChatGPT意识形态偏见的根源是什么,这项研究并没有给出结论,但学者们对此进行了讨论: 第一种可能性是从互联网上抓取并用于训练算法的数据可能存在内置偏差,这些数据需要经过“清理过程”以消除偏差或偏见,但由于其清理不够彻底,使审查者最终将带有一定偏见的信息纳入到了模型中; 第二种可能性是算法本身可能会放大用于训练它的数据中存在的偏差…… 值得注意的是,尚未查明原因的ChatGPT政治偏见为什么引发如此多的担忧? 该项研究的参与者、东安格利亚大学教授法比奥·本木在接受《华盛顿邮报》采访时表示,ChatGPT等人工智能平台存在政治偏见,“可能会侵蚀公众信心,甚至可能影响选举结果”。 据悉,谷歌人工智能高管在该公司研发的AI平台巴德(Bard)也曾遇到类似问题,他们同样认为“这项技术令人兴奋,但并非没有缺陷”。比如,一个已经暴露的缺陷是数据库时限问题。直到2023年2月,ChatGPT还认为巴西总统仍然是博索纳罗,因为当时其数据库资料的截止时间为2021年,该系统并不了解卢拉已在2022年大选中获胜并已就职。 卡内基梅隆大学研究员Chan Park研究了不同的语言模型如何产生了不同程度的偏差。他发现,在2016年特朗普当选美国总统后,根据互联网数据训练的模型比之前训练的模型更加两极分化。Chan Park表示,人工智能开发人员也不清楚要从哪里获取信息来训练他们的系统,因此,利用公众对ChatGPT等人工智能聊天机器人的信任,该技术可用于传播虚假的政治信息,无论是来自右翼还是左翼。这位研究员对媒体表示,“社会的两极分化也反映在模型中。” 面对种种质疑,ChatGPT的创建者OpenAI公司曾在一篇推文中表示,该平台的指导方针明确指出,(数据)审查者不应给予任何政治团体以特权,然而,偏差仍可能会出现,但它们是源自固有的缺陷,而不是输入的内容。 图|图虫创意 3 对政治的“干预”已经开始 然而,无论原因如何,人工智能语言模型对政治的“干预”已经开始。 巴西媒体近期进行的一项调查显示,“ChatGPT给卢拉政府打了8分而给博索纳罗打了6分”。“数字观”网站18日刊文质疑:“ChatGPT有党派吗”?该文指出,虽然ChatGPT声称自己没有政治观点或信仰,但研究表明聊天机器人确实存在基于其训练材料的偏见。“这是一个令人担忧的问题,尤其是在一些临近大选的国家,人们担心人工智能将对部分选民的立场造成影响”。 另一家主流媒体《圣保罗报》也在报道相关研究结果时指出,现在人们越来越担心GPT-4等大型语言模型中嵌入的意识形态偏见和成见。 对此,纽约大学学者韦瑟比指出,“因为GPT系统的自动化功能非常接近人类对自身的理解,所以它们可以改变我们的思维方式”,“无论技术资本主义的下一阶段如何展开,新的人工智能都直接干预社会进程……GPT系统就是一台意识形态机器”。他还将人工智能语言模型定性为“意识形态的第一个量化生产者”,认为对这些系统的引入和使用可能导致另一个较少讨论的后果,即意识形态变化。 韦瑟比分析了当前西方世界对于GPT系统的三种主要看法,即“玩具说”“有害说”和“文明变化说”。他表示,亨利·基辛格的有关观点值得高度重视,即GPT所代表的生成式人工智能平台将是人类社会游戏规则的改变者,它不仅会改变工作和地缘政治,还会改变人类对“现实本身”的感觉。 韦瑟比称,“对我们思考事物的方式的控制被称为‘意识形态’,GPT系统正以前所未有的方式直接、量化地参与其中。” 出生于德国、就职于瑞士苏黎世联邦理工学院的政治学者汉内斯·巴约尔也发出过相关警告:“谁控制了语言模型,谁就控制了政治”。 GPT的野心,正成为西方政治观察家和人工智能社会学者的一大担忧。韦瑟比甚至指出,GPT这个缩写词,既可视为“生成式预训练转换器(Generative...
华为大模型‘盘古Chat’即将面世,或成国内领先之作
AI情感助手

华为大模型‘盘古Chat’即将面世,或成国内领先之作

华为大模型“盘古Chat”已完成商标申请,预计7月发布。这款多模态千亿级大模型产品将于7月7日发布,旨在 direct对标 ChatGPT。华为利用“昇腾 昇思”全栈软硬件整合能力,支持适配 AI 开源大模型,并在大规模模型的分布式训练上做出大量的工作,特别是基于 MindSpore AI 框架的自动化并行处理,这可以极大地减少大模型开发和调试工作。券商认为,华为盘古大模型有望成为国内领先的大模型,并赋能百业,其生态产业链上的软硬件公司有望迎来加速发展。