ChatGPT爆火!会取代律师吗?能帮忙打官司吗?专家、律师这样认为……上海法治报2023-02-16 02:48上海法治报2023-02-16 02:48
AI律师助手

ChatGPT爆火!会取代律师吗?能帮忙打官司吗?专家、律师这样认为……上海法治报2023-02-16 02:48上海法治报2023-02-16 02:48

最近,ChatGPT成为了人们讨论最多的话题之一,这款人工智能聊天机器人火爆全球,除了可以用来写论文、改代码、做翻译,还能用来咨询法律问题、撰写法律文书,这不禁让人们思考:法律人会被取代吗?ChatGPT在司法领域有哪些应用场景?又有哪些掣肘?从老百姓打官司的角度是否存在实用价值?ChatGPT的风险何在?边界何在?上海法治报记者采访了四位法学专家与律师。ChatGPT可以做什么?“ChatGPT是一种大型语言模型,可以通过自然语言处理技术与人类进行交互。”上海政法学院教授曹阳介绍到,ChatGPT可以理解和产生自然语言文本,这使得它成为一个非常有用的工具,帮助人们解决各种语言理解和生成的问题。“在法律领域,ChatGPT可以演化成‘智能律师助手’,帮助律师分析大量的法律文件和案例,提供智能化的法律建议和指导;可以变成‘法律问答机器人’,回答法律问题,并提供相关的法律信息和建议。”除此之外,曹阳还指出,ChatGPT可以进行合同审核、辅助诉讼、分析法律数据等等,提高法律工作者的效率和准确性。华东政法大学知识产权法律与政策研究院研究员杨勇认为,ChatGPT对于人们学习法律概念也大有帮助。“以法律百科为基础的升级版法律知识学习可以开启智能化的法学入门学习,对全民的普法有积极意义,为建设法治社会益处良多。”此外他还表示,基于智能分析的标准化法律思维,ChatGPT还可以实现相关法律问题的初级研究,对法学师生和法律媒体人有较大的参考作用。ChatGPT不能做什么?ChatGPT对于程序问题的回答让人称赞,对于实体法律问题的咨询又是否同样称心如意?记者注意到一位涉医疗领域的律师在朋友圈吐槽,咨询专业问题,回答的“全是正确的废话,没有一句实质内容”。 上海致格律师事务所管委会主任、高级合伙人蒋秀海律师介绍,ChatGPT在回答法律咨询时,常会出现类似于免责等提示,诸如“请注意,本答案的内容仅供参考,具体情况请参考相关法律法规和政策”以及“建议您咨询当地的律师或监管机构,以确保您的行为符合法律法规的要求”。“ChatGpt的工作逻辑目前仍存在一定的局限性,特别在涉及到感性、抽象、有针对性的问题时,还是只能由人来处理。”“从目前试用效果看,ChatGPT涉及相关法律问题的回答较浅,不周延也不深入。”杨勇说道。“法律研究和提出法律问题的解决办法不同于智能写作,是极其严肃的事情,来不得半点差错。”他认为,对法律问题的研判是需要慎审对待的,ChatGPT提供的法律回答不能直接代替专业法律人的回复。曹阳也表示,目前ChatGPT技术仍然存在很大的弊端。首先,从准确性与可靠性来看,ChatGPT无法像人一样思考,无法理解法律规则背后的逻辑与价值判断,因而其结果会出现偏差。其次,ChatGPT是对理性数据的学习与运用,缺乏也无法理解人的情感,无法做到“有温度的司法”。最后,司法裁判在某种意义上是自由心证的过程,无法进行数字化的呈现,因而ChatGPT无法进行学习。ChatGPT对老百姓打官司有帮助吗?如果说ChatGPT对于专业法律人来说是一项提升效率的辅助工具,那么对于普罗大众而言,ChatGPT在处理法律纠纷的过程中能否帮上忙?蒋秀海认为,ChatGPT能够整体上提升人们获得法律服务的便利度,在一定程度上降低一些基础法律服务的成本,具有一定参考价值。杨勇也指出,非法律专业人事在不聘请代理人的情况下,可以通过简单的咨询、学习、了解,让诉讼变得简单、高效、廉价。上海市德尚律师事务所主任王凡律师表示,在诉讼过程中,普通人也可以通过ChatGPT进行法律条文、案例检索,更高效地获取到相关信息。但同时她也指出,案件各方面始终存在差异,各种抽象的法律原则始终穿插在民事行为的全过程中,机械地适用法律条文、司法判例很难做出完全准确的解答。“哪怕ChatGPT凭借海量数据库以及强大的计算整合能力,其做出的法律分析也只是具有一定参考价值,具体适用仍需进行甄别。”此外,专家与律师也指出使用ChatGPT时值得注意的一些法律风险。曹阳表示,ChatGPT需要处理大量的敏感数据,如法律文件、案例、客户信息等,如果没有进行足够的数据安全保护,可能会导致信息泄露或被恶意利用。王凡指出,ChatGPT的运作是基于数据库并进行计算整合,用户使用ChatGPT产生的成果的著作权归属以及是否属于受著作权法保护值得探讨。“ChatGPT无法保证所搜集的数据均不属于受保护的信息,因此可能会产生知识产权侵权风险,此外也同样可能无法鉴别信息的真实性、合法性等因素,可能涉及到数据合规风险。”ChatGPT的边界何在?“在司法应用领域,ChatGPT的应用存在一些边界和限制。”曹阳介绍到,一方面,ChatGPT的知识和判断能力仍然受到一定限制,它所给出的结论和建议也更多地是基于一般性的规则和原则,因此无法完全替代人类律师。另一方面,虽然ChatGPT等人工智能技术可以对大量的案例和判例进行分析和归纳,但法律是一门人文学科,需要考虑伦理、公正等因素,ChatGPT不能完全代替人类法官和裁判员的专业能力和职责,因此不能完全代替司法裁判。蒋秀海指出,ChatGPT被运用于司法领域时,更适合作为重复性、机械性工作的辅助性工具,也可借助其进行观点集成。对于具有更高价值的法律分析和解决问题工作,不宜完全依赖于人工智能。王凡也说道:“人类复杂的情感、传承至今的道德文化等是无法通过数据、公式计算得到的,ChatGPT或许会给司法领域带来一定的便利,但是在使用时还是要坚持德与法的兼顾,让法律和道德相辅相成、相得益彰。”“司法在某种意义上是处理人与人之间关系的工作,冰冷的ChatGPT显然无法理解人与人之间的情感与互动,无法应对复杂的法律推理与逻辑推演。”曹阳认为,ChatGPT虽然非常强大且具有潜在的广泛用途,但我们不应依赖于其进行复杂的推理或获取重要信息。“最好的写作者既不是ChatGPT,也不是人类,而是能够熟练和有洞察力地使用ChatGPT的人类。ChatGPT不应作为人类输入的替代品,不是独立的信息生产者与传播者,而是人类的辅助工具。”见习记者 | 张旭凡编辑 | 王菁 举报/反馈
复旦中文系教授:ChatGPT给了红楼梦大团圆,它还无法赋予非理性感情澎湃新闻2023-02-14 20:02澎湃新闻2023-02-14 20:02
AI情感助手

复旦中文系教授:ChatGPT给了红楼梦大团圆,它还无法赋予非理性感情澎湃新闻2023-02-14 20:02澎湃新闻2023-02-14 20:02

2022年11月30日,美国OpenAI发布了ChatGPT聊天机器人程序。它可以通过学习和理解人类语言并与之对话,还能撰写邮件、文案、代码乃至论文。 由于美国大量学生开始使用ChatGPT做作业,斯坦福大学已经推出了一项检测AI文本生成的全新算法DetectGPT,巴黎政治大学也要求禁止使用ChatGPT等一切基于AI的工具,旨在防止学术欺诈和剽窃。 与部分欧美学校的明令禁止不同,复旦大学创意写作导师王宏图认为ChatGPT可以辅助学生创作。 他说:“日后如果ChatGPT引入创意写作的课堂(与学生一同辅助写作或比赛写作),在不帮助‘作弊’的情况下,我也会持开放态度。”但成绩要适当降级。因为他觉得文学创作归根结底是鲜活生命体验的结晶,需要经历诞生、成长等生命过程,拥有人类共通性的情感经验,才能写出动人的作品。在如何成为“人“这一点上,ChatGPT还有很长的路要走。 以下为复旦大学比较文学与世界文学专业教授、创意写作导师、作家王宏图的口述: 中国1994年才接入互联网,95、96年的时候,人们面对互联网的心态和现在有点像:互联网上一搜,很多知识就冒出来,大家开始觉得读书没有用。搜索引擎的结果杂乱,但ChatGPT会给你一个标准答案,乃至一个成熟的文本。它的人机交互性比互联网刚刚诞生时好很多。 但这仍然是知识层面的内容。《圣经》里说伊甸园里一棵是生命之树,一棵是智慧之树。至少现在,ChatGPT的创作还不是一棵“生命之树”上结的果实。而文学作品需要的生活体验:人类有诞生、成长的过程。比如开始认识周围世界的好奇心、青春的反叛期、中年的疲惫,经历了喜怒哀乐,到最后衰老这样一个生命的历程。大家共享的是一个生命的体验结构,许多事可以相互理解,这是AI暂时无法做到的。 古代的“类书”类似旧式辞典,把过去的词语收录进去。清朝没有才华、没有真情实感的人写诗,需要对仗的时候,就会去翻类书。它实际也像古代的文学数据库,ChatGPT相当于把数据库精进了,是一个精进了的,加强了人机交互的工具。 我看了ChatGPT模仿的爱伦·坡风格的小说。它肯定把爱伦·坡的《黑猫》《莫格街谋杀案》等小说分析了一遍,按照算法把属于爱伦·坡的元素拼配进文章里,最后生成的文章的确有爱伦·坡的语言风格。但它还是爱伦·坡的一个很表象的东西,真正的爱伦·坡的创作是很复杂的。 ChatGPT模仿的爱伦·坡风格的小说。图源:李灿续写《红楼梦》也是,首先,它把林黛玉母亲的名字弄错了;第二,它续写的结尾都是大团圆,有情人终成眷属的结局。虽然ChatGPT是人工智能,但它是有一种价值预设的。它根深蒂固的倾向是一种“正能量”,求得美满,给人生营造一种美丽的光环。这与《红楼梦》“悲凉之雾,遍被华林”的原意不同。 ChatGPT续写《红楼梦》潇湘晨报 图如果只是单纯“讲一个故事”,不需要人物性格,不需要价值意蕴,那ChatGPT可以完成得比很多人都好。因为人脑无法分析那么多故事,找到最惊险刺激、峰回路转的模型,从中化用、组合。但19世纪后,小说变成了一种综合性的文体,不是单纯讲故事了。昆德拉说小说是“以带有虚构人物的游戏为基础的长篇综合性散文”,它需要的不仅仅是一个故事模型了。这种“一次性”鲜活的生命体验,从中赋予的人类非理性的直觉和感情,是ChatGPT现在无法替代的。ChatGPT也不是完全不能帮助文学写作。例如风景描写、建筑描写,你可以借助ChatGPT来完成。如果我们要写一座宋代的建筑,需要查阅大量古籍资料、访问旧址,不如ChatGPT代替我们观察来得方便全面。对于小说,我主要看它的创意。即使ChatGPT给了你一个故事模型,在具体的描写中,你还是可以看出它是数据调配还是具有真情实感的。 学术研究也可以借由ChatGPT写文献综述,或者借由ChatGPT提炼论文的中心思想,挑选有价值的论文参考和引用。 如果我的学生课程作业用ChatGPT辅助写作,而不是完全依赖数据、没有脑力付出,我也会通过,但成绩要适当降级,否则对没有用的学生不公平。日后如果ChatGPT引入创意写作的课堂(与学生一同辅助写作或比赛写作),在不帮助“作弊”的情况下,我也会持开放态度。因为每个人根据性情和阅读习惯的限制,思维会凝固在一个惯性的轨道。ChatGPT的确是可以帮助创作者拓宽视野。 但任何事物都有两面性。例如现在电子地图发达了,人们辨别方位的能力反而下降了,变得依赖机器了。就像如果一天突然断网了,就是你要回到原始状态(没有电脑)来创作,可能他也会感到很困难。我们的感官“眼耳鼻舌身意”退化了,对“鲜活的细节”关注度降低了,也许写出来的东西就更难打动人。 (本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP) 举报/反馈
ChatGPT智能AI:我们的思考能力会因此减弱吗?
AI情感助手

ChatGPT智能AI:我们的思考能力会因此减弱吗?

文章主要探讨了ChatGPT对人类思维的影响。文章指出,适度使用ChatGPT能帮助人们思考,提高思维能力,但过度依赖则可能导致思考能力减弱。通过实例分析,作者阐述了90后与80后年轻人对待个人发展和家庭生活的不同观点。同时,作者也分享了使用ChatGPT的一些体验,以及中年人在家庭生活中所扮演的角色和作用。总体而言,作者呼吁人们要合理使用ChatGPT,保持主动思考,维护良好的人际关系和沟通能力的培养。
ChatGPT:人工智能的奇迹与温暖
AI情感助手

ChatGPT:人工智能的奇迹与温暖

ChatGPT作为人工智能领域的奇迹,其卓越的语言生成能力全球范围内引发了共鸣。它改变了人与机器的互动方式,使对话如同朋友交流般亲切;具备庞大的知识储备,成为解答疑惑、提供知识和拓宽视野的宝贵伙伴。更重要的是,ChatGPT展示了人工智能的未来潜力,可广泛应用于医疗、科研和环保等领域,为解决全球性问题提供支持。综上,ChatGPT不仅是技术上的奇迹,更是温暖陪伴,预示着更多AI奇迹的到来,为世界带来积极变革。
作家谈ChatGPT:它给我们提了个醒澎湃新闻2023-04-15 17:44澎湃新闻2023-04-15 17:44
AI情感助手

作家谈ChatGPT:它给我们提了个醒澎湃新闻2023-04-15 17:44澎湃新闻2023-04-15 17:44

4月14日,在2022年度人民文学奖颁出之际,一场文学畅谈会在赤水河畔举行。贾平凹、舒婷、徐刚、徐则臣、陈涛等作家参与其中,谈到了ChatGPT对文学创作带来的影响。贾平凹、舒婷还对年轻的写作者表达了特别的期待。 人民文学畅谈会现场。全文由主办方供图“90后”作家,本届新人奖得主栗鹿和朋友们都尝试过ChatGPT,大家发现给它一个命题,它可以非常完整地写出一篇还不错的小说。栗鹿说:“它的发展和进化会让现在的写作者感到一点恐慌,但是对现在的我们来说,我们能做到的是跟朋友们有更多的相聚,更多地看到他者,这是可以滋养到我们的内心和我们的文学的一种存在。” 栗鹿“90后”作家,另一位新人奖得主康岩告诉澎湃新闻记者,ChatGPT对一般性意义写作的冲击与撼动是毋庸置疑的,比如新闻通讯、会议稿件、重复性高的网络文学等,但对独具性灵的写作而言,在可以预见的未来,GPT想要替代,还应该很难。“人工智能可以构建情节、描绘人物、叙述故事,但不可能写出独一无二的‘这一个’,因为每个作家的眼光都是独一无二的,像是屈光镜一样,对现实进行独一无二的折射,写出来的东西一定是泥沙俱下,精致与粗糙并存,稚嫩与深刻同在。这种不二个性人工智能不可能完美复刻和模仿,托尔斯泰和鲁迅不可能被机器替代。” 康岩在本届长篇小说奖得主庞贝看来,ChatGPT确实可以参与到某些创作套路的设计,比如类型小说或影视剧的情节设计,但套路性的东西就难有真正的原创性,机器计算当然也难以生成有独特情感、温度和思想的文本,这也是真正的艺术存活的理由。因此,真正的好作家不必悲观,这种挑战和危机,有望激发真正的创造力。《人民文学》副主编徐则臣感慨,科技会产生加速度发展,而今ChatGPT越来越完善,回答越来越正确,写出来的东西越来越令人满意,但最终它不是一个人,它缺少了文学里的内容和匠人精神。“从这个角度来讲,可能ChatGPT又不是我们需要担心的一个问题,但它给我们提了个醒,需要我们把自己的技艺更好地往前推进,一骑绝尘。只有这样,你才能远远地把ChatGPT等人工智能甩开,否则我们这个行当的确会变成一个高危的职业。” 徐则臣《人民文学》副主编陈涛也认为ChatGPT的出现对文学写作者的影响很大,随着升级迭代,它足以挑战并战胜绝大多数的写作者。“但ChatGPT的出现并不是一件很坏的事情,它的本质属性是工具性。同时,ChatGPT毕竟还是技术,它也催逼着我们写作者从浮躁的状态下沉静下来,努力创作出有着个人风格与辨识度的,能够代表人类思想高度与人性深度的优秀作品。” 陈涛(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP) 举报/反馈
ChatGPT过时了嗎?從大模型數字體驗的角度看出去
AI情感助手

ChatGPT过时了嗎?從大模型數字體驗的角度看出去

本文探讨了金融理财模型中的模型漂移、衰退或过时现象,强调了模型质量指标的重要性。同时,文章指出没有任何模型可以永远有效,但衰退速度各不相同,不同的产品具有不同的使用寿命。以ChatGPT为代表的大模型可能会经历衰退和衰老,而小模型如Character.ai则更具潜力。此外,Character.ai在Z世代人群中受欢迎程度较高,而ChatGPT则表现不佳。最后,OpenAI宣布收购 Global Illumination,可能暗示将改善大模型的数字体验。
ChatGPT 服务心理咨询:数字健康革命︱数说未来长江日报2023-06-06 08:11
AI情感助手

ChatGPT 服务心理咨询:数字健康革命︱数说未来长江日报2023-06-06 08:11

随着ChatGPT技术的进步,一种先进的人工智能语言模型,它正彻底改变心理咨询方向,展现出比以往任何时候都更加明显的潜力。全球范围内心理健康问题的数量不断增加,越来越多的人需要专业的支持来应对压力、焦虑、抑郁和其他心理障碍。传统疗法虽然有效,但对许多人来说可能昂贵且难以获得。因此,ChatGPT技术开始发挥作用,为传统心理健康支持提供了一种经济高效且可用的替代方案。 ChatGPT旨在理解和生成类似人类文本的内容,通过与患者对话,提供心理安慰和援助。利用自然语言处理和机器学习算法,ChatGPT可以有效地模拟人类对话,成为提供人工智能辅助咨询的理想工具。在心理健康领域使用ChatGPT的主要优势在于它能够提供即时的帮助。传统认知疗法通常需要预约,这对于正处于心理健康危机中的人可能是不切实际的。因此,ChatGPT的主要优势凸显出来了。 ChatGPT的匿名性对于那些与人工咨询专家讨论心理健康问题感到不适的患者来说特别友好。ChatGPT辅助咨询消除了这一障碍,让患者可以公开表达自己的感受,而不必担心被侵犯。ChatGPT还能够分析和识别患者的行为和情绪。通过对大量数据进行分析,ChatGPT可以有效检测导致个人心理健康问题的潜在触发因素、压力来源和风险因素,然后利用这些信息制定个性化的应对策略,以满足不同患者的个性化需求。ChatGPT可以与其他数字健康工具和技术相结合,共同提供综合的心理健康服务。例如,结合虚拟现实技术,ChatGPT-4可以模拟真实场景,帮助用户面对恐惧和焦虑。此外,结合生物传感器和数据分析,ChatGPT可以根据用户的生理指标提供个性化的心理调节建议。 虽然ChatGPT在心理健康咨询方面具有潜在的好处,但解决围绕患者隐私问题至关重要。心理健康对话通常涉及个人隐私,患者必须能够相信数据的安全性和避免滥用。相关开发人员必须采取强大的数据保护措施,保护患者的数据信息,并确保遵守相关的隐私法规。确保用户数据的机密性和维护严格的隐私标准对于建立基于ChatGPT心理健康服务的信任至关重要。此外,我们也必须认识到,尽管ChatGPT具有先进的功能,但它不能完全取代人工咨询。ChatGPT可以提供有价值的支持和指导,但它可能无法进行富有情感的对话,更不能与经过专业培训的专业人员相媲美。 总而言之,将ChatGPT整合到心理健康和福利服务中有可能彻底改变个人获取支持和咨询的方式。通过提供即时、匿名和个性化的帮助,这种先进的人工智能语言模型有可能彻底改变心理健康,并使全球患者更容易获得心理健康支持。然而,必须解决心理健康服务相关的数据安全问题,以确保该技术得到负责任和有效的使用。只有通过开发人员和心理健康专家的共同努力,利用人工智能技术的力量来改善全球人类的福祉,才能建立起对基于ChatGPT心理健康服务的信任。 (作者:刘洋 武汉大学教师。) 【编辑:张靖】 更多精彩资讯请在应用市场下载“大武汉”客户端,未经授权请勿转载,欢迎提供新闻线索,一经采纳即付报酬。24小时报料热线:027-59222222。此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:kin0207@126.com 举报/反馈
当金融遇上ChatGPT:应用加速落地,合规是首道“关卡”第一财经2023-09-14 21:24
AI情感助手

当金融遇上ChatGPT:应用加速落地,合规是首道“关卡”第一财经2023-09-14 21:24

“以ChatGPT为代表的AIGC(AI-GeneratedContent,人工智能生成内容)是一种温和的聚变,将像水一样弥漫在我们周围。”在ChatGPT逐渐降温之际,一位人工智能从业者这样说。 ChatGPT是由美国OpenAI公司开发的一款聊天机器人程序,能够通过学习和理解人类的语言来进行对话。上述业内人士称,本质上,ChatGPT是AIGC技术进展的一步,AIGC技术主要涉及两个方面,自然语言处理(NLP)和AIGC生成算法。“从结果来看,它生成的内容与人类的逻辑习惯保持高度一致,应用端的成熟度得到极大提升。” 自2023年初ChatGPT爆火后,这股“潮水”加速涌向金融、资本行业。有业内人士分析,金融领域本身属于数据密集、沟通高频的行业,此前就已有AIGC应用的雏形产品,因此,金融业也成为本轮ChatGPT浪潮下最受关注的赛道之一。短短半年多时间,国内外金融机构、科技公司纷纷押注这一赛道,在算法模型、数据服务、应用场景等全方位“内卷”。 毋庸置疑,AIGC为金融行业带来了更多想象空间。 “百模”大战下金融行业抢先“上车” “企业要把大模型做垂直、做专,让大模型对企业更了解。”三六零集团创始人周鸿祎在今年8月举办的亚布力中国企业家论坛夏季高峰会上作出这样的判断。 与这一判断相印证的是,在几天之前的ISC2023第十一届互联网安全大会上,360智脑与金融大模型奇富GPT宣布达成战略合作,共同加速完善金融行业大模型。 事实上,自年初ChatGPT爆红后,金融行业已抢先“上车”,在大模型垂类搭建中抢饮“头啖汤”。 上述人工智能从业者称,金融领域具有应用场景、用户需求上的复杂性,同时有巨大的数据量和独特的术语,这意味着可能需要特定的语言模型。 彭博社趁势在3月发布了专门为金融领域打造的大型语言模型(LLM)——BloombergGPT。BloombergGPT是一个涉及500亿参数的语言模型,其训练主要是使用大规模的财务数据。彭博社方面称,BloombergGPT将协助彭博改进现有的金融NLP任务,如情感分析、命名实体识别、新闻分类和问答等。 随后,不少债券、保险等金融细分领域也开始试图将大模型与自身板块结合。4月,摩根大通发布报告称,已开始使用一套AI大语言模型,从美联储17位官员的公开讲话中揣摩情绪变化,汇总编成一套货币政策的“鹰鸽指数”。6月,金融科技公司布罗德里奇(Broadridge)子公司LTX宣布,将旗下债券分析平台LiquidityCloud中的实时债券数据,输入到GPT-4大语言模型,打造了BondGPT,主要用于帮助客户回答各种与债券相关的问题。 国外ChatGPT浪潮此起彼伏之际,国内金融机构、金融科技公司也开始通过接入第三方、自研等方式入局。2月份以来,邮储银行、中信银行、百信银行、泰康保险、广发证券多家头部金融机构披露了与百度知识增强大语言模型“文心一言”合作,旨在“借船”升级,推进智能对话技术在金融场景的应用。 随后在掀起的“百模大战”热潮中,不少金融科技企业密集加入战局。5月,奇富科技发布金融行业通用大模型奇富GPT。据奇富方面介绍,目前应用于获客、运营、风控、贷后服务等业务环节。同月,度小满发布垂直金融行业的开源大模型“轩辕”,它是基于庞大的1760亿参数的Bloom大模型进行训练的。根据官方介绍,在涉及数学计算、场景写作、逻辑推理、文本摘要等13个主要维度中,有10.2%的任务表现超越了ChatGPT3.5。9月初,蚂蚁集团正式发布了金融大模型,聚焦金融场景需求,在“认知、生成、专业知识、专业逻辑、合规性”五大维度28类金融专属任务中表现突出。 据第一财经记者不完全统计,目前已有度小满、恒生电子、马上消费金融、蚂蚁集团等15家公司发布金融类大模型,并将之运用于营销、客服、风控、投研等场景。 下游场景日渐丰富 模型更垂类、适配性更高的同时,下游的金融应用场景也日渐丰富。波士顿咨询公司(BCG)于近期发布的《银行业生成式AI应用报告(2023)》认为,生成式AI可贯穿前中后台各个环节,包括市场和销售、渠道和运营、产品开发、投顾服务、客户服务,以及风险合规等方面。 其中,机构布局最多的是智慧客服、投顾咨询等财富管理领域。 此前,在金融行业已有不少AIGC应用的雏型,有些正在取代金融从业者。以银行业为例,一方面,各主流银行基本都推出了AI智能客服,如工商银行推出的“工小智”、招商银行推出的“AI小招”等;另一方面,在债市交易、洗钱监测等环节也引入AI辅助,如建设银行推出可以智能询报价的货币市场“AI交易员”,中信银行在洗钱风险监测方面,打造了“洗钱线索AI智能监测”项目。 但在交通银行副行长钱斌看来,这些产品距离真正的通用人工智能还相差甚远,基本还停留在大算力和专用能力层面。ChatGPT的出现带来颠覆性可能,从固定任务场景触发,逐步进化为通过自然语言接受指令、理解人类意图并不断迭代。 一位银行科技业务人士也表示,引入AIGC最新技术后,可以改变以前“把天聊死”的局面,尤其是其核心的“对话”能力,可以在很大程度上提升用户体验,提高沟通效率。 中信证券非银行金融业分析师薛姣进一步指出,财富管理是金融科技最大的增长点,第三方财富管理(含保险在内的大理财)最大痛点是投顾服务线上化,投顾服务线上化的难点是用户交互。 ChatGPT爆红后,金融机构正在加速利用其提升客户服务效率。例如,九方财富与华为云、科大讯飞在8月初推出“九方智能投顾数字人”,可以回答客户有关投资组合管理、股票和基金选择、投资策略、风险管理、资产配置及其他与投资和财务相关的专业问题。蚂蚁集团近期发布的面向个人用户的智能金融助理“支小宝2.0”和服务金融产业专家的智能业务助手“支小助”,则将金融模型能力同时应用至C端、B端场景,旨在进一步提升理财、保险等金融领域的投顾效率。 而未来,应用端的想象空间或许还更大。恒生电子董事长刘曙峰在近期的外滩大会上表示,大模型技术对财富管理服务的改变可能是全业务链的,在“投”、“顾”两端以及风控、运营、量化交易等领域都将发挥重要作用。此外,在量化交易方面,大模型可以提供类似舆情因子这样的特色AI数据,帮助实现指令识别、指令交易的辅助工作。 在他看来更深层次的影响是,大模型还可以赋能金融机构的内部开发、数据生产。从长远来看,80%的代码将会是人工智能生成的,20%架构级的核心代码才会由人工提供。 金融领域应用的缺口 近期,随着ChatGPT逐渐降温,AIGC概念也有“熄火”趋势。网站流量监测服务商Similarweb统计数据显示,今年前5个月,ChatGPT全球访问量环比增幅明显下降,分别为131.6%、62.5%、55.8%、12.6%、2.8%;6月份的访问量更是环比下滑9.7%。 由此,有部分市场观点认为,AIGC在金融行业的应用在短期爆发后,难有“长劲”接续。 那么,金融领域AIGC的前景到底如何?国家金融与发展实验室副主任杨涛撰文指出,人工智能的应用价值在于解决金融领域存在的问题。 杨涛认为,目前金融行业存在八大需求,而人工智能在组织运营、服务能力、风险管理方面的应用度更高一些,受技术和制度因素影响,在解决其他金融需求方面尚显不足。 一位金融机构内部人士也指出,金融服务行业需求确实存在,尤其是风险管理、服务能力板块。此前,AI赋能、增强效率已是不少金融机构科技部门的“主线”。今年以来,各大机构基本都在强化对金融科技领域的投入。 金融服务领域的缺口也确实存在。以投顾市场为例,中国结算官网最新发布的数据显示,截至7月底,A股投资者数量达到2.2亿人。中证协数据显示,截至7月底,中国证券市场的投资顾问群体数量已达7.9万人,人均服务约2750位个人投资者。九方财富在近期的发布会上表示,美国投资顾问人均服务客户数为156人。对比来看,目前中国8万~10万的投顾人员规模,在庞大的人口基数和经济发展速度下,远远满足不了个人投资者的服务需求。 薛姣认为,ChatGPT的语义理解、多轮对话、信息输出能力为未来全面的客户服务效率提升打开了想象空间。一方面,在面对零售客户时,通过智能客服直接与客户互动,替代人工基础性工作,如实时行情分析、定制化咨询推送、盘后账户总结;另一方面,可以赋能理财师,形成后端支持,如调取海量数据库,提供市场分析、舆情分析、文本书写等功能。 事实上,在“百模大战”后,应用层面数据边界、储备、体验与流程或成为决胜的关键。刘曙峰认为从现在多家公布的金融大模型来看,一到两年内基础模型将会达到相对比较一致的水平。但各家公司在应用深度上会有所差别。 诸多挑战 在Netflix推出的纪录片《监视资本主义:智能陷阱》中,剧作家索福克勒斯在片首郑重提醒:进入凡人生活的一切强大之物,无不具有弊端。 在ChatGPT以“强大之物”的姿态快速渗透各行各业的背后,诸多挑战尚待攻克。 合规问题或是首道“关卡”。不少业内人士认为,金融是具有高度专业性的领域,因此在提供金融服务时的“对话”比一般聊天的容错率更低。而目前大模型存在的“幻觉”问题,在人机对话中给出一些事实错误、推理错误,难以实时更新信息。 兴业银行总行金融科技研究院负责人李锋认为ChatGPT有很多能力,最先可以用在金融行业的客服场景。但是,它生成的回答是否专业,对银行理财、产品、风险的理解是否高度严谨,这是需要考虑的。 “由于大语言模型的基本工作方式是分析文本中的词汇、句法结构、语义信息等,并捕捉它们之间的模式和概率分布,因此,它更倾向于基于统计规律生成回答,而非进行深入的逻辑推理或形成高级的认知能力。”中国工程院院士郑纬民近期在公开发言中指出,大模型在生成文本时可能会受限于训练数据中存在的偏见和误导性信息,在某些情况下可能会产生不准确或不合理的回答。 郑纬民进一步指出,目前,有效办法是利用知识图谱技术帮助模型解决这些问题。知识图谱具备精确的知识推导能力,可以与大模型技术形成互补。 除合规压力外,杨涛指出,算法歧视、大数据杀熟、信息泄露等金融科技伦理挑战,也给人工智能应用带来“阴影”,仍需深入探索如何用“负责任”的科技创新打造“有温度”的金融服务。 其中,信息泄露问题更是业内关注的焦点。天元律师事务所合伙人李昀锴指出,在商业场景下,用户输入的信息很可能涉及公司商业秘密,导致公司的营业信息、技术信息直接被泄露。而OpenAI平台并未对用户输入的信息提供保护。以三星电子为例,在引入聊天机器人ChatGPT不到20天,便曝出机密资料外泄。据《economist》报道,半导体设备测量资等内容或已被存入ChatGPT学习资料库中。 针对上述问题,监管方已有回应。2022年11月3日,国家互联网信息办公室、工业和信息化部、公安部联合发布了《互联网信息服务深度合成管理规定》,加强对深度合成技术的管理,确保其发展与安全,推进深度合成技术依法、合理、有效地被利用。 2023年8月15日,国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》正式实施,明确不同业务场景之下不同主体的合规义务,同时明确必须对AIGC生成的内容进行标记。 在近期召开的2023Inclusion·外滩大会上,不少企业对于大模型中的隐私问题也作出回应。蚂蚁集团首席隐私官聂正军表示,第一是在模型训练阶段可以使用匿名化的工具;第二是,在大模型的商业化应用落地时,要把服务他方产生的数据和自营业务里使用到的数据进行隔离。 “先进技术的应用在隐私保护过程中发挥的作用会越来越大。”百度数据合规法务负责人徐全全认为要真正做到数据合规,除了要做好公司治理、管理团队治理工作,还离不开系统化、自动化的工具。...
ChatGPT引发的知识产权debate:大型语言模型的训练是否侵犯了著作权?
AI律师助手

ChatGPT引发的知识产权debate:大型语言模型的训练是否侵犯了著作权?

本文介绍了人工智能服务中训练数据的版权问题。由于大部分国家的著作权法要求开发者使用经过授权的训练数据,但考虑到开发时限、成本等因素,许多开发者选择直接使用盗版内容作为训练数据。然而,这种方式可能导致侵权行为,尤其是在大模型的训练过程中。例如,美国一家名为OpenAI的公司就因未经授权复制了受版权保护的书籍而被提起诉讼。尽管OpenAI承认其训练数据集包括从互联网上获取的书籍,但并未透露具体来源。此外,一些独立研究者怀疑这些书籍可能来源于一个名为LibGen的盗版文本库。诉状中列举了一些例子,表明ChatGPT可以准确地返回受版权保护的书籍中的文字原文,以及基础大型语言模型在训练期间必须录入整本书。总的来说,如何在训练人工智能模型的同时确保版权问题是一个亟待解决的问题。