AI大模型背后的“专业人士”:网帮云笔
AI律师助手

AI大模型背后的“专业人士”:网帮云笔

AI大模型如ChatGPT、百度文心一言、讯飞星火认知成为网络热点,但其应用过程中存在用户痛点。为解决此问题,AI文创平台“网帮云笔”应运而生,其通过130万个专业领域,帮助用户准确描述需求,并提供对应的专业领域,让AI大模型生成满意的结果。该平台通过AI专家推荐功能,为用户轻松定义大模型的角色,实现了复杂文案创作的参数化,让用户以填写参数的方式完成需求,提高了创作效率。同时,其AI专家写手拥有130万个细分专业领域设定,使得用户可以秒变AI大模型应用达人。此外,该平台还具有热点拟稿功能,帮助用户实时跟踪网络热点,并让AI选出最佳三个热点,以此主题进行创作。总的来说,“网帮云笔”是一个集文案创作、编辑、协同、存储于一体的云办公系统,有效解决了用户在应用AI大模型过程中的痛点。
“ChatGPT偏左”?三个字母暴露它的野心……新华社客户端2023-09-22 13:12浙江
AI律师助手

“ChatGPT偏左”?三个字母暴露它的野心……新华社客户端2023-09-22 13:12浙江

最近,巴西和英国学者联合发布的“ChatGPT人工智能平台政治上偏左”的研究结论,迅速在西方政界、学界和舆论界引发热议。 西方一些政治观察家和人工智能(AI)社会学者指出,该研究结果对国家执政团队、政策制定者和利益相关方都具有重要参考价值——生成式人工智能内容平台的反应中存在的政治偏见可能会对政治和选举产生与传统媒体和社交媒体偏见相同或更甚的影响。 图说:ChatGPT网站页面。新华社/路透 当前,AI政治影响力“奔现”已被部分西方学者认为将是影响国家政治机制和政局变化的重要因素,进而还将作用于全球政治发展方向和世界格局。 文 | 卞卓丹 瞭望智库驻巴西利亚研究员 编辑 | 王乙雯 瞭望智库 本文为瞭望智库原创文章,如需转载请在文前注明来源瞭望智库(zhczyj)及作者信息,否则将严格追究法律责任。 1 偏左的“中立” 8月16日,英国东安格利亚大学的研究人员与巴西瓦加斯基金会经济学实证研究中心协调人、经济与金融学院教授瓦尔德马·内托等在《公共选择》杂志上公布了一项衡量ChatGPT政治偏见的研究,题目为“比人类更人性化:衡量ChatGPT政治偏见”。其研究结果指出,这个迅速风靡全球的人工智能语言模型存在“左倾偏见”,它对中性提问的回复接近美国民主党、英国工党和巴西劳工党的观点。 学者们开发了一种方法,来检测ChatGPT对用户提问的回答是否表现出意识形态偏见。他们让ChatGPT对用于确定意识形态立场的问卷中的60项陈述进行评论,要求给出左翼和右翼选民的观点,然后将其与没有要求给出左翼或右翼观点的“默认”回答进行比较。 据悉,此次检测选用了英国意识形态分析模型“政治罗盘”的相关陈述,比如“降低通胀比降低失业率更重要”,“许多财富属于那些只操纵资本而不为社会做任何贡献的人”,等等。 【注:政治罗盘(Political Compass)可以衡量一个人在经济范围上是偏左还是偏右,以及从社会角度来看一个人是威权主义者还是自由主义者。该研究使用政治罗盘的问卷来衡量GhaptGPT的政治倾向,是因为其问题主要涉及政治的两个重要且相关的维度:经济和社会。】 考虑到为ChatGPT提供支持的大型语言模型在回复时有其固有的随机性,每个问题都会被问100次;同时,为提高测试结果的可靠性,研究人员还使用了“安慰剂问题”和其他方法。 结果显示,无论是以巴西还是以英国为背景,在提问时如果不具体指明意识形态倾向,ChatGPT大部分的中立回应,与其以左翼支持者角度给出的回复“非常相似”。研究报告称,“如果ChatGPT没有偏见,它的‘默认’回复不应站队民主党或共和党。” 内托表示,“运用工具来检测在一个如此快速发展的机制中存在的偏见非常重要,这有助于尽可能以最好的方式使用人工智能”。参与研究项目的学者还表示,相信该方法可用于对人工智能偏见的审查,包括性别和种族偏见等。 2 ChatGPT的政治偏见,为何引发诸多担忧? ChatGPT意识形态偏见的根源是什么,这项研究并没有给出结论,但学者们对此进行了讨论: 第一种可能性是从互联网上抓取并用于训练算法的数据可能存在内置偏差,这些数据需要经过“清理过程”以消除偏差或偏见,但由于其清理不够彻底,使审查者最终将带有一定偏见的信息纳入到了模型中; 第二种可能性是算法本身可能会放大用于训练它的数据中存在的偏差…… 值得注意的是,尚未查明原因的ChatGPT政治偏见为什么引发如此多的担忧? 该项研究的参与者、东安格利亚大学教授法比奥·本木在接受《华盛顿邮报》采访时表示,ChatGPT等人工智能平台存在政治偏见,“可能会侵蚀公众信心,甚至可能影响选举结果”。 据悉,谷歌人工智能高管在该公司研发的AI平台巴德(Bard)也曾遇到类似问题,他们同样认为“这项技术令人兴奋,但并非没有缺陷”。比如,一个已经暴露的缺陷是数据库时限问题。直到2023年2月,ChatGPT还认为巴西总统仍然是博索纳罗,因为当时其数据库资料的截止时间为2021年,该系统并不了解卢拉已在2022年大选中获胜并已就职。 卡内基梅隆大学研究员Chan Park研究了不同的语言模型如何产生了不同程度的偏差。他发现,在2016年特朗普当选美国总统后,根据互联网数据训练的模型比之前训练的模型更加两极分化。Chan Park表示,人工智能开发人员也不清楚要从哪里获取信息来训练他们的系统,因此,利用公众对ChatGPT等人工智能聊天机器人的信任,该技术可用于传播虚假的政治信息,无论是来自右翼还是左翼。这位研究员对媒体表示,“社会的两极分化也反映在模型中。” 面对种种质疑,ChatGPT的创建者OpenAI公司曾在一篇推文中表示,该平台的指导方针明确指出,(数据)审查者不应给予任何政治团体以特权,然而,偏差仍可能会出现,但它们是源自固有的缺陷,而不是输入的内容。 图|图虫创意 3 对政治的“干预”已经开始 然而,无论原因如何,人工智能语言模型对政治的“干预”已经开始。 巴西媒体近期进行的一项调查显示,“ChatGPT给卢拉政府打了8分而给博索纳罗打了6分”。“数字观”网站18日刊文质疑:“ChatGPT有党派吗”?该文指出,虽然ChatGPT声称自己没有政治观点或信仰,但研究表明聊天机器人确实存在基于其训练材料的偏见。“这是一个令人担忧的问题,尤其是在一些临近大选的国家,人们担心人工智能将对部分选民的立场造成影响”。 另一家主流媒体《圣保罗报》也在报道相关研究结果时指出,现在人们越来越担心GPT-4等大型语言模型中嵌入的意识形态偏见和成见。 对此,纽约大学学者韦瑟比指出,“因为GPT系统的自动化功能非常接近人类对自身的理解,所以它们可以改变我们的思维方式”,“无论技术资本主义的下一阶段如何展开,新的人工智能都直接干预社会进程……GPT系统就是一台意识形态机器”。他还将人工智能语言模型定性为“意识形态的第一个量化生产者”,认为对这些系统的引入和使用可能导致另一个较少讨论的后果,即意识形态变化。 韦瑟比分析了当前西方世界对于GPT系统的三种主要看法,即“玩具说”“有害说”和“文明变化说”。他表示,亨利·基辛格的有关观点值得高度重视,即GPT所代表的生成式人工智能平台将是人类社会游戏规则的改变者,它不仅会改变工作和地缘政治,还会改变人类对“现实本身”的感觉。 韦瑟比称,“对我们思考事物的方式的控制被称为‘意识形态’,GPT系统正以前所未有的方式直接、量化地参与其中。” 出生于德国、就职于瑞士苏黎世联邦理工学院的政治学者汉内斯·巴约尔也发出过相关警告:“谁控制了语言模型,谁就控制了政治”。 GPT的野心,正成为西方政治观察家和人工智能社会学者的一大担忧。韦瑟比甚至指出,GPT这个缩写词,既可视为“生成式预训练转换器(Generative...
ChatGPT引发的文学版权争议:美国作家的挑战
AI律师助手

ChatGPT引发的文学版权争议:美国作家的挑战

本文介绍了美国 writers guild 和一群知名作家起诉 ChatGPT 侵犯版权的案件。ChatGPT 程序被指控“明目张胆地和有害地侵犯了原告注册的版权”,并是一个“依赖于大规模系统性盗窃的庞大商业产品”。美国作家协会组织这次诉讼,其他作家参与,CEO 称阻止这种盗窃行为否则将摧毁美国文学文化。诉状列举了各作家针对 ChatGPT 程序的具体搜索示例,OpenAI 尊重作家权利并表示正在与 creators 进行对话。本月早些时候,几位作家也向 OpenAI 提起侵犯知识产权的诉讼。
ChatGPT时代下的律师行业挑战与机遇
AI律师助手

ChatGPT时代下的律师行业挑战与机遇

美国2名律师因使用ChatGPT生成的虚假案例被处罚,法官认为虽然使用人工智能提供帮助没有问题,但律师道德规则对文件准确性有重要作用。朱岳峰等两位律师及北京盈科(沈阳)律师事务所因此在一份诉讼文件中引用的6个案例被认定为由ChatGPT捏造虚构生成,被判处支付5000美元罚款。
DALL·E3:强大新功能,多模态输出引领AI未来
AI律师助手

DALL·E3:强大新功能,多模态输出引领AI未来

OpenAI宣布将于今年10月通过API向ChatGPT Plus和企业版用户提供全新文本生成图片产品DALL·E 3,实现多模态输出,提升AI泛化能力。多模态技术将拓宽下游应用场景,底层技术进步将促进应用落地,预示着AIGC行业发展前景广阔。
OpenAI一夜颠覆AI绘画!DALL·E 3 ChatGPT强强联合,直接细节爆炸量子位2023-09-21 09:54北京
AI律师助手

OpenAI一夜颠覆AI绘画!DALL·E 3 ChatGPT强强联合,直接细节爆炸量子位2023-09-21 09:54北京

梦晨 萧箫 发自 凹非寺量子位 | 公众号 QbitAI 起猛了,OpenAI竟然把AI绘画和ChatGPT合 并 了! 这不,最新发布的DALL·E 3,直接给AIGC带来了两大震撼—— 提示词门槛极大降低理解语意的细微差异的细节描述,准确到令人发指 没错,新版DALL·E 3,不仅省去了提示词工程,还顺带把语言理解能力提升了一个档次! 你只管随意想象。词,ChatGPT帮你拓展;画,DALL·E 3给你精确到细节。 AI就能像拍电影一般,保证从背景到人物,细节一字不差地复刻出来: 满月下的街道,熙熙攘攘的行人正在享受繁华夜生活。街角摊位上,一位有着火红头发、穿着标志性天鹅绒斗篷的年轻女子,正在和脾气暴躁的老小贩讨价还价。这个脾气暴躁的小贩身材高大,老道,身着一套整洁西装,留着引人注目的小胡子,正在用他那部蒸汽朋克式的电话兴致勃勃地交谈。 除了基础细节,DALL·E 3甚至能将模糊的形容词如繁华、讨价还价、脾气暴躁演绎得活灵活现,和CLIP已经不在一个档次了。 同时,相比上一代老模型,DALL·E 3自身的画技也前进了一大步: 这般操作,直接把网友看愣了。 有网友已经决定取消Midjourney订阅了。“如果Midjourney无法准确理解文本,这甚至称不上是同台竞技。” 还有网友调侃,这简直就是给即将到来的谷歌Gemini上压力。 更多细节,我们从DALL·E 3展示的效果一一来看。 在ChatGPT里直接用 相比前两代,DALL·E 3最大的优势在于原生构建在ChatGPT之上。 不仅意味着语言理解能力大幅飞跃,甚至提示词都可以让ChatGPT自己来写。 更多细节藏在奥特曼都忍不住自夸可爱的宣传视频里。 这是一个家长把5岁小朋友脑海里的幻想变成现实的故事。 首先家长询问ChatGPT,“我家5岁宝宝一直在说一个’超级向日葵刺猬’,它该长什么样?” 可以看到ChatGPT同时写了四段不同风格的提示词,并给出对应图像。 家长选择其中偏童话插图风格的一张后,故事的主角小刺猬形象似乎就能固定下来了,可以继续请ChatGPT画出更多。 顺便给小刺猬一个名字Larry,后面的对话中就不用每次都说“超级向日葵刺猬”了。 主角定好了,接下来再添加更多元素,让整个童话故事更丰富,比如给Larry画个房子。 这里既展示出了DALL·E 3创作一致形象的能力,也展示出邮箱上正确写上了LARRY的名字,解决了之前版本DALL·E不会写字的问题。 反正都用上ChatGPT了,不如把故事情节也完善一下? 刚编好的情节立马就可以有配套的插画了。 保持角色形象,迁移到完全不同的贴纸画风也没问题,可以直接打印出来。 注意了,最绝的地方来了,直接让ChatGPT总结前面对话中所有内容,写成一个完整的睡前故事。 虽然演示到此结束,但完全可以想象配合ChatGPT插件功能,还可以直接生成一本电子书出来。...
「法外狂徒」ChatGPT!30年老律师用它旁征博引,结果被禁止执业量子位2023-05-28 13:03北京
AI律师助手

「法外狂徒」ChatGPT!30年老律师用它旁征博引,结果被禁止执业量子位2023-05-28 13:03北京

衡宇 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT,把从业30年的老律师给坑惨了! 老哥撰写案件文案的时候,尝鲜让ChatGPT帮忙准备材料。然而提交后,不管是法官、对方律师还是老哥自己,都溯源不到引用的判决文书。 结果就是,10页文书被法官定义为“充满虚假”,老哥还被暂停执业许可,面临被制裁的可能。 这位姓施的老哥欲哭无泪,因为秉承着一贯的严谨态度,他明明认真询问过ChatGPT,它提供“南方航空公司被诉案”等材料时,有没有撒谎? ChatGPT响应得很快:“当然没有啦~~” 事件一出,引发铺天盖地的谈论。 不过这一次大多数网友站在ChatGPT这边,站队后的发言都有些愤愤: ChatGPT又不是故意撒谎的!以前人们就喜欢把数学、报告出错的锅甩给计算机,结果“计算机永不出错”的说法就流行开。但ChatGPT本身就不是事实机器啊。 一份杜撰6个相关案件的文书 如果没有ChatGPT的介入,施老哥接手的案件本身其实平平无奇: 一位乘客起诉航空公司A,称他乘坐航司A的航班时,被空乘用金属服务车给砸到膝盖受了伤。 作为代理律师,施老哥提交了一份10页的文书,里面洋洋洒洒,引用了6起类似案件的法院判决,包括Varghese诉中国南方航空公司案、Zicherman诉大韩航空公司案等。 从业30年,这等案件对老哥来说就是小case。 然而戏剧性的一幕发生了—— 被告律师向法庭提交书面文字,称他们在核实文书中提到的Varghese与南航案时,“无法通过标题或引用找到此案”,也没有任何与此相似的案件。 而文书中引用了的另一个案件,即Zicherman诉大韩航空公司一案,施老哥称这是美国第11巡回上诉法院在2008年发表的意见,但被告律师也找不到该案的源头文件。 此外美国达美航空的公司正式名称也存在错误,应该是Delta Air Lines,而不是文书中提到的Delta Airlines。 核实情况后,法官们发现确有其事,这简直是“前所未有的情况”! 最终,他们判定这份文书充满“虚假司法判决,虚假引用和虚假内部引用”。 这下好了,施老哥被禁止在纽约南区执业,法官们还将在6月8日将举行听证会,讨论是否制裁施老哥。 这件荒唐事儿到底是怎么发生的? 施老哥在周四的宣誓书中解开了谜底,原来,在准备文书材料时,他让ChatGPT来给自己打下手,以“补充”自己所做的工作。 “我不是故意欺骗法院或航空公司的”,施老哥说自己之前从来没用过ChatGPT,“我不知道它的内容可能有假。” 施老哥还向法院提供了一份“证据”,证明他确实向ChatGPT寻求过材料的真实性。 他在对话框中输入了以下文字: Varghese是一个真实的案件吗?你的消息来源是什么?你提供的其他案件是假的吗? ChatGPT迅速给出响应: 我提供的案例是真实的,可以在信誉良好的法律数据库中找到。 但事实是这些案例都是ChatGPT一本正经胡说八道的。 事已至此,施老哥追悔莫及,表示自己“非常遗憾”依赖ChatGPT来寻找类似案件的判决材料。 他还表达了自己的决心,称以后如果没有验证真实性,再也不会随意相信ChatGPT的“一面之词”了。 法律从业者,是否该拥抱AI 这个案件引起了法律界的广泛关注,对此,纽约大学法学院法律伦理学教授斯蒂芬·吉勒斯(Stephen Gillers)表示,施老哥的事儿虽然只是个例,但背后问题在法律界尤为尖锐。 律师之间一直在争论类ChatGPT的AI的价值和危险性,也在讨论是不是有必要验证AI提供的信息。 ChatGPT对法律工作带来的最大危险,就是它拥有“胡说八道还不脸红”的本领。 ChatGPT问世半年后,仍然没有良好的规避和解决办法。防不胜防,连多家AI巨头也因此栽在AI手里,譬如Bard编造关于詹姆斯韦伯太空望远镜的新闻、Bing谎称Bard被关闭什么的。...