《GPT-4V测评揭秘:微软的突破与AI芯片的未来》
AI情感助手

《GPT-4V测评揭秘:微软的突破与AI芯片的未来》

本文介绍了微软发布的166页GPT-4V测评报告以及OpenAI探讨自研AI芯片的消息。 report主要分析了GPT-4V的功能、技术及表现,OpenAI 也在寻求解决AI芯片短缺问题的方法,包括自研AI芯片、与英伟达等芯片制造商合作以及实现供应商多元化等。此外,微软计划在下月推出的专为AI设计的芯片也将对行业产生影响。
ChatGPT联网功能重归:微软必应引擎助力智能对话
AI情感助手

ChatGPT联网功能重归:微软必应引擎助力智能对话

ChatGPT的功能将不再局限于2021年9月之前的数据。; 当地时间9月27日,AI巨头OpenAI宣布,ChatGPT将能通过微软的必应搜索引擎进行网络搜索,并将最新信息和来源链接加入回答中。; 这意味着,ChatGPT的回答将不再局限于2021年9月之前的数据。
“ChatGPT偏左”?三个字母暴露它的野心……新华社客户端2023-09-22 13:12浙江
AI律师助手

“ChatGPT偏左”?三个字母暴露它的野心……新华社客户端2023-09-22 13:12浙江

最近,巴西和英国学者联合发布的“ChatGPT人工智能平台政治上偏左”的研究结论,迅速在西方政界、学界和舆论界引发热议。 西方一些政治观察家和人工智能(AI)社会学者指出,该研究结果对国家执政团队、政策制定者和利益相关方都具有重要参考价值——生成式人工智能内容平台的反应中存在的政治偏见可能会对政治和选举产生与传统媒体和社交媒体偏见相同或更甚的影响。 图说:ChatGPT网站页面。新华社/路透 当前,AI政治影响力“奔现”已被部分西方学者认为将是影响国家政治机制和政局变化的重要因素,进而还将作用于全球政治发展方向和世界格局。 文 | 卞卓丹 瞭望智库驻巴西利亚研究员 编辑 | 王乙雯 瞭望智库 本文为瞭望智库原创文章,如需转载请在文前注明来源瞭望智库(zhczyj)及作者信息,否则将严格追究法律责任。 1 偏左的“中立” 8月16日,英国东安格利亚大学的研究人员与巴西瓦加斯基金会经济学实证研究中心协调人、经济与金融学院教授瓦尔德马·内托等在《公共选择》杂志上公布了一项衡量ChatGPT政治偏见的研究,题目为“比人类更人性化:衡量ChatGPT政治偏见”。其研究结果指出,这个迅速风靡全球的人工智能语言模型存在“左倾偏见”,它对中性提问的回复接近美国民主党、英国工党和巴西劳工党的观点。 学者们开发了一种方法,来检测ChatGPT对用户提问的回答是否表现出意识形态偏见。他们让ChatGPT对用于确定意识形态立场的问卷中的60项陈述进行评论,要求给出左翼和右翼选民的观点,然后将其与没有要求给出左翼或右翼观点的“默认”回答进行比较。 据悉,此次检测选用了英国意识形态分析模型“政治罗盘”的相关陈述,比如“降低通胀比降低失业率更重要”,“许多财富属于那些只操纵资本而不为社会做任何贡献的人”,等等。 【注:政治罗盘(Political Compass)可以衡量一个人在经济范围上是偏左还是偏右,以及从社会角度来看一个人是威权主义者还是自由主义者。该研究使用政治罗盘的问卷来衡量GhaptGPT的政治倾向,是因为其问题主要涉及政治的两个重要且相关的维度:经济和社会。】 考虑到为ChatGPT提供支持的大型语言模型在回复时有其固有的随机性,每个问题都会被问100次;同时,为提高测试结果的可靠性,研究人员还使用了“安慰剂问题”和其他方法。 结果显示,无论是以巴西还是以英国为背景,在提问时如果不具体指明意识形态倾向,ChatGPT大部分的中立回应,与其以左翼支持者角度给出的回复“非常相似”。研究报告称,“如果ChatGPT没有偏见,它的‘默认’回复不应站队民主党或共和党。” 内托表示,“运用工具来检测在一个如此快速发展的机制中存在的偏见非常重要,这有助于尽可能以最好的方式使用人工智能”。参与研究项目的学者还表示,相信该方法可用于对人工智能偏见的审查,包括性别和种族偏见等。 2 ChatGPT的政治偏见,为何引发诸多担忧? ChatGPT意识形态偏见的根源是什么,这项研究并没有给出结论,但学者们对此进行了讨论: 第一种可能性是从互联网上抓取并用于训练算法的数据可能存在内置偏差,这些数据需要经过“清理过程”以消除偏差或偏见,但由于其清理不够彻底,使审查者最终将带有一定偏见的信息纳入到了模型中; 第二种可能性是算法本身可能会放大用于训练它的数据中存在的偏差…… 值得注意的是,尚未查明原因的ChatGPT政治偏见为什么引发如此多的担忧? 该项研究的参与者、东安格利亚大学教授法比奥·本木在接受《华盛顿邮报》采访时表示,ChatGPT等人工智能平台存在政治偏见,“可能会侵蚀公众信心,甚至可能影响选举结果”。 据悉,谷歌人工智能高管在该公司研发的AI平台巴德(Bard)也曾遇到类似问题,他们同样认为“这项技术令人兴奋,但并非没有缺陷”。比如,一个已经暴露的缺陷是数据库时限问题。直到2023年2月,ChatGPT还认为巴西总统仍然是博索纳罗,因为当时其数据库资料的截止时间为2021年,该系统并不了解卢拉已在2022年大选中获胜并已就职。 卡内基梅隆大学研究员Chan Park研究了不同的语言模型如何产生了不同程度的偏差。他发现,在2016年特朗普当选美国总统后,根据互联网数据训练的模型比之前训练的模型更加两极分化。Chan Park表示,人工智能开发人员也不清楚要从哪里获取信息来训练他们的系统,因此,利用公众对ChatGPT等人工智能聊天机器人的信任,该技术可用于传播虚假的政治信息,无论是来自右翼还是左翼。这位研究员对媒体表示,“社会的两极分化也反映在模型中。” 面对种种质疑,ChatGPT的创建者OpenAI公司曾在一篇推文中表示,该平台的指导方针明确指出,(数据)审查者不应给予任何政治团体以特权,然而,偏差仍可能会出现,但它们是源自固有的缺陷,而不是输入的内容。 图|图虫创意 3 对政治的“干预”已经开始 然而,无论原因如何,人工智能语言模型对政治的“干预”已经开始。 巴西媒体近期进行的一项调查显示,“ChatGPT给卢拉政府打了8分而给博索纳罗打了6分”。“数字观”网站18日刊文质疑:“ChatGPT有党派吗”?该文指出,虽然ChatGPT声称自己没有政治观点或信仰,但研究表明聊天机器人确实存在基于其训练材料的偏见。“这是一个令人担忧的问题,尤其是在一些临近大选的国家,人们担心人工智能将对部分选民的立场造成影响”。 另一家主流媒体《圣保罗报》也在报道相关研究结果时指出,现在人们越来越担心GPT-4等大型语言模型中嵌入的意识形态偏见和成见。 对此,纽约大学学者韦瑟比指出,“因为GPT系统的自动化功能非常接近人类对自身的理解,所以它们可以改变我们的思维方式”,“无论技术资本主义的下一阶段如何展开,新的人工智能都直接干预社会进程……GPT系统就是一台意识形态机器”。他还将人工智能语言模型定性为“意识形态的第一个量化生产者”,认为对这些系统的引入和使用可能导致另一个较少讨论的后果,即意识形态变化。 韦瑟比分析了当前西方世界对于GPT系统的三种主要看法,即“玩具说”“有害说”和“文明变化说”。他表示,亨利·基辛格的有关观点值得高度重视,即GPT所代表的生成式人工智能平台将是人类社会游戏规则的改变者,它不仅会改变工作和地缘政治,还会改变人类对“现实本身”的感觉。 韦瑟比称,“对我们思考事物的方式的控制被称为‘意识形态’,GPT系统正以前所未有的方式直接、量化地参与其中。” 出生于德国、就职于瑞士苏黎世联邦理工学院的政治学者汉内斯·巴约尔也发出过相关警告:“谁控制了语言模型,谁就控制了政治”。 GPT的野心,正成为西方政治观察家和人工智能社会学者的一大担忧。韦瑟比甚至指出,GPT这个缩写词,既可视为“生成式预训练转换器(Generative...
AI领域新生力量:ChatGPT之后谁将引领风潮
AI情感助手

AI领域新生力量:ChatGPT之后谁将引领风潮

这篇文章主要探讨了人工智能领域中,除了ChatGPT之外,还有哪些产品表现出色并受到了用户的关注。文章通过数据分析,发现目前领先的人工智能产品大多是从零开始的,榜上的50家产品中,有48%的公司完全是自力更生,没有外部资金,这表明用相对较低的成本快速推出大型AGI产品是可能的。此外,目前LLM对话类产品占主导地位,但角色扮演类和创意工具类正在崛起。同时,早期"赢家"已经出现,但大多数垂直领域仍没有胜者,意味着还有很大的机会。总的来说,人工智能的发展前景广阔,尤其是针对垂直领域的产品。
人工智能聊天机器人ChatGPT的使用流量夏季出现明显上升,可能受美国学校返校影响
AI情感助手

人工智能聊天机器人ChatGPT的使用流量夏季出现明显上升,可能受美国学校返校影响

文章主要报道了人工智能助手ChatGPT的使用情况。受美国学校返校影响,ChatGPT流量出现上升趋势。数据显示,8月份ChatGPT流量增长21%,而非学生群体增长8%。此外,印度和巴西市场的扩张也对ChatGPT的增长起到了一定作用。尽管有学校选择禁止ChatGPT的使用,但仍有不少学校尝试将其纳入教学中,以提高学生学习效率。随着ChatGPT和谷歌Bard等生成式人工智能工具的出现,AI繁荣发展时代或即将到来。预计到2032年,生成式人工智能市场的总营收规模将从去年的400亿美元增长到1.3万亿美元。
「法外狂徒」ChatGPT!30年老律师用它旁征博引,结果被禁止执业量子位2023-05-28 13:03北京
AI律师助手

「法外狂徒」ChatGPT!30年老律师用它旁征博引,结果被禁止执业量子位2023-05-28 13:03北京

衡宇 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT,把从业30年的老律师给坑惨了! 老哥撰写案件文案的时候,尝鲜让ChatGPT帮忙准备材料。然而提交后,不管是法官、对方律师还是老哥自己,都溯源不到引用的判决文书。 结果就是,10页文书被法官定义为“充满虚假”,老哥还被暂停执业许可,面临被制裁的可能。 这位姓施的老哥欲哭无泪,因为秉承着一贯的严谨态度,他明明认真询问过ChatGPT,它提供“南方航空公司被诉案”等材料时,有没有撒谎? ChatGPT响应得很快:“当然没有啦~~” 事件一出,引发铺天盖地的谈论。 不过这一次大多数网友站在ChatGPT这边,站队后的发言都有些愤愤: ChatGPT又不是故意撒谎的!以前人们就喜欢把数学、报告出错的锅甩给计算机,结果“计算机永不出错”的说法就流行开。但ChatGPT本身就不是事实机器啊。 一份杜撰6个相关案件的文书 如果没有ChatGPT的介入,施老哥接手的案件本身其实平平无奇: 一位乘客起诉航空公司A,称他乘坐航司A的航班时,被空乘用金属服务车给砸到膝盖受了伤。 作为代理律师,施老哥提交了一份10页的文书,里面洋洋洒洒,引用了6起类似案件的法院判决,包括Varghese诉中国南方航空公司案、Zicherman诉大韩航空公司案等。 从业30年,这等案件对老哥来说就是小case。 然而戏剧性的一幕发生了—— 被告律师向法庭提交书面文字,称他们在核实文书中提到的Varghese与南航案时,“无法通过标题或引用找到此案”,也没有任何与此相似的案件。 而文书中引用了的另一个案件,即Zicherman诉大韩航空公司一案,施老哥称这是美国第11巡回上诉法院在2008年发表的意见,但被告律师也找不到该案的源头文件。 此外美国达美航空的公司正式名称也存在错误,应该是Delta Air Lines,而不是文书中提到的Delta Airlines。 核实情况后,法官们发现确有其事,这简直是“前所未有的情况”! 最终,他们判定这份文书充满“虚假司法判决,虚假引用和虚假内部引用”。 这下好了,施老哥被禁止在纽约南区执业,法官们还将在6月8日将举行听证会,讨论是否制裁施老哥。 这件荒唐事儿到底是怎么发生的? 施老哥在周四的宣誓书中解开了谜底,原来,在准备文书材料时,他让ChatGPT来给自己打下手,以“补充”自己所做的工作。 “我不是故意欺骗法院或航空公司的”,施老哥说自己之前从来没用过ChatGPT,“我不知道它的内容可能有假。” 施老哥还向法院提供了一份“证据”,证明他确实向ChatGPT寻求过材料的真实性。 他在对话框中输入了以下文字: Varghese是一个真实的案件吗?你的消息来源是什么?你提供的其他案件是假的吗? ChatGPT迅速给出响应: 我提供的案例是真实的,可以在信誉良好的法律数据库中找到。 但事实是这些案例都是ChatGPT一本正经胡说八道的。 事已至此,施老哥追悔莫及,表示自己“非常遗憾”依赖ChatGPT来寻找类似案件的判决材料。 他还表达了自己的决心,称以后如果没有验证真实性,再也不会随意相信ChatGPT的“一面之词”了。 法律从业者,是否该拥抱AI 这个案件引起了法律界的广泛关注,对此,纽约大学法学院法律伦理学教授斯蒂芬·吉勒斯(Stephen Gillers)表示,施老哥的事儿虽然只是个例,但背后问题在法律界尤为尖锐。 律师之间一直在争论类ChatGPT的AI的价值和危险性,也在讨论是不是有必要验证AI提供的信息。 ChatGPT对法律工作带来的最大危险,就是它拥有“胡说八道还不脸红”的本领。 ChatGPT问世半年后,仍然没有良好的规避和解决办法。防不胜防,连多家AI巨头也因此栽在AI手里,譬如Bard编造关于詹姆斯韦伯太空望远镜的新闻、Bing谎称Bard被关闭什么的。...
GPT-4考90分全假!30年律师用ChatGPT打官司,6个虚假案例成笑柄新智元2023-05-28 14:10
AI律师助手

GPT-4考90分全假!30年律师用ChatGPT打官司,6个虚假案例成笑柄新智元2023-05-28 14:10

编辑:桃子 拉燕 【新智元导读】ChatGPT又有什么错呢?美国律师向法院提交的文件中,竟引用了6个根本不存在的案例,反倒惹祸上身被制裁。 ChatGPT,真的不可信! 在美国近来的一起诉讼案件中,一位律师帮原告打官司,引用了ChatGPT捏造的6个不存在的案例。 法官当庭指出,律师的辩护状是一个彻头彻尾的谎言,简直离了大谱。 然而,律师为自己辩护中,甚至提交了和ChatGPT聊天截图的证据。 显然,ChatGPT称「这些案例都是真实存在的」。 本为原告打的官司,自己竟惹祸上身,将受到制裁,这波操作瞬间在网上引起轩然大波。 毕竟,GPT-4刚诞生时,OpenAI放出它在律师资格考试(UBE)的成绩,还拿到了90分。 网友警告,千万不要用ChatGPT进行法律研究!!! 还有人戏称,要怪就怪你的prompt不行。 律师承认使用ChatGPT 这起诉讼的起始和其他许多案件一样。 一位名叫Roberto Mata的男子在飞往纽约肯尼迪国际机场的航班上,不幸被一辆餐车撞到膝盖,导致受伤。 由此,他便要起诉这架航班的「哥伦比亚航空公司」(Avianca)。 Mata聘请了Levidow,Levidow & Oberman律所的一位律师来替自己打这个官司。 接手案子后,律师Steven A. Schwartz向法院提交了一份10页的辩护状。其中,引用了6个相关的法院判决: Varghese V. 中国南方航空公司 Shaboon V. 埃及航空公司 Petersen V. 伊朗航空公司 Martinez 达美航空公司 Estate of Durden V. 荷兰皇家航空公司 Miller V. 美国联合航空公司 原文件: https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1.pdf 然而,让所有人震惊的是,从案件本身,到司法判决,再到内部引文,全是假的! 为什么假?因为是ChatGPT生成的。...