ChatGPT:水中月,镜中花
AI律师助手

ChatGPT:水中月,镜中花

本文介绍了自2022年11月Chat GPT上线以来,其在短时间内用户增长迅速,已成为史上用户增长速度最快的消费级应用程序。同时,新款GPT-4在文字生产方面表现出色,甚至击败了75%的考生,但同时也引发了关于其安全性和隐私问题的争议。尽管如此,OpenAI表示在未来6个月内暂无推出类似GPT-5的计划。
ChatGPT:知识产权争议与法律挑战
AI律师助手

ChatGPT:知识产权争议与法律挑战

#人工智能# 当狂飙的“ChatGPT”遇上法律缰绳——速览ChatGPT六大法律问题.mp321:56 来自中伦律师事务所 本文从内容管理、电信资质、数据安全和隐私保护、知识产权、不正当竞争等维度解析了ChatGPT应用中的法律问题,以供读者参考。 作者丨周洋 徐颖蕾 前言 2022年11月底,美国人工智能公司OpenAI推出人工智能聊天机器人ChatGPT。此后,ChatGPT在全球掀起一股热潮,国内外互联网巨头纷纷入局。微软先后推出由ChatGPT支持的搜索引擎Bing和浏览器Edge,并在Office办公软件中植入人工智能助手Microsoft 365 Copilot;谷歌发布了其AI聊天机器人“巴德”(“Bard”),并宣布将生成式AI的功能导入Workspace;百度于2023年3月16日发布首个“中国造ChatGPT”产品“文心一言”;4月7日,阿里版的ChatGPT产品“通义千问”开放内测;4月9日,360宣布其人工智能产品“360智脑”落地搜索场景,将面向企业用户开放内测;京东宣布将在今年发布产业版ChatGPT “ChatJD”;网易宣布其为教育场景研发的类ChatGPT产品“子曰”将于近期开放内测;腾讯、华为等企业的类ChatGPT产品也呼之欲出。 那么,ChatGPT[1]的应用会面临哪些法律问题,其背后存在哪些法律风险?本文将从内容管理、电信资质、数据安全和隐私保护、知识产权、不正当竞争等维度对ChatGPT应用中带来的法律问题进行分析。 一、如何对ChatGPT生成的内容进行管理? ChatGPT提供的回答是以大规模的训练数据为基础的。ChatGPT从人们为它投喂的大量数据中学习并生成内容,而训练数据本身的错误、偏见、立场、意识形态和价值观都可能反映在ChatGPT生成的内容中。除了不当的训练数据,算法设计者主观认知偏见、算法设计过程中的技术漏洞,例如算法缺乏信息甄别和过滤机制,都可能影响ChatGPT生成内容的可靠性、正当性。因此,ChatGPT有可能输出不准确的信息,甚至可能输出违法违规或不当信息。一方面,法律、医疗等专业领域的错误答复可能使用户做出错误的判断和决策,从而危害人身和财产安全。另一方面,违法违规或不当信息的传播则可能对公共秩序带来严重后果。因此,如何对人工智能生成的内容进行管理,防止违法违规或不当信息的传播,是ChatGPT在应用中必须首先关注的问题。 根据《网络信息内容生态治理规定》,网络信息内容生产者不得制作、复制、发布含有反对宪法确定的基本原则、危害国家安全等内容的违法信息,且应当采取措施,防范和抵制制作、复制、发布含有低俗、庸俗、媚俗、煽动人群歧视、地域歧视等内容的不良信息;同时,网络信息内容服务平台应当履行信息内容管理主体责任,建立网络信息内容生态治理机制,健全用户注册、账号管理、信息发布审核、跟帖评论审核、版面页面生态管理、实时巡查、应急处置和网络谣言、黑色产业链信息处置等制度。对于ChatGPT而言,其兼具内容生产者和内容服务平台的双重角色,因此,在内容管理措施上也需要同时考虑内容生产和平台管理两方面。 《互联网信息服务深度合成管理规定》就ChatGPT类深度合成服务的提供者如何加强内容管理提出了具体要求,包括:(1)“采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核”;(2)“建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序,记录并留存相关网络日志”;(3)“发现违法和不良信息的,应当依法采取处置措施,保存有关记录,及时向网信部门和有关主管部门报告;对相关深度合成服务使用者依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施”;(4)“建立健全辟谣机制,发现利用深度合成服务制作、复制、发布、传播虚假信息的,应当及时采取辟谣措施,保存有关记录,并向网信部门和有关主管部门报告”。 此外,如ChatGPT类产品涉及互联网新闻、网络出版、网络直播、网络视听节目、网络文化活动等服务的,还需遵守《互联网新闻信息服务管理规定》、《网络出版服务管理规定》、《互联网直播服务管理规定》、《互联网视听节目服务管理规定》、《互联网文化管理暂行规定》等互联网内容服务相关监管规定。 二、提供ChatGPT服务是否需要电信资质? 根据《中华人民共和国电信条例》,经营电信业务,需依法取得电信业务经营许可证。电信业务分类的具体划分由《电信业务分类目录》列出。此外,根据《互联网信息服务管理办法》,互联网信息服务分为经营性和非经营性两类。其中,“经营性互联网信息服务,是指通过互联网向上网用户有偿提供信息或者网页制作等服务活动”;而“非经营性互联网信息服务,是指通过互联网向上网用户无偿提供具有公开性、共享性信息的服务活动”。另外,“国家对经营性互联网信息服务实行许可制度;对非经营性互联网信息服务实行备案制度。” ChatGPT通过互联网向用户提供信息,属于互联网信息服务。而对于“经营性”和“非经营性”的判断,不宜简单以服务是否收费来判断有偿或是无偿。实践中,ChatGPT类产品不论是否收费,都具备经营属性,与科研、公益等非经营性活动有明显区分。因此,监管实践中,判断是否属于“经营性互联网信息服务”从而需要电信许可,往往会以服务是否符合《电信业务分类目录》所列业务类别进行判定。 根据《电信业务分类目录(2015年版)》,“B25信息服务业务”是指通过信息采集、开发、处理和信息平台的建设,通过公用通信网或互联网向用户提供信息服务的业务,主要包括信息发布平台和递送服务、信息搜索查询服务、信息社区平台服务、信息即时交互服务、信息保护和处理服务等。其中,“信息发布平台和递送服务”是指建立信息平台,为其他单位或个人用户发布文本、图片、音视频、应用软件等信息提供平台的服务。平台提供者可根据单位或个人用户需要向用户指定的终端、电子邮箱等递送、分发文本、图片、音视频、应用软件等信息。“信息搜索查询服务”是指通过公用通信网或互联网,采取信息收集与检索、数据组织与存储、分类索引、整理排序等方式,为用户提供网页信息、文本、图片、音视频等信息检索查询服务。 ChatGPT通过对训练数据和用户输入对话的采集和处理以及平台(ChatGPT与用户的交互界面)的建设,通过互联网向用户提供信息内容,符合“信息服务业务”的范畴。从具体的业务类别看,ChatGPT更接近“信息发布平台和递送服务”,而非“信息搜索查询服务”。ChatGPT提供的内容不是经检索与排序的原始信息,而是基于对用户对话的理解和训练数据的分析、编辑后生成的文本。可以理解为,ChatGPT根据用户的要求通过平台向用户提供信息,且ChatGPT本身也参与了信息的生产过程。因此,ChatGPT可能落入增值电信业务中“信息服务业务”的范围,从而该服务提供方需取得B25类“互联网信息服务”的增值电信业务经营许可。 三、如何处理ChatGPT带来的数据安全和隐私保护问题? ChatGPT作为史上用户数增长最快的消费者应用,在短短两个月内即突破了1亿用户。ChatGPT的提供方OpenAI在其官网公布的隐私政策中提到,其产品会收集用户账户信息、对话内容、社交媒体信息、以及Cookies、日志信息、使用情况、设备信息等个人信息[2],而用户在与ChatGPT进行对话时,可能会进一步透露自己的财产信息、健康信息等敏感个人信息,甚至商业秘密、机密数据。因此,手握大量敏感数据的ChatGPT一旦出现数据泄露、损毁、丢失等安全问题,则可能产生严重的后果。 除了ChatGPT系统漏洞,ChatGPT自身的工作原理也增加了数据泄露的风险。由于用户输入的信息可能被用于进一步训练ChatGPT,而ChatGPT向其他用户输出内容时就可能包含该用户提供的个人信息、机密数据或重要数据,从而引起数据泄露。2023年3月30日,据媒体报道[3],近日某公司内部发生数起涉及ChatGPT的数据泄露事件。而数据泄露的根源,均是员工将企业机密信息以提问的方式输入到ChatGPT中,导致相关内容进入ChatGPT的学习数据库,从而可能对外泄露。 如果ChatGPT落地中国,还将存在数据出境的问题。根据OpenAI公布的隐私政策[4],在用户使用ChatGPT服务时,其个人信息都将传输至OpenAI位于美国的设施和服务器上。因此,用户在使用ChatGPT服务中,其与ChatGPT交互时可能提供的个人信息、商业秘密甚至可能关系国家安全、经济运行、社会稳定、公共健康和安全的重要数据都将发生数据的跨境流动。根据目前的数据跨境监管框架,ChatGPT提供服务中如涉及向境外传输重要数据,或ChatGPT处理或者向境外提供的个人信息达到《数据出境安全评估办法》所规定的门槛,则服务提供者需向网信部门申报数据出境安全评估。 四、ChatGPT采集第三方数据用于训练是否构成“合理使用”? ChatGPT能够生成各类文本或文案,但这些都来源于对已有作为训练数据的文本或文案的复制、修改、改编、翻译、汇编等处理。如果前述文本或文案是他人拥有著作权的作品,那么ChatGPT使用作品的行为是否构成对他人著作权的侵犯?近日,据媒体报道,拥有《纽约邮报》、《巴伦周刊》、《华尔街日报》等的美国新闻集团正准备向OpenAI、M公司和G公司等公司提起诉讼,要求赔偿其内容在ChatGPT、Bard等AI工具中被用来使用的费用。 根据《中华人民共和国著作权法》(以下简称“《著作权法》”),使用他人作品应经著作权人许可,并支付报酬,除非符合法律规定的合理使用的情形。《著作权法》第二十四条对于合理使用情形的规定采用了封闭式的列举,而ChatGPT对于训练数据中作品的使用难以符合该法所规定的“个人使用”(为个人学习、研究或者欣赏,使用他人已经发表的作品)、“适当引用”(为介绍、评论某一作品或者说明某一问题,在作品中适当引用他人已经发表的作品)、“科学研究”(为学校课堂教学或者科学研究,翻译、改编、汇编、播放或者少量复制已经发表的作品,供教学或者科研人员使用,但不得出版发行)等合理使用情形。因此,我们理解,ChatGPT使用作品在我国依然需要相应知识产权授权。对于ChatGPT的用户而言,如果直接使用了ChatGPT生成的侵犯他人著作权的内容,也可能面临著作权侵权风险。 目前,已经有国家和地区开始探索将人工智能使用作品的情形作为著作权侵权的例外。例如,日本在其著作权法中将计算机在必要的限度内使用作品纳入合理使用的范畴;欧盟则通过《单一数字市场版权指令》,设置“文本与数据挖掘”的版权例外规则。但我国《著作权法》目前未对人工智能使用作品是否构成合理使用的问题进行回应。 五、ChatGPT生成内容是否构成作品?谁享有该作品的著作权? 1. 人工智能生成内容的可版权性 根据我国《著作权法》第三条,受著作权法保护的作品,“是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”。因此,要成为著作权法所保护的作品,不仅需要具有独创性,还需是智力成果。虽然《著作权法》没有明确作品必须为人的智力成果,但通常认为,受著作权法保护的作品必需由人类创造。因此,我国司法实践中往往不承认人工智能生成内容的可版权性。在2019年全国首例人工智能生成内容著作权纠纷案(以下简称“F案”)中[5],法院认为,自然人创作完成应是著作权法上作品的必要条件。人工智能软件利用输入的关键词与算法、规则和模板结合形成的文字内容,某种意义上讲可认定是人工智能软件“创作”了该内容。但即使人工智能软件“创作”的文字内容具有独创性,也不属于著作权法意义上的作品,不能认定人工智能软件是其作者并享有著作权法规定的相关权利。 不过,关于人工智能生成内容是否构成作品,我国司法实践也在进行探索。在上述F案中,虽然法院认为计算机软件智能生成的文字内容不构成作品,但并不意味其进入公有领域,可以被公众自由使用。计算机软件智能生成的文字内容既凝结了软件研发者的投入,也凝结了软件使用者的投入,具备传播价值。[6]而在2020年T公司与X公司侵害著作权纠纷、不正当竞争纠纷一案(以下简称“D案”)中,法院对人工智能生成内容的可版权性进行了探索。在该案中,法院认为,软件自动生成文章的过程虽然没有人的参与,但该软件自动运行的方式体现了原告主创团队人员的选择,也由该软件的特性所决定。因此,从文章生成过程来分析,该文章的表现形式是由主创团队个性化的安排与选择所决定的,体现了人的智力活动,其表现形式并非唯一,具有一定的独创性,构成作品。[7] 2. 人工智能生成内容的版权归属 由此引发的问题是,如果人工智能生成内容构成作品,那么著作权归属谁?人工智能生成作品的著作权归属主要涉及人工智能软件的开发环节与使用环节。如果人工智能软件的开发者与使用者竞合,那么权利归属不存在异议,但当人工智能生成软件的开发者和使用者不同一时,人工智能生成内容的著作权归属便存在一定争议。 在F案判决中,法院认为,软件开发者(所有者)没有根据其需求输入关键词进行检索,该分析报告并未传递软件研发者(所有者)的思想、感情的独创性表达;同理,软件用户仅提交了关键词进行搜索,应用“可视化”功能自动生成的分析报告亦非传递软件用户思想、感情的独创性表达,因此,软件研发者(所有者)和使用者均不应成为该分析报告的作者。[8] 而在D案中,法院认为,涉案文章是原告获授权使用D软件后,在原告的主持下,由包含编辑团队、产品团队、技术开发团队在内的主创团队运用D软件完成,因此,认定涉案文章是原告主持创作的法人作品,即著作权归软件使用者所有。 对比两个案例可以看出,人工智能生成作品的著作权归属,很大程度上取决于开发者或使用者的智力活动对于人工智能生成内容的独创性的贡献。就ChatGPT生成的内容而言,用户作为使用者大多是以简单的语言文字进行提问,对于人工智能生成内容的独创性作用较为有限。而ChatGPT生成内容更多依赖于其开发者OpenAI的设计、训练和引导。因此,从对内容独创性的贡献上说,开发者OpenAI似乎更符合ChatGPT内容的著作权人。 不过,根据OpenAI的《服务条款》[9],在法律允许的范围内,OpenAI将所提供的工具(包括ChatGPT)所产生内容的所有权利转移给用户。用户有责任确保生成的内容不违反法律或OpenAI的服务条款。此外,《服务条款》还明确指出,生成的内容不一定具有唯一性,多个用户可能获得相同或非常相似的内容。因此,尽管OpenAI可能被认为是ChatGPT生成内容的著作权人,鉴于OpenAI主动将其权益转让给用户,故该等情形下,ChatGPT生成内容的著作权应当归属于用户。 六、ChatGPT抓取第三方数据用于训练是否构成不正当竞争? ChatGPT训练使用的数据大多来自于互联网上公开的网站、信息资源库、数字图书馆、专业数据库、社交媒体平台等。数据收集过程可能涉及利用爬虫协议等底层技术对数据进行搜索、抓取、分析,再用于训练ChatGPT。如果抓取的数据属于数据主体采用技术措施加密或未公开的内容,ChatGPT的提供方通过绕开数据主体设置的访问限制(比如网站用户对隐私内容设置为“他人不可见”)或绕开部分网站设置的真人审核(例如验证码方式)获取该等数据,那么不仅爬取行为本身可能存在非法获取计算机信息系统数据、侵犯个人信息或商业秘密的风险,ChatGPT使用该等训练数据向用户输出内容还存在不正当竞争的风险。 根据我国反不正当竞争相关司法实践,关于爬虫技术的使用是否构成不正当竞争,法院往往会根据《反不正当竞争法》第二条的原则性条款,即“经营者在生产经营活动中,违反本法规定,扰乱市场竞争秩序,损害其他经营者或者消费者的合法权益的行为”,综合考虑数据抓取方和被抓取方间是否具有竞争关系、被抓取方是否对抓取的数据享有权益、抓取方的行为是否具有正当性、抓取方对抓取数据的使用是否具有正当性、是否给被抓取方造成相应的危害结果等因素后,判断是否构成不正当竞争。对于竞争关系的认定,在互联网经济领域,法院往往采用广义的理解,认为竞争方式主要表现为通过争夺消费者注意力获取竞争优势,实现经营利益,即使经营者之间不存在直接的竞争关系,经营者也因破坏其他经营者的竞争优势与其产生了竞争关系。[10] 因此,ChatGPT完全有可能被认定为与被抓取数据的数据库、社交媒体存在竞争关系。而如果ChatGPT抓取的数据对于被抓取方而言存在商业利益和竞争优势,ChatGPT的抓取行为存在违反Robots协议或法律声明、违反用户协议、行业自律公约等不正当的情形,从而对被抓取方的预期利益、合法市场份额、消费者信任度等造成损害,那么ChatGPT抓取训练数据的行为就可能构成不正当竞争。...
AI监管风声鹤唳,山姆·阿尔特曼(SamAltman)呼吁政府加强干预
AI律师助手

AI监管风声鹤唳,山姆·阿尔特曼(SamAltman)呼吁政府加强干预

山姆·阿尔特曼是美国著名AI研究机构OpenAI的创始人,他周二在美国国会作证,呼吁政府对AI技术进行更严格的监管。他还提议国会对AI系统采取安全标准和颁发AI开发许可。在欧洲,欧盟正推出全球首个AI法案,旨在确保AI技术以人为本,可信,安全。全球各地都对AI技术可能带来的滥用感到担忧,美国联邦贸易委员会也警告公司如何使用AI技术。
艺术品版权争议:AI与人类创意的边界
AI律师助手

艺术品版权争议:AI与人类创意的边界

这篇文章介绍了艺术家们对绘画AI companies的集体诉讼,指控其训练数据侵害了他们的版权。尽管 initially引起了一阵热闹,但网友们指出许多低级错误,质疑这场官司可能会输。原告是三位知名艺术家,他们委托的律师之前负责过类似的诉讼。双方争议的焦点在于AI生成的作品是否构成侵权,以及AI训练数据的性质。
AI大模型:一场改变产业格局的技术风暴
AI创业助手

AI大模型:一场改变产业格局的技术风暴

本文探讨了ChatGPT API开放后,人工智能在办公软件、社交文娱、营销广告、家庭助理等15个方向的應用,以及类ChatGPT技术的落地情况。文章指出,尽管AI大模型应用创业已经热起来,但仍然存在许多问题,例如行业应用的具体情况和实际效果等。同时,文中提到了一些成功的案例,如微软的Office 365 Copilot和钉钉的AI版Office,表明AI大模型在办公领域的应用已经取得了实际的成效。
AI聊天机器人ChatGPT:颠覆传统聊天方式,引领未来商业潮流?
AI律师助手

AI聊天机器人ChatGPT:颠覆传统聊天方式,引领未来商业潮流?

美国开放人工智能研究中心(OpenAI)研发的AI聊天机器人ChatGPT于2022年11月30日正式上线,引起了广泛关注。ChatGPT具备文本编辑、生成图像、编写代码等多项功能,甚至能辅助完成作业和论文,被认为是人工智能大规模商业化时代的开启。然而,也有业界人士担忧其可能带来的隐私安全、经济和技术方面的难题。ChatGPT的成功吸引了包括百度、谷歌、特斯拉等企业纷纷加入AI市场竞争。值得一提的是,ChatGPT最近的商业变现模式包括付费订阅版本ChatGPT Plus,价格为每月20美元。
ChatGPT之父美国国会作证:AI可能对世界造成重大伤害,必须监管
AI律师助手

ChatGPT之父美国国会作证:AI可能对世界造成重大伤害,必须监管

·OpenAI首席执行官山姆·奥特曼说,“我认为,如果这项技术出了问题,它可能会大错特错”,“鉴于我们明年将面临选举,而这些模型正在变得更好,我认为这是一个值得关注的重要领域”。 ·参议员迪克·杜宾表示,大公司来到参议院“恳求我们对其进行监管”是很了不起的。 当地时间5月16日,OpenAI首席执行官山姆·奥特曼在美国国会作证。 当地时间5月16日,OpenAI首席执行官山姆·奥特曼在美国参议院就人工智能技术的潜在危险作证,敦促立法者对开发GPT-4等先进人工智能系统的组织实施许可要求和其他法规。 “我们认为政府的监管干预对于减轻日益强大的模型的风险至关重要。”奥特曼说,“例如,对开发和发布超过能力门槛的AI模型,美国政府可以考虑把实施许可和测试要求结合起来。” 出庭作证的还有IBM的首席隐私和信任官克里斯蒂娜·蒙哥马利(Christina Montgomery)和著名AI专家加里·马库斯(Gary Marcus)。马库斯指出,美国政府可能需要一个拥有技术专长的“内阁级组织”专门监督人工智能。 近年来,以科技高管为主题的国会听证会的基调一般会用“敌对”来形容,Facebook创始人马克·扎克伯格、亚马逊创始人杰夫·贝索斯等科技名人都曾在国会山被对其公司不满的立法者训斥。但奥特曼在听证会上受到了议员的表扬。 参议员使用ChatGPT发表开场白 奥特曼是在参议院司法委员会隐私、技术和法律小组委员会举行的听证会上发表上述讲话的。 小组委员会主席、参议员理查德·布鲁门撒尔(Richard Blumenthal,康涅狄格州民主党)在听证会上发表开场白,“我们经常看到技术超出监管时会发生什么。”他说,“对个人数据的无节制利用、虚假信息的泛滥和社会不平等的加深。” 开场白的文字由ChatGPT撰写,语音应用程序根据布鲁门撒尔在参议院的演讲训练生成音频。 这时候,所有目光都转向了坐在证人席上准备提供证词的奥特曼。布鲁门撒尔发出笑声,说人工智能能够制作出如此逼真的音频片段真是太神奇了。他接着用自己真正的声音阅读了开场白的其余部分。 布鲁门撒尔支持成立一个机构来监管AI的想法,但他警告说,如果新机构得不到足够的资金和科学专业知识,科技公司“将绕着他们转圈子”。他指出,美国公司通常反对任何新规定,但就人工智能制造商而言,“我感觉到这里有一种真正的参与意愿。” 据参加前一天晚宴和会议的人士透露,奥特曼在当地时间5月15日晚与数十名众议院议员共进晚餐,并在听证会前与多位参议员私下会面。 几位立法者对OpenAI和IBM愿意面对新监管发表了评论,伊利诺伊州民主党人迪克·杜宾(Dick Durbin)表示,大公司来到参议院“恳求我们对其进行监管”是很了不起的。新泽西州民主党人科里·布克(Cory Booker)甚至多次直接称呼奥特曼的名字山姆。 奥特曼建议国会成立新机构,定义能力门槛 虽然奥特曼强调人工智能的好处,但他在听证会上表示,OpenAI“非常担心”选举受到人工智能生成的内容的影响。他担心人工智能行业可能“对世界造成重大伤害”。“我认为,如果这项技术出了问题,它可能会大错特错,我们希望对此直言不讳。” “我们希望与政府合作,防止这种情况发生。” “鉴于我们明年将面临选举,而这些模型正在变得更好,我认为这是一个值得关注的重要领域……我确实认为在这个话题上进行一些监管是非常明智的。”他说。 奥特曼建议国会成立一个新机构,为“超过一定规模的能力”的人工智能技术颁发许可证,在向公众发布AI系统之前,应该由可以判断该模型是否符合这些规定的专家进行独立审计。 不过,奥特曼认为繁琐的要求不应该适用于模型远不如OpenAI先进的公司和研究人员。他建议国会“定义能力门槛”,并将能够执行某些功能的人工智能模型纳入严格的许可制度。 例如,奥特曼说,“可以说服、操纵、影响一个人的行为、信仰”或“帮助创造新型生物制剂”的人工智能模型可能需要获得许可。为任何超过特定计算能力阈值的系统要求许可会更简单,但他更愿意根据特定功能划定监管界限。 OpenAI由非营利和营利实体组成。奥特曼表示,OpenAI的GPT-4模型“比具有类似功能的任何其他模型更有可能做出有益和真实的响应并拒绝有害请求”,部分原因是广泛的预发布测试和审计:在发布任何新系统之前,OpenAI会进行广泛的测试,聘请外部专家进行详细审查和独立审计,改进模型的行为,并实施强大的安全和监控系统。在发布最新模型GPT-4之前,他们花了六个月时间进行广泛的评估、外部红队测试和危险能力的测试。 奥特曼还表示,人们应该能够选择不将他们的个人数据用于训练AI模型。OpenAI上个月宣布,ChatGPT用户现在可以关闭聊天记录,以防止对话被用于训练AI模型。 IBM提出透明度要求,建议参考欧洲 蒙哥马利在听证会上表示,IBM敦促国会对人工智能采取精确的监管方法。“从本质上讲,AI只是一种工具,工具可以服务于不同的目的。”她说,“这意味着建立规则来管理人工智能在特定用例中的部署,而不是监管技术本身。” 蒙哥马利呼吁拟议类似欧洲的法规,其中概述了不同级别的风险。她提出,国会应该明确定义人工智能的风险,并“针对不同的风险制定不同的规则”,最严格的规则“适用于对人类和社会风险最大的用例”。 蒙哥马利提出了透明度要求,称消费者应该知道他们何时与人工智能互动。“任何地方的人都不应该被诱骗与人工智能系统互动……人工智能时代不能成为另一个快速行动和破坏事物的时代。”她说。 蒙哥马利还表示,美国应该迅速让公司对部署“在选举等方面传播错误信息”的人工智能负责。 马库斯担心新闻质量下降,批评微软 参议员们还听取了加里·马库斯的说法,马库斯是一位创办了两家人工智能和机器学习公司的作家,也是纽约大学心理学和神经科学名誉教授。他在听证会上说,人工智能可以制造具有说服力的谎言并提供有害的医疗建议。他批评微软在“悉尼”聊天机器人(新必应聊天机器人的内部名称)表现出令人震惊的行为后没有立即将其撤下。 AI大牛加里·马库斯(左)与山姆·奥特曼在作证前宣誓。 “悉尼显然有问题……我会暂时将其从市场上撤回,但他们没有。”马库斯说。“这给我敲响了警钟,提醒我即使有像OpenAI这样的非营利性公司……其他人也可以收购这些公司并随心所欲。也许现在我们有一组稳定的参与者,但这些系统在塑造我们的观点和生活方面所拥有的力量确实非常重要,而且这甚至没有考虑到有人可能故意将它们重新用于各种不良目的的风险。” 人工智能生成的新闻文章是马库斯讨论的另一个问题。他说,随着越来越多的新闻由人工智能撰写,“整个新闻市场的质量将会下降”。 马库斯说,美国政府可能需要一个拥有技术专长的“内阁级组织”,其全职工作是监督人工智能。他说,在广泛部署人工智能系统之前,应该进行类似食品和药物管理局(FDA)的安全审查,并在产品发布后再进行审查。 但马库斯也警告参议员们要提防滥用监管的可能性。 “如果我们让监管看起来好像我们在做什么,但它更像是绿色外衣(greenwashing,指机构为树立对环境负责的公共形象而散布虚假信息),实际上什么都没有发生,我们就会把小玩家拒之门外,因为我们给他们施加了太多的负担,以至于只有大玩家才能做到。”他说。 “阻止人工智能发展没有意义” 一些人工智能评论家呼吁暂停开发,有非营利性人工智能研究小组指责OpenAI在没有适当考虑其风险的情况下发布GPT-4。奥特曼表示,迭代发布更好,因为“我认为,秘密构建一个超级强大的AI系统,然后一次性将它投放到世界上,并不会有好结果。” 奥特曼说:“我们战略的很大一部分是在这些系统相对薄弱且非常不完善的情况下找到让人们体验它们的方法……并弄清楚我们需要做些什么才能让它更安全、更好。” 参议员布鲁门撒尔说,试图阻止人工智能的发展是没有意义的,“世界不会等待,全球科学界的其他成员也不会停下来。我们的对手正在前进,把头埋在沙子里不是答案。”...