AI法律评论丨3家平台违规从事AI服务被查处&北京检方提示关注AI产业刑事红线

文丨天元律师事务所 李昀锴

审定丨主管合伙人 孙彦

1、3家网站违规从事生成式AI服务被网信部门查处

7月22日,重庆网信部门通报2024年上半年查处的网上各类违法违规行为,其中涉及3起违规从事生成式AI服务的案例。通报介绍,“灵象智问AI”“重庆哨兵拓展迷”等网站未经安全测评备案、违规提供生成式人工智能服务问题,网信部门依法对运营主体开展执法约谈,责令立即停止相关服务;“南川区蓉城网络科技工作室”未经安全评估上线提供ChatGPT生成式AI信息服务,网信部门依法开展执法约谈,责令立即关停相关服务。

今年5月,“网信重庆”详细通报“开山猴”AI写作网站的运营主体重庆初唱科技有限公司,被重庆九龙坡区网信办依法给予行政警告处罚,并被责令限期全面整改,加强信息内容审核,健全信息内容安全管理相关制度,暂停网站信息更新及AI算法生成式写作功能15日。此后,主管部门用一百多道测试题,对“开山猴”AI写作网站进行更严密测试,并没有发现问题。目前该网站已经恢复运营。(来源:AI前哨站)

评论:《生成式人工智能管理服务暂行办法》实施以来,相关主管部门作出的公开处罚很少,重庆网信部门对生成式AI监管实践走在前列,体现出主管部门对AI服务提供者的“严管厚爱”。

从网信重庆通报的处罚案例来看,目前主管部门主要关注平台的算法备案、大模型备案以及平台生成内容合规性方面。特别是7月份公布的两个处罚案例中,都是AI服务提供者未进行安全评估的案例。实际上,安全评估为大模型备案的材料要求,这可能意味着主管机关在逐步落实AI服务的大模型备案要求。

不过这种监管要求可能会给AI服务提供者一定缓冲期间,毕竟当前多数AI产品只通过了算法备案,通过大模型备案的项目相对较少。从合规角度而言,我们肯定建议所有的服务提供者均应通过“大模型备案+算法备案”。但从业务视角来看。大模型备案要求较为严格,办理周期及成本也会较长,模型小、用户量较少的产品可以等主管部门通知后再筹划备案。

此外,从“开山猴”平台的案例也能看出,目前主管部门对于大模型生成内容的监管主要集中于输出端。即相较于大模型的语料来源及标注、模型权重、模型机制等技术要素,主管机关对模型生成内容把握更为严格,主要方式是通过测试题集对生成内容进行审查,如AI模型可以通过测试就能满足重新上线的条件。

2、北京检方提示关注人工智能产业刑事红线

7月3日,2024全球数字经济大会“人工智能产业发展与知识产权保护”专题论坛在北京举行。北京市人民检察院在论坛期间发布《北京市人民检察院关于人工智能产业发展刑事合规风险提示》(以下简称《风险提示》)。

《风险提示》聚焦知识产权保护、公民个人信息保护、计算机信息系统安全和数据安全保护等领域。《风险提示》披露了一起案例:某人工智能企业服务器运维管理人员利用企业服务器算力资源优势和工作便利,在100多台服务器上安装“挖矿”程序,通过占用、消耗服务器算力资源获取比特币等虚拟货币,严重影响企业正常经营。检察机关建议企业采取以下措施加强数据安全管理:如实施严格的用户身份认证和权限控制,定期审查权限分配,并提高员工的数据安全意识。对数据授权访问、批量复制、开放共享、销毁及数据接口调用等重要环节建立全面的数据操作留痕机制,确保重要环节可追溯,并实施多机备份以保障服务连续性和防止内部滥用。(来源:京检在线 )

评论:当前大语言模型因其强大的自然语言处理能力,在多个行业中有着广泛的应用场景,包括但不限于客服系统、智能助手、内容创作与编辑、教育辅导、医疗咨询、法律服务、金融分析等。但有的开发者会将AI技术应用于非法领域,如开发AI陪伴工具以传播色情信息,该情况下大语言模型生成或传播色情信息可能触犯刑法。如果涉及制作、传播淫秽物品的行为,可能会构成“传播淫秽物品牟利罪”或“传播淫秽物品罪”,如果涉及儿童色情内容可能构成加重处罚情形,这些犯罪行为可能导致运营者或使用者面临有期徒刑的处罚。

但遗憾的是,很多AI开发者实际上并未建立“红线”意识。我们团队在近期的法律研究中发现,市场上有些AI陪伴工具的内容都有引诱、挑逗倾向,在个别场景下甚至会直接输出色情信息,其中甚至包括互联网大厂的产品。AI工具以这种形式生成或传播色情信息,不仅可能导致其开发者或使用者违反内容管理法规,甚至开发者可能面临罚款、限制服务、吊销相关许可的风险,更不排除有涉及刑事责任的重大风险。希望相关开发者能够认识到AI技术应用的法律边界,不要为了一时的用户流量而懊悔终生。

3、Meta拒绝在欧盟发布多模态AI模型

Facebook母公司Meta Platforms(META.US)表示,由于欧洲监管环境的不可预测性,将不会向欧盟客户提供其多模式人工智能模型Llama。

上个月,Meta表示将推迟其人工智能助手Meta AI在欧洲的推出,因为它正在处理爱尔兰隐私监管机构关于使用Facebook和Instagram内容作为训练数据的请求。Meta还看到倡导组织NOYB向11个欧洲国家提出投诉,指控该公司计划在未征求用户同意的情况下使用个人数据来训练其人工智能模型。

报道称,Meta的问题不在于《人工智能法案》,而在于如何在遵守《通用数据保护条例》(GDPR)的同时,使用欧盟客户的数据来训练模型。Meta表示使用当地数据进行训练,对于确保其产品正确反映该地区的术语和文化至关重要。Meta补充说,欧盟和英国的《通用数据保护条例》(GDPR)几乎相同,但该公司仍继续在英国开展业务,因为英国机构对发现的问题给出了明确的反馈。因此,据知情人士透露,这并不是法律的问题,而是欧盟不可预测的法律应用方式的问题。(来源:数字法学研究)

评论:欧盟的《人工智能法案》被视为全球第一部人工智能监管法律,可以为监管人工智能制定全球标准。但学界在对其进行称赞及热议的时候,相关AI开发者却并不买账,甚至表示欧盟的法律过度限制AI技术的发展。除了本次Meta暂停在欧盟发布AI模型外,2024年6月苹果公司也曾宣布苹果手机的AI功能将暂时不会在欧盟推出。对此,欧盟竞争专员的相关人士还曾公开表示,苹果此举表现出了反竞争行为,涉嫌违反了欧盟的数字市场法(DMA),如违反DMA将面临其最高全球营业额10%的罚款。这种公开表态意味着欧盟还没有从高高在上的立法者视角进行转变,实际上正是欧盟过于严苛的政策迫使Meta等跨国公司企业选择“以脚投票”,如暂停或限制特定产品或服务在特定地区的提供,以避免可能的法律纠纷和经济损失。欧盟如再次就相关公司行为进行处罚,不仅不会缓解与AI开发者之间的矛盾,反而将会进一步揭示其监管的不确定性,长此以往,可能是双输的局面。

Meta与苹果公司停止向欧盟提供AI产品的行为也启示国内的出海企业,在向欧盟市场提供AI服务之前必须进行隐私合规评估,深化对GDPR及欧盟各国相关数据保护法规的理解和应用,建立和完善数据合规管理体系,确保AI模型开发和使用的全过程符合欧盟法规要求。否则,开发者可能因为自身的“不谨慎”面临巨额罚款,最终将得不偿失。

4、日本新闻协会发文称AI搜索可能侵犯著作权

日本新闻协会发表声明称,美国IT巨头Google、微软等公司提供的将网络搜索引擎与生成式AI相结合的“搜索联动型生成式AI服务”(即AI搜索引擎)很可能构成侵犯著作权。声明指出,此类服务经常擅自利用新闻报道作为信息源、生成类似新闻报道的回答。它要求美国IT巨头获得新闻媒体的使用许可。声明分析称,有一些案例显示,搜索联动型AI对新闻报道进行不恰当的转用和加工,生成了存在错误内容的回答。声明强调,应当在确保准确性和可靠性之后再开始提供服务。(来源:奇客solidot)

评论AI搜索作为最新的搜索产品业态,其不仅革新了传统搜索引擎的信息罗列模式,根除了竞价排名广告,还能解决大语言模型信息滞后和幻觉问题,让传统搜索引擎的交互变得更加智能。但有评论指出,AI搜索的发展是“吞并式”的,将直接引起其与其他内容服务商之间的竞争利益纷争。根据我们的服务经验,当前AI搜索产品可能存在如下的法律风险:

1

著作权侵权,AI搜索引擎如果未经许可使用了受版权保护的内容(如新闻报道、文章等),则可能构成著作权侵权。例如在《纽约时报》起诉OpenAI及微软公司案件中,《纽约时报》主张微软公司的bing搜索在合成输出显示的文章内容更具有表现力,且部分结果未经授权将《纽约时报》作品逐字逐句复制并输出;

2

实质性替代,AI搜索通过利用竞争对手的内容,提供与竞争对手相似或相同的服务,可能会实质性地替代原有服务,违反《反不正当竞争法》的第二条规定。例如现在很多AI搜索引擎没有设置网页链接,用户通过AI搜索页面就可以获得想要的信息,不会再点击搜索来源;

3

搜索结果操纵,如果AI搜索引擎人为地提高自身平台搜索结果的权重,使其偏向于自家产品或服务,搜索结果内容比例高于竞争对手的产品和服务,这种排名并非完全基于客观算法,可能被视为不正当竞争;

4

误导性信息,如果AI搜索引擎提供的信息内容是错误或误导性的,这可能会损害用户的利益,同时可能影响“信息来源”的公信力。如《纽约时报》起诉OpeanAI及微软公司案件中,《纽约时报》主张bing搜索错误将实际未发表的内容来自《纽约时报》,这样的幻觉(错误)信息损害了时报的商业利益和竞争力。

AI法律评论丨3家平台违规从事AI服务被查处&北京检方提示关注AI产业刑事红线

*特别声明:

本文仅为交流目的,不代表天元律师事务所的法律意见或对法律的解读,如您需要具体的法律意见,请向相关专业人士寻求法律帮助。

AI法律评论丨3家平台违规从事AI服务被查处&北京检方提示关注AI产业刑事红线