6月25日,全国人大常委会法制工作委员会举行记者会,针对有关利用“AI换脸”技术进行视频合成、进而实施诈骗的问题,发言人臧铁伟指出:“万变不离其宗”,通过“AI换脸”进行视频合成、实施诈骗的行为,是利用新技术进行的诈骗,与传统的诈骗行为在本质上没有区别。“从法律方面看,反电信网络诈骗法、刑法等法律为打击治理各类电信网络诈骗活动提供了充分支撑”。
此前,有犯罪分子使用AI换脸技术进行电信诈骗,仅仅10分钟的通话就骗走了受害人430万元。一时间“AI换脸”诈骗引发了公众的焦虑,要知道,人类一直把脸作为最重要的生物识别指标,通过“看脸”来区别你、我、他,如今基于深度合成技术的换脸、变声、人工智能对话的应用已经如此发达,到了足以以假乱真的程度。
AI换脸技术很容易沦为冒名诈骗、敲诈勒索、毁人清白的违法犯罪工具。AI换脸凶猛,法律准备好了吗?行政治理准备好了吗?普通人准备好了吗?
正如臧铁伟所说,作为诈骗手段的换脸技术,没有逃出既有法律的打击范围。但还要充分认识到深度合成技术作为诈骗等犯罪手段的特殊性,它打破了“人脸即是真实”的社会共识和常识,带来了视觉失真、新闻失真、社会关系失真等一系列的严肃问题。
首先,AI换脸等技术构成了对公民肖像权、名誉权、隐私权等权利的普遍性威胁,而且违法成本畸低,只要套用一个成熟的程序,就可能生成海量侵权内容,甚至导致当事人“跳到黄河里都洗不清”的尴尬。之前已经有不法之徒推出了“一键脱衣”的AI技术,利用技术手段肆意侵权、侮辱女性。这方面需要职能部门及时立起高压线,引导行业正向竞争。
其二,这类技术还会引发严重的信任危机,不仅有人利用它实施诈骗,还会有更多的民事行为的有效性因此产生争议,怎么证明和自己签合同的就是真实的那个人?这方面民事规则必须及时跟进。
一刀切地禁止,或者无视深度合成技术的发展,都是错误的。去年年底,国家互联网信息办公室正式公布《互联网信息服务深度合成管理规定》,其中不仅原则性地规定了深度合成技术必须遵守法律,不能侵害公民权利,而且还明确了“AI标记规则”:提供“换脸”等深度合成服务提供者,如果相关服务“可能导致公众混淆或者误认的”,就必须提供“显著标识功能”。
也就是说,对AI换脸等服务提供强制标记,避免产生误解,这已经是行政规定,但是需要尽快将相关的治理规则上升为国家法律。此外,针对利用深度合成技术搞的“灰色产业”,如AI色情聊天、换脸破解面目识别技术等,要做到尽早发现、尽早治理,把规矩立起来。
每一种科技突破都难免产生负面效应,关键是引导科技向上向善,别让它跌落到人性负面的深渊里。AI换脸技术不是潘朵拉的魔盒,但是法律和治理必须跟上科技的发展。