文章主题:欧盟, 人工智能, 责任指令, 法律
欧盟制定《人工智能责任指令》,让被AI技术伤害的人获得经济补偿
在 2023 年,人工智能政策的制定和监管手段不再局限于小众、单调的议题,而是逐渐成为备受关注的焦点。这其中,OpenAI 的 ChatGPT 起到了至关重要的作用。它的出现使得人工智能成为了一个热门话题,同时也让大众更加深入地了解到了人工智能系统的运作机制,以及其在某些情况下可能出现的失误。因此,ChatGPT 的出现不仅推动了人工智能的发展,也使得人们对其有了更为全面的认识。
在政策的视角下,2023年无疑是具有重大历史意义的一年。首先,欧盟成功制定出了第一部全面针对人工智能的法律;其次,美国在参议院举行了一场关于人工智能的听证会,并随后颁布了行政令;最后,我国针对推荐算法等领域做出了明确的法规设定。
在2023年,如果我们能够达成对人工智能的统一愿景,那么2024年将会是一个关键的转折点,标志着政策从理念转化为实际行动。关于2024年的前景,我有以下几点期待和探讨。
在2023年,美国政治对话首次真正将人工智能纳入议题之中,并且不仅仅是停留在讨论阶段。政策制定者也开始采取实际行动,最终使得拜登总统在2023年的10月底颁布了关于人工智能的行政命令。这项命令要求(各类公司和组织)提高人工智能的透明度,并制定新的行业标准。
行政令的发布,预示着一种美国式的人工智能管理策略逐渐显现:它是一种倾向于对人工智能产业友好的、注重最佳实践的方法。这种策略不仅依赖于各个机构制定相应的规则,而且还通过各种途径,以不同的方式对各个经济领域进行监管。
在2024年,我们将看到2023年的成果得以延续和发展。拜登政府所提出的各项任务将逐步付诸实践。此外,关于全新成立的美国人工智能安全研究所(US AI Safety Institute)的更多信息也将不断涌现。这个研究所将负责实施行政令中大部分政策的具体工作。
至于美国国会,我们目前还不清楚具体会出现什么新动作。美国参议院多数党领袖查克·舒默(Chuck Schumer)最近表示,除了行政令外,可能还会出台新的法律。
已经有几项立法提案涉及人工智能的各个方面,如透明度、深度伪造和平台问责制。但目前尚不清楚在这些已经提出的法案中,哪一项(如果有的话)将在 2024 年得到多数支持。
然而,我们可以期待的是看到一种基于人工智能类型和使用方法,划分其风险程度并对其进行分级的方法。这一框架将类似于欧盟的《人工智能法案》。
前沿模型论坛(Frontier Model Forum,一家行业标准制定组织)的执行主任查理斯·梅塞罗勒(Chris Meserole)表示,美国国家标准与技术研究所已经提出了这样一个框架,每个部门和机构现在都必须将其付诸实践。
另一件显而易见的事情是,2024 年的美国总统大选将左右人工智能监管的大部分讨论。
我们已经看到了生成式人工智能制造的虚假信息如何影响社交媒体,因此我们可以预料到,美国大选期间发生的事情,将决定如何防止这项技术造成危害的辩论的走向。
(来源:STEPHANIE ARNETT/MITTR | ENVATO)
欧盟刚刚就《人工智能法案》达成一致,这是世界上第一部全面的人工智能法律。
经过激烈的技术性讨论,欧盟国家已经就《人工智能法案》的基本内容达成一致,随着欧洲各国和欧盟议会在 2024 年上半年陆续走完批准流程,该法案将很快生效。在最乐观的情况下,针对某些人工智能用例的禁令最快可能在年底实施。
这一切都意味着人工智能行业将在 2024 年变得愈发繁忙,因为公司和组织必须准备好,开始遵守新的规则。
尽管大多数人工智能应用将获得《人工智能法案》的“豁免”,但那些开发“对基本权利构成高风险的”基础模型和应用的公司,如那些旨在用于教育、医疗保健和警务等部门的模型和应用,都必须符合新的欧盟标准。
在欧洲,警察将被禁止在公共场所使用人工智能技术,除非他们已经获得了法院批准,并将其用于打击恐怖主义、阻止人口贩运或寻找失踪人员等特定目的。
还有一些人工智能用例将在欧盟被完全禁止,例如创建面部识别数据库,以及在工作或校园环境中使用情绪识别技术。
欧盟的《人工智能法案》将要求公司在如何开发模型方面更加透明,如果模型或使用高风险人工智能系统的组织造成了任何伤害,它们就要承担必要的责任。
开发基础模型的公司比如 OpenAI 它开发了 GPT-4 等其他人工智能产品所使用的模型,必须在法律生效后一年内完成整改,使其产品和行事方式遵守相关法律。其他科技公司有两年的时间来执行这些规定。
为了满足新的要求,人工智能公司必须更仔细地考虑如何构建系统,还要更严格地记录他们的工作,以便对其进行审查。
例如,该法律将要求公司对其模型的训练方式更加透明,并确保“高风险”人工智能系统使用了足够有代表性的数据集进行训练和测试,以最大限度地减少模型偏见。
欧盟认为,最强大的人工智能模型,如 OpenAI 的 GPT-4 和谷歌的 Gemini,可能会对其公民构成“系统性”风险,因此需要额外的工作来满足欧盟标准。
这些科技公司必须采取行动,评估和减轻风险并确保系统安全,同时还要报告严重事故和分享能源消耗的详细信息。至于哪些模型是高风险的,这将取决于公司来评估它们的模型是否足够强大。
开源人工智能公司在很大程度上不受《人工智能法案》透明度要求的约束,除非它们正在开发像 GPT-4 这样的计算密集型模型。如果未能如期遵守规定,后果可能是巨额罚款,或者导致它们的产品被欧盟禁用。
欧盟还正在制定另一项法案,名为《人工智能责任指令(AI Liability Directive)》,该提案将确保受到人工智能技术伤害的人能够获得经济补偿。关于该提案的谈判仍在进行中,2024 年将会出现更多进展。
其他一些国家则采取了暂时观望的做法。例如,谷歌 DeepMind 总部所在的英国表示,短期内不打算监管人工智能。然而,如果任何公司想在欧盟这个世界第二大经济体里面开展业务,就必须遵守《人工智能法案》。
美国哥伦比亚大学法学教授阿努·布拉德福德(Anu Bradford)称之为“布鲁塞尔效应”,通过率先出台监管政策,欧盟制定的标准将辐射全球各国并影响它们的政策制定者,进而塑造全球的商业和技术发展方式。
欧盟通过其严格的数据保护制度(GDPR,General Data Protection Regulation)成功实现了这一点,该制度被美国加州和印度等地区所效仿。它希望在人工智能方面继续成为主要影响者。
2024 年,我们可能会看到更多的人工智能法规在世界其他地区出台。一个值得关注的地区将是非洲。
欧洲发展政策管理中心的政策官员美乐达·墨索尼(Melody Musoni)表示,非洲联盟可能会在 2024 年初发布一项针对非洲大陆的人工智能战略,旨在制定个别国家可以复制的政策,以在人工智能领域提升竞争力,并保护非洲消费者免受西方科技公司的影响。
卢旺达、尼日利亚和南非等一些国家已经起草了国家人工智能战略,还在努力制定教育计划、发展计算能力和行业友好政策,以支持人工智能公司。
联合国、经合组织、二十国集团(G20)等全球或地区联盟也已开始建立有关人工智能的工作组、咨询委员会、原则、标准和声明。
经合组织等组织可能有助于在不同地区塑造监管一致性,从而减轻人工智能公司的合规负担。
从地缘政治角度来看,我们可能会看到不同国家对人工智能产业的态度变得愈发不同,例如是否将人工智能武器化。
2024 年,人工智能公司将在多大程度上考虑全球扩张,还是优先专注本土业务,这也是一件有趣的事情。他们可能不得不做出一些艰难的决定。
支持:Ren
运营/排版:何晨龙返回搜狐,查看更多
责任编辑:
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!