文章主题:算法黑箱, 算法透明度, 数据保护

666AI工具大全,助力做AI时代先行者!

文章算法黑箱:概念、危害与治理策略

01

算法黑箱的来源及危害

“黑箱”这一概念起源于控制论领域,并逐渐演变为一个广泛用于描述那些无法通过直接观察其内部状态来了解其工作原理的政策、技术和管理系统。在弗兰克·帕斯奎尔的著作《黑箱社会》中,他首次采用了“算法黑箱”这个隐喻,用以强调算法的不透明性。

在2013年,美国康斯威星州法院依据COMPAS算法所提供的量刑前调查报告,对罪犯Eric做出了6年监禁5年监外管制的判决。COMPAS算法的运作方式是根据犯罪主体的个人因素和调查结果等信息,来预测其再次犯罪的可能性。Eric因对COMPAS算法的结果表示不满,向最高法院提出了上诉。然而,COMPAS算法的开发者以算法涉及到商业机密为理由,拒绝公开。最高法院也没有要求他们做出解释。这表明,在商业秘密和公民权利保护发生冲突时,最高法院更倾向于保护商业秘密。深入分析会发现,这种算法属于技术类知识产权,也就是商业秘密。因此,算法开发者的行为是合法的,他们以商业秘密为由拒绝公开算法。然而,这种做法也会导致用户和算法使用者之间出现信息不对称的情况。具体来说,由于算法的透明度较低,用户在算法侵犯其权利时,很难获得及时的司法救济。

此外,算法黑盒可能会加剧甚至加剧算法偏见的问题。无论是算法开发者个人的教育背景、社会认知能力,还是机器的自主学习能力,或者是数据的错误,都可能直接或间接地引发算法偏见的产生。由于“算法黑箱”所具备的不透明性,它为“算法歧视”披上了合理的技术外衣,使得歧视行为难以被其他相关方察觉。

文章算法黑箱:概念、危害与治理策略

02

域外有关算法黑箱的治理经验

在2018年5月25日,欧盟正式推出了《通用数据保护条例》(GDPR),这一法规的的核心关注点在于事前的算法预防机制。它的制定基础是1995年的《数据保护指令》,并且强调了技术和法律手段的双重作用,以应对算法黑箱对个人数据带来的潜在威胁。该条例的主要措施包括:强化数据收集和使用方面的透明度,要求数据主体必须 informed 并给予同意;对个人敏感数据的分类和内容进行了更明确的定义;同时,也对数据使用者的数据处理原则提出了更为具体的要求。

在2018年10月23日的第40届数据保护与隐私专员国际大会上,《人工智能伦理与数据保护宣言》得到了通过。这一宣言旨在制定相关原则,以最大程度地防止算法和其他人工智能手段对数据主体隐私权等权益的侵害。其中包括尊重人权和公平原则,保护隐私原则,提升人工智能系统的透明度和可理解性,以及加强个人授权原则并减少偏见和歧视。这些原则凸显了技术和法律之间关系的持续发展,总体的趋势是技术应在法律的框架内运行,同时法律和技术的有机结合和协同进步也是必要的。这为我们的实践提供了有益的启示。

我国的立法者在认识到人工智能对现代社会带来的挑战与机遇的同时,也积极采取行动,通过发布一系列文件来引导人工智能在法律框架内有序发展。其中,《新一代人工智能治理原则——发展负责任的人工智能》指南就是一例。该指南于2019年发布,强调人工智能系统应秉持开放包容的原则,并努力提升自身的透明度。此外,在2022年,国家互联网信息办公室等部委联合发布了《互联网信息服务算法推荐管理规定》,明确指出算法推荐服务应当遵循公开透明的原则。这些文件的发布,都体现了我国对人工智能发展的重视以及对规范其应用的坚定决心。

文章算法黑箱:概念、危害与治理策略

03

算法黑箱的规制

在算法解释的过程中,确保算法的公开性是至关重要的基础。为了提高算法的透明度,众多学者提出了各种建议。其中,有人主张将参数权重、公式以及理由解释、结果告知等内容进行公开,从而增强算法的透明度。张淑玲(2018)则从算法要素透明、算法程序透明和算法背景透明三个角度出发,提出了披露机制,以提升透明度。然而,这种公开并非无限制的。直接公开源代码并不能提高数据主体对算法的信任度,反而可能导致黑客恶意攻击或商业秘密泄露等风险。许多国家和地区都采取了抵制算法源代码公开的态度。例如,美国纽约市通过了“1696法案”,要求算法的源代码应公开,并基于此成立了“算法问责特别工作组”。但商业公司对此表示强烈反对,认为公开算法源代码将严重损害其竞争优势。最终,立法者在权衡利弊后,取消了法案中对算法披露的要求。

在讨论人工智能技术的发展时,我们需要认识到,仅仅公开算法的运作原理是远远不够的。由于算法本身的技术性和专业性,仅凭此无法让利益相关方充分理解。因此,我们需要在算法公开的同时,强化工智能算法使用者对算法的解释义务。具体而言,算法解释应包括以下几个方面:首先,它需要解释算法的主要目标,也就是通过解读算法模型和特定算法决策过程来实现;其次,算法解释的权利主体应为受到算法决策影响的有利害关系的个人;再者,被追诉人和其辩护人在司法实践中,有权要求控方提供相关算法决策解释以证明其无罪或减轻罪行;此外,算法使用者应承担有限度的解释义务,但由于算法使用者与开发者并不完全等同,因此,他们可以要求新兴网络服务提供商、保险公司等算法应用平台以及算法设计者提供相应的协助解释义务;最后,算法解释的标准和内容也至关重要。根据欧盟《一般数据保护条例》第12条的规定,算法控制者有义务以“简洁、透明、易懂、易获取并清晰直白的语言”提供信息。也就是说,算法解释必须达到一般人的理解和认知程度,否则,算法解释的价值就会大打折扣。

参考文献:

[1]张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(07):49-53.

[2]吴椒军,郭婉儿.人工智能时代算法黑箱的法治化治理[J].科技与法律(中英文),2021(01):19-28.

[3]张红春,章知连. 从算法黑箱到算法透明:政府算法治理的转轨逻辑与路径[J]. 贵州大学学报(社会科学版), 2022(4): 65-74.

[4] 解正山.算法决策规制——以算法“解释权”为中心[J].现代法学,2020,42(01):179-193.

往期精彩内容(直接点击阅读):

解读网信办发布的《生成式人工智能服务管理暂行办法》

历史罕见!AI导致好莱坞63年来首次全行业停工

ChatGPT最强竞品Claude2来了:代码、GRE成绩超越GPT-4,免费可用

AI炒股回报超500%?ChatGPT能否成为韭菜们的最强股市“外挂”?

如何用AIGC技术讲好中医药文化故事

如何用AI帮助撰写应急预案

AIGC技术在文旅领域的应用

AIGC在心理咨询领域的应用

AI虚拟人如何助力中医药文化传播

AutoGPT太火了,无需人类插手自主完成任务,大步迈向自主人工智能时代

李彦宏:大模型即将改变世界(全文及完整PPT)

从本质看ChatGPT:当知识、人性、价值观皆可训练时,AI是什么?

欢迎关注“AI演进”并加入AI演进社群

关于我们

文章算法黑箱:概念、危害与治理策略

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!