文章主题:的人工智能法律制度

666AI工具大全,助力做AI时代先行者!

人工智能时代的伦理法律挑战

自“阿尔法狗”击败世界顶级围棋选手,以及“阿尔法元”以100:0完胜“阿尔法狗”以来,再到我国历史上首个机器人公民索菲亚问世,人工智能已逐渐成为公众关注的焦点。随着技术的飞速进步,各种基于人工智能的应用也应运而生,如无人驾驶汽车、医疗影像产品以及工业机器人等,这些都正在逐步变为现实。无疑,人工智能的发展将为我们的生活带来诸多便利,从而提升人类的福祉。然而,与此同时,人工智能也给我们的社会带来了诸多挑战,涉及治理方式、监管机制、伦理道德、法律法规等方面。特别是在法律制度方面,人工智能的崛起更是引发了人们的广泛关注,其对法律制度的挑战性影响尤为突出。

西南政法大学人工智能法律研究院常务副院长、博士生导师叶明教授

一、人工智能对伦理道德和法律原则的挑战

(一)对伦理道德的挑战

在我们的社会生活中,伦和次序是不可或缺的概念。伦理,可以理解为我们在处理人与人、人与社会关系时所应遵循的原则和规范。相比之下,道德是人类针对人际关系和行为制定的软性规则,它以伦理作为基本框架。因此,伦理和道德在很多方面具有相似性,常常共同出现。普遍认为,法律是最低限度的道德,其中融入了伦理道德的观点。然而,随着人工智能技术的出现,它可能会对人类长期认可的伦理道德观念产生挑战,进一步动摇法律的基础。

一方面,人工智能的崛起对婚姻家庭伦理道德带来了挑战。以机器人索菲亚为例,在获得沙特公民身份后,她接受了众多采访。其中,两段采访引发了人们的深入思考。首先,索菲亚表示出对于成为父母的渴望;其次,令人意外的是,索菲亚却拒绝了人类的求婚。这些情况让我们无法不对随着人工智能发展而产生的婚姻家庭伦理问题进行探讨。

算法歧视对人类传统价值观和伦理道德理念构成了威胁。简而言之,这是一种可能导致歧视问题的算法决策。其产生的原因多种多样,包括算法设计者的道德价值观偏差、数据的有效性和准确性问题,以及机器自我学习导致的后果。算法歧视的实例屡见不鲜,例如谷歌公司的图片软件曾错误地将黑人的照片标记为大猩猩,而微软公司的人工智能聊天机器人Tay在上线短短24小时内就被人类教导,变成了一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。随着算法决策的应用越来越广泛,类似的不公平现象也将日益增多。因此,如何在算法设计中充分考虑伦理因素,以确保公平、公正的决策,已经成为了亟待解决的重要问题。

(二)对法律原则的挑战

在我国的法律法规体系中,平等原则具有至关重要的地位。这一原则的基本涵义是,无论身份、地位或能力如何,每个人在法律面前都应享有平等的权利和义务。然而,随着机器人的广泛应用,这一传统观念正面临着前所未有的挑战。首先,我们需要关注的是机器人内部的平等问题。在这个问题上,一个值得探讨的问题是,不同种类、不同智能水平的机器人是否能够享有完全的平等待遇?这个问题不仅涉及到机器人之间的权益保障,更牵涉到我们在设计、制造和使用机器人时应遵循的原则。其次,我们要面对的是机器人与人类之间的平等问题。这是一个更为复杂的问题,涉及到机器人是否应享有与人类相同的法律地位。如果我们将机器人与人类的法律地位视为平等,那么在权利方面,机器人是否也应享有与人类相同的待遇?换句话说,机器人是否应该平等地享有所有的权利,还是仅能享有部分权利?这些问题都需要我们深入思考和研究。总的来说,随着机器人的普及,我们的法律体系正在面临新的挑战。解决这些挑战,需要我们不断探索和创新,以适应这个日益变化的世界。

二、人工智能对主体制度的挑战

法律主体是法学中的核心概念,它不仅仅涵盖了现实世界中的人,更是一种对人性法律属性的概括。换言之,法律主体是在法律关系中拥有权利、承担义务的人或组织,主要类别包括自然人、法人以及其他组织。但是,随着人工智能的拟人化或智能化程度的不断提升,其外观和行为越来越接近于人类,这带来了一个我们必须面对的问题:我们应如何对待智能机器人?具体而言,人工智能对法律主体制度的影响主要体现在两个方面:首先,是智能机器人的主体资格问题,也就是说,智能机器人应在法律关系中扮演怎样的角色,是主体还是客体?其次,是智能机器人的主体类型化问题,例如,若将人工智能纳入法律主体的范围,其应如何分类,其权利能力和行为能力的起始和终止时间如何设定,以及其行为能力又应如何分级?

笔者认为,从世界范围来看,未来赋予强智能机器人一定的主体地位是大势所趋,目前各国都在机器人立法方面进行积极尝试。例如,2017年10月25日,在沙特首都利雅得的“未来投资倡议”大会上,沙特阿拉伯正式授予了机器人索菲亚公民资格。作为历史上第一位被授予公民资格、成为法律关系主体的机器人,索菲亚的出现无疑使得传统的法律主体制度产生动摇。至于一些弱智能机器人,则可以作为法律上的“客体”来对待。当然,强智能机器人和弱智能机器人的划分标准还有待我们进一步探索。

此外,机器人虽无法归为自然人、法人、其他组织这三类之中,但我们可以为其创设新的主体类型。例如,欧盟委员会法律事务委员会于2016年向欧盟委员会提交动议,要求将最先进自动化机器人的身份定位为“电子人”,除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。这一动议就为我们解决机器人的主体问题提供了一个良好的思路。至于机器人权利能力起始、终结时间点的确定这一问题目前尚无定论,是出厂的时候抑或是主体程序被创作出来的时候开始?是被格式化的时候还是程序崩溃、机械体被销毁的时候结束?这一问题还有待探讨。

最后,我们可以借鉴完全民事行为能力人、限制民事行为能力人制度,对机器人的智能水平进行分级,赋予它们不同的行为能力。当然,具体赋予机器人何种程度的主体地位,还要结合我国的现实情况来进行考量。

三、人工智能对权利制度的挑战

人工智能对当前权利制度提出的挑战主要集中于三方面:即隐私权保护、人工智能创造物的权利归属以及劳动和社会保障权。

(一)隐私权保护方面

在人工智能时代,个人隐私(数据)保护将面临互联网、大数据与人工智能三者叠加的风险,传统社会逐渐走向透明化,在未来的人类社会可能将不再有真正意义的隐私可言。一般而言,除某些国家机关公职人员依照规定公开特定个人信息以外,任何公民的基因信息、病历资料、犯罪记录、家庭住址、联系方式、私人活动等信息都属于个人隐私,应该受到法律的保护。但是,随着智能家居、智能医疗、自动驾驶等智能化产业的发展,人工智能技术逐渐深入社会生活的方方面面,用户在享受智能产品带来便利的同时,其个人信息极有可能被人工智能产品集体性地泄露。有学者预言,人工智能产品必然会成为未来隐私泄露的一个重要端口,但是当前我国的法律制度对此却并没有作出规定。在这种状况下,就要求我们的隐私保护法律制度必须作出相应调整,通过立法明确智能产品使用过程中产生数据的性质和权利归属,规范人工智能产品的数据收集和使用行为,同时赋予掌握大量用户信息的智能产品生产商、网络运营商特殊的信息保密义务,切实保障用户能真正享有消除自己个人隐私信息的“被遗忘权”。

(二)人工智能创造物的权属方面

2017年5月,微软在北京发布了人工智能小冰的诗集《阳光失去了玻璃窗》,诗集内含139首现代诗,全都是机器人小冰创作的。这一举动引起社会哗然,也催生出了一个新的概念:“人工智能创造物”。对于这一类人工智能创造物,其所有权、使用权、知识产权等的归属问题,也给我国当前权利制度带来了很大挑战。

以著作权为例,首先,著作权法是否应该给予人工智能创造物著作权保护,这一问题就尚处于争议之中。支持者认为,机器人作品的形式完全符合著作权法的规定,属于文学、艺术和科学领域内具有独创性、可以复制的智力成果,与人类作品真假难分,甚至比一般的人类作品还要出色。

但是,反对者也有十分充分的理由–当前各国著作权法立法基本上都是以人类智力为中心构建保护对象。以美国的“猴子自拍照案”为例,美国版权局明确强调:“只有人类创作的作品才受版权保护”。我国也发生过所谓的“海豚表演案”,法院明确指出“海豚不是著作权法的主体”,因此不予保护;同理,机器人也不是人,当然不应给予著作权保护。

再者,人工智能作品若是能够得到保护,其作品的著作权归属应当如何确定?有学者认为,人工智能能够自主学习、自主创作,作品著作权当然归机器人所有;但这又会产生一些其他问题:权利若是归机器人所有,该权利如何行使、由谁行使?机器人是否有资格签订版权合同?还有一种观点认为,机器人就是程序员设计出来的工具,它产生的作品著作权应该由程序设计人员享有。也有学者综合这两种考量,认为可以借鉴现在的单位作品制度,机器人作品的权利应当由机器人和程序设计人员共同所有。当然,具体法律制度该怎么设计,还有待我们进一步探索。但是,机器人远比人类高产,灵感永不会枯竭,未来必然涌出大量人工智能创造物,若是法律不尽快上述问题作出规定,可能将不利于未来文学、艺术和科学创新的发展。

(三)劳动与社会保障权方面

根据日本经济产业省的报告显示,日本国内机器人市场将在2025年达到5.258万亿日元,2035年达到9.708万亿日元。随着机器人产业的迅速发展,其能够大幅度地提高企业生产能力,可以有效弥补日本老龄化社会带来的劳动力不足以及经济增长放缓等问题,因此日本在机器人立法方面一直在进行积极尝试,试图赋予机器人合理的法律保护。但是,大量机器人被投入工厂生产线的负面影响也不容忽视。机器人对劳动和社会保障制度的最大挑战,就是其会带来大量失业问题,会给我们的社会保障体系带来极大压力,而我们当前的劳动和社会保障立法还未进行相应调整。

很多研究表明,常规性、重复性的工作,如收银员、话务员、股票交易员等,将最先被取代;而2013年牛津大学学者经检验得出结论,认为美国将会有47%的工作面临被人工智能取代的危险,在英国这个比例是35%,日本是49%。这并不是危言耸听。由于机器人行业的发展,美国高盛投行纽约总部的股票交易员已经从2000年的600名缩减至2名,高盛公司纽约交易员被替代的经历,只是很多行业被代替的一个缩影。

机器人对人类的劳动权利带来了前所未有的挑战,人类的工作在逐渐被机器人抢走。因此,在当前乃至未来阶段,类似于该如何通过法律保障人类的劳动权利、劳动法是否应当将机器人纳入调整范围、机器人是否应当享有恰当劳动时间及良好劳动环境的权利等问题都有待未来的劳动和社会保障立法予以解决。

四、人工智能对民事法律责任制度的挑战

人工智能产品的高度智能化,导致出现了一些因人工智能系统自身瑕疵所产生的损害。日本、美国、德国都曾发生过工业机器人“杀人”的事例。去年11月,美国赌城拉斯维加斯投入运营的无人驾驶汽车仅运营不到两个小时就发生了撞车事故。因此,人工智能产品责任问题一直备受社会各界关注。下面以高度自动或完全自动驾驶汽车发生事故时的责任承担为例,围绕责任主体认定、归责原则、责任形式三方面内容,阐述人工智能对现行民事法律责任制度形成的挑战。

(一)责任主体方面

明确责任主体是确定侵权责任承担的前提,但高度自动或完全自动驾驶汽车往往脱离人类控制自主运行,具有高度智能化属性,这导致发生事故时,往往难以确定责任主体。一方面,高度自动或完全自动驾驶汽车能否自主承担责任尚无定论。作为智能机器人的一种,倘若高度自动或完全自动驾驶汽车并不具有主体资格而仅作为客体,则现行法律责任规则足以解决这些问题。但若高度自动或完全自动驾驶汽车具有主体资格,那么其责任能力的确定目前尚无法律规制予以明确。另一方面,在赋予高度自动或完全自动驾驶汽车主体地位的前提下,是由相关主体承担侵权责任,包括生产者、设计者、所有者、使用者等,还是由自动驾驶汽车自主承担责任?而由相关主体承担侵权责任时,相关主体的侵权责任如何分配?相关主体承担侵权责任的情形又如何界定?如何种情况下由生产者承担责任,何种情况下由所有者或使用者承担责任?

(二)归责原则方面

传统侵权责任规则中的归责原则主要包括主观故意、过失、无过错三种。无论是由自动驾驶汽车或相关主体承担责任,如何判断责任主体的故意、过失都会成为一个难题。一方面,由于自动驾驶汽车往往独立运行,在个案中,很难判断相关主体,如设计者、生产者,是否存在主观故意、过失。另一方面,要准确判断自动驾驶汽车的主观态度难度很大。因为不同于人类具有完全自我意识,自动驾驶汽车在很大程度上受程序控制,其行为往往是综合判断各种信息作出的反应,此时,何种情形下自动驾驶汽车存在主观故意或过失,可能与传统情形有所不同。

(三)责任形式方面

传统法律责任形式可主要分为人身责任和财产责任。责任形式方面的挑战主要集中于当赋予自动驾驶汽车等智能机器人主体资格时,自动驾驶汽车应当如何承担法律责任。就人身责任而言,赔礼道歉、消除影响的方式显然无法适用于自动驾驶汽车。而要求自动驾驶汽车承担财产责任的话,则要明确其是否拥有自身财产及其财产范围。此外,是否可以针对自动驾驶汽车创设如断电、更换芯片等新的责任形式亦值得讨论。

五、人工智能对其他法律制度的挑战

除了上述几方面问题外,人工智能对法律制度的挑战还体现在义务制度、行业监管等诸多方面。在义务制度方面,人工智能带来的挑战主要体现为以下两点:一是机器人的设计者、生产者、使用者是否应当承担特殊义务,如特殊的看管义务、维修义务等,目前的法律义务制度尚未对此做出规定。二是没有无权利的义务,也没有无义务的权利。若是承认机器人的主体资格,赋予人工智能某些法律权利,人工智能本身是否应当承担一定的义务,而这些义务包括哪些具体内容,违反义务的人工智能如何承担责任?同样,目前看来,在人工智能应用的诸多领域,如无人驾驶领域、智慧医疗领域,都存在监管空白问题。因此在行业监管方面,如何构建一个适应人工智能发展趋势的监管法律体系、由哪些主体进行监管、监管职责如何划分、以及监管的程序问题、证据问题、管辖问题如何解决等问题都有待我们去继续探索,以保障人工智能产业更好地发展,促进社会的和谐稳定运行。

人工智能时代的伦理法律挑战

结语

虽然人工智能会对当前社会带来一系列挑战,但这是新技术发展过程中难以避免的问题。随着人工智能逐渐应用于社会生产、生活的各个方面,我们的生活一定会变得更加便利。对此,我们还是应当保持乐观态度。毕竟,面临挑战,最好的办法不是逃避,而是想办法解决!

原发表于2018-01-18

人工智能时代的伦理法律挑战

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!