文章主题:AI, 驾驶安全, 责任转移
一、序言:
人工智能为现今的一个响亮名词,代表着人类演算与程式科技的进步,机器透过神经网络计算模式的深度学习,
配合着芯片优化以及大数据金融科技的结合,彷如现今当红HBO电视剧《西部世界》即将诞生。
然而,一如许多AI科幻片所描写的,AI技术的进步虽会带给人类社会许多便利性,但委由机器自行的学习发展,是否也会引发出与人类之间的冲突乃至危险呢?
此一命题为一大疑问,对于科技相关领域也非笔者所长,但无可否认的随着AI研发的进展,
如同人类可“自律性”行为的无人机、自动驾驶技术、智能机器人,在现今的商务与产业等各领域的应用更加普及。
而为确保使用这些AI技术的安全性与发生问题的责任归属,从法律与政策的层面必定须作出相关的规范。
以外国为例,2016年美国网络与信息技术委员会公布了国家人工智能研究发展战略计划,列出了:
(1)长期投资AI相关研究。
(2)发展有效人力与AI协作的方法。
(3)研究AI在伦理、法律以及对社会之影响。
(4)AI系统的安全性的保障。
(5)发展AI训练与测试所需之环境。
(6)在标准规范下评量AI技术。
(7)了解AI研究人力之需求。
这7个方针用以确保人力建立投资计划。作为今后促进AI发展之参考目,整体而言是为积极面的战略,
与此同时为了面对AI的自动化对劳动市场及经济带来的新挑战,美国白宫亦在《人工智慧、自动化与经济报告》中,
公布AI在宏观经济面上可增加加生产率,但须注意对劳动市场造成潜在的多样性影响。
而在开发面上,AI最终亦可能应用于文学与社会科学等领域,但要注意的是AI并非“取代”人类而是“协助”人类去处理生产性事物。
AI若涉及伦理性、道德性事务,必须加以监管,最后则是强调政策是AI革命的关键,AI最终亦可能应用于文学与社会科学。
而在面对这股AI科技发展潮流,世界各国重点研究AI。姑不论AI社会最后会发展成何模样,
但AI的初步发展仍以产业为中心,因此应用于商务乃至社会上可能产生的各种法律问题,则是首先必须探讨之事。
二、AI的权利责任与意识:
机器人ROBOTA一词本为“劳役”、“仆人”之意,在法律上并非“人”也无“法人格”,本质上终究为“物”,并非是权利的主体而只能是权利的客体,
故相关法律问题本应多属民事法、财产法等私法问题因此有关AI相关法律争议一开始也都聚焦在制造物责任法、著作权法等。
但是随著机器人与AI技术的结合与进展,AI自律性、自主性的学习甚至有超越人类一般的智能行为,那么将来在法律上是否有可能承认AI的权利能力。
或是做为自然人及法之后的另一种新的工法律(电子)人格使之成为权利义务主体?
当然现今所说的AI定义其内涵仍是持续.地在发展著,特别是何谓智慧实难定义,但就法律而言,要承认为权利、义务之主体,首先必须要确认有无自主的意识。
因为无自主意识(或者称之为“心智”),自然无所谓的识能力,无法成为责任主体,其之所为之行为是难以承认为有效的法律行为。
但是,假以時日AI的自律性自主性是否会演进(或称之为“觉醒”)成同于人类的“意识”,这似乎是个既科幻又似现实的存在。
因为至少在现实上,无人机、自动驾驶车辆已体现了一定的自主性,然而不可否認的此种自主性离人类的自主意识仍有很大的差距,但于可见的末来AI做為未成年者或老年者的代理人。
代为处理交易行为及财产管理,在技术上应是不太有问题的,因此赋予一定法律人格相信也不無可能。
随着AI技术的发展,面对AI将。来是否会具有意识之问题,肯定派认为:
人的思考皆是如演算法般的进行,故理论上是可依数学式、代码式的分解的,如同电视剧《西部世界》里所描绘,人的行为模式不过为数千万个代码。
而若人的智能本质如同电脑,那AI研究亦有复制的可能,故凌驾于人类认知能力的AI是有可能的,而此类的AI按UC柏克莱大学John-R..Searle教授所创词语为“强-Al”。
与此相对的否定派认为AI即使能如人类般的行动,但“其内心犹如岩石般的空虚”是无法比拟人类的情感(或称为灵魂),所以并不是真正的思考,因此AI只能是“弱AI”。
但不管如何,人类担心AI的反噬已从许多小说与电影可以預想的到,
因此如何禁止危害人类的自律性设计,
亦即加入人类价值观与伦理规范的设计,以使大众安心应为首要之务。
三、车辆自动驾驶:
2018年3月23日在美国加州山景城附近的101号公路发生了一起具有自动驾驶系统的特斯拉ModelX的车祸,
这是继2016年时的第2起同型车死亡事故,也引起了人们对AI无人自驾安全性的疑虑。
前一例的原因是AI将白色卡车认成阳光而肇事,而后这起事件仍在调查中,当时驾驶员开启了特斯拉AutoPilot自动驾驶功能。
但特斯拉表示驾驶人无视AI多次警告才酿祸,同时也举出数据强调自驾系统可降低40%的肇事率,其安全性仍值得信赖。
观看AI相关研究,目前应用成果最多之一的应为自动驾驶车领域,因为自动驾在现实生活中已经上演了,因此许多有关损害赔偿的责任问题也随之发生。
有鉴于此,美国交通部参考汽车工程协会(SAE)分类方式,公布了工联邦直动驾驶车政策,将汽车分等级为“0级:
无自动化”、“1级:驾驶人之辅助”、“2级:部分自动驾驶”、“3级:有条件自动……白驾驶”、“4级:高度自动驾驶”、“5级:全自动驾驶”这6个等级。
而进入到第3级以后驾驶人应已转换为乘客的身分,但也会因此产生了个别的责任以及潜在的伦理性问题,以下则以法领域分别检讨现行法上的若干问题。
行政法上的问题
自驾车固须遵守道路交通法规,但事实上无一定的弹性对应,有时亦会增加事故的风险,
例如遇到黄灯时的对应,若信号被大型车遮蔽而无法,识别时AI是否可从周遭情况综合感知决定停止或前进。
又依多国交通法规定,步行者或车辆须遵从警察交通指挥人员的手势,但以现今的技术要AI判別出警察乃至道路可施工人员、停车场人员的指挥手势,恐不太容易。
因此有人提出可以用能指示AI的遥控器来带替手势,但又存具有被恶用的风险。
故此,除了道路交通法的检讨之外,相关技术的克服亦属重要。
至于进入到3级后,周围的监视义务应转移至AI驾驶,此时AI掌控了方向盘以及刹车等运作,因此责任是否也跟着转移?
人工智能(AI)在处理事故时无法像人类驾驶员那样承担救援责任。尽管如此,我们仍然需要对驾驶人的行为加以限制,即使他们在行驶过程中没有直接操控车辆。首先,驾驶人应避免在行驶途中阅读书籍或使用手机,因为这可能会分散他们的注意力,从而增加发生事故的风险。此外,为了确保驾驶人在行驶过程中能够充分休息,我们应当限制他们过度沉溺于其他活动,例如睡觉。这些举措有助于提高道路安全,减少交通事故的发生。
在现代社会中,随着人工智能技术的不断发展,自动驾驶汽车已经成为了一个热门的话题。在这个背景下,一个备受关注的问题也随之产生:在自动驾驶汽车中,大型车辆的行车记录器是否应该将监测义务转向人工智能驾驶系统?当AI技术掌控了方向盘和刹车等关键操作时,我们是否应该思考责任的转移问题?从技术角度来看,自动驾驶汽车的核心在于AI系统对环境的感知、决策和执行。在实际运行过程中,AI可以有效地提高行车安全,降低人为失误导致的交通事故。然而,这也带来了一个新的问题:当AI系统出现故障或误判时,如何确保相关责任能够明确分配?因此,在自动驾驶汽车中,我们需要建立一套完善的的责任分配机制,以便在发生事故时能够准确判断责任归属。在这个问题上,我国已经采取了一系列措施。例如,《关于修改<中华人民共和国侵权责任法>的决定》明确规定,在自动驾驶汽车中,应当区别责任主体,明确在不同驾驶模式下发生事故时的责任边界。此外,针对自动驾驶汽车的特殊性,我国还制定了一系列法律法规和行业标准,以确保相关权益得到充分保障。总之,在自动驾驶汽车中,行车记录器的监视义务转移到AI驾驶系统是一个值得探讨的问题。为了确保行车安全和社会公平,我们需要不断完善相关法律法规和责任分配机制,让AI技术在推动交通领域变革的同时,也能充分保障人们的权益。
人工智能(AI)在处理事故时无法像人类驾驶员那样承担救援责任。那么,对于驾驶人在行驶过程中无法控制车辆的情况,我们是否应该对其在驾驶外的其他行为加以限制,例如阅读、使用手机或睡觉等?
另外还有大型车的行车记录器装置义务、驾照制度及交通讲习制度等,想必都要有所改变。
刑法上的问题
有AI辅助的驾驶行为理论上应更为安全,而在法律的刑事责任上,因为AI替代了驾驶人的认知、判断与操作的角色,故应可减低驾驶人的注意义务,从而驾驶责任也随之缩小。
然而,过度的信任或误信AI自驾系统而导致事故发生,仍应负有过失责任。
只是这是否意谓可追究系统开发者的刑事责任,例如上述的特斯拉车祸事故可否追究该公司的业务上过失致死罪呢?
关于此问题,一般认为科以开发公司刑事责任易造成萎缩效果,反使AI自驾的实用化更加困难,且刑罚本以惩罚个人为原则,不会直接与系统责任或法人责任相连接。
同时AI自驾系统倘若已达法定标准而出厂贩售运行,原则上更不应追究刑事责任,除非开发公司发现系统有问题而未在合理时间内做出适当的对应时,即应追究其刑事责任。
另外,有关系统的安全与记录等,关系着个人的信息与隐私的问题,开发业者应善尽管理责任,除不恶用外,亦要积极防止黑客侵入。
民法上的问题
在民事责任上,不法行为的“过失”概念应会变动,特别是从3级开始,驾驶权限也移转到AI。
过失责任理论上也应转至AI,然而要知驾驶权限是何时开始转移的,恐怕就必须装置相关的监视系统之功能。
而单纯将自驾车视之为“制造物”,若因工缺陷而产生损害,则适用制造物责任法,制造商须负损害赔偿责任。
然而,要举证高度机能的AI有缺陷本非易事,一而搭载AI的百驾车之过失是否可说是“制造物的缺陷”则有争议。
保险制度的问题
确保用路人的安全才有可能使自驾车普及,因此以救济被害者为目的建立完善的自驾车保险制度是不可缺少的。
例如英国保险公司Adrian-Flux在2016年时即对自驾车保险补偿推出了包含:
因被骇而造成的损失、因软体更新或修正处理失败所造成的损失、因卫星故障或停电导致导航系统受到影响、各种自驾软体的损害、因override失败所造成的损失这5项传统车保所无之项目。
四、结语:
现如今,不得不承认在技术研发上我们仍处于劣势,更应持续吸取各国经验积极发展。
然而除了技术面外,明确的法规范可以缓和AI产业开发上的萎缩效果,更是实现政策目的有效手段,
是以身处AI纪元,吾人对于相关对应的法学研究尤是重要。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!