兰迪研究 兰迪研究
LANDING RESEARCH
兰迪研究
首页 兰迪研究 专业文章 文章详情
兰迪研究 | 多视角透析——人工智能伦理、安全、治理风险的法律规范(六):智慧交通发展所带来的挑战与治理思路

一、引言

 

随着人工智能、大数据和互联网技术的飞速发展,构建智慧交通系统已成为现代城市交通管理发展的重要方向。人工智能在交通流量监控、智能交通信号控制、自动驾驶车辆等方面的应用,能够极大地提高交通效率和安全性。智慧交通系统利用先进的传感器、通信技术和数据处理能力,实现了对交通状况的实时监控和分析。人工智能技术在此过程中扮演了关键角色。例如,通过分析历史和实时数据,预测交通流量,优化交通信号灯的配时;通过实时监控和分析,及时发现潜在的交通事故并快速响应;凭借自动驾驶技术,使车辆能够自主导航,减少人为操作错误,提高行车安全。

 

然而,智慧交通系统的推广和应用并非一帆风顺,它面临着技术、法律、伦理以及基础设施等多方面的挑战。目前,自动驾驶技术的迅速发展与应用是智慧交通矛盾最为突出、争议最为激烈的领域。

 

首先,安全问题始终是智慧交通的核心关注点。虽然在智慧交通系统的指导下,理论上可以减少由于人为操作失误导致的交通事故,但仍然面临着技术故障、系统漏洞等潜在风险。技术层面上,算法亟待优化以提高系统的稳定性和可靠性。此外,智慧交通系统在面对复杂的交通环境和突发情况时,其决策机制是否能够做出最优选择,也是公众普遍关心的问题。

 

其次,治理问题也是自动驾驶技术发展过程中必须面对的难题。随着自动驾驶汽车的普及,相关的法律法规、交通规则以及责任归属等问题都需要重新审视和制定。政府和监管机构需要制定相应的政策和标准,规范自动驾驶车辆的责任归属、事故处理等问题,以确保法律的适应性和前瞻性,并在必要时进行有效地干预和监管。此外,智慧交通系统依赖于大量的数据与信息,因此,数据的安全性和隐私保护问题也不容忽视。

 

再者,伦理问题也是智慧交通发展中不可忽视的一部分。例如,在紧急情况下,自动驾驶系统如何平衡乘客安全与行人安全,如何在不同文化和社会价值观之间做出合理的道德判断,这些都是需要深入探讨的问题。

 

本文将深入探讨这些关键问题,分析以自动驾驶技术为代表的智慧交通在安全、治理和伦理方面的挑战,并对各国现有的法规作出总结梳理。

 

二、无人驾驶技术分级标准

 

无人驾驶技术通常根据其自动化程度被分为不同的级别,从L0到L5:[1]

 

L0(有人驾驶):完全由人进行驾驶,无自动驾驶功能。车辆可能配备一些辅助系统,如自动紧急制动(AEB),但这些系统不主动控制车辆。

 

L1(驾驶者辅助):车辆具备一个或多个特殊自动控制功能,如电子稳定性控制 (ESC) 或自适应巡航控制 (ACC) ,但驾驶员负责监控驾驶的其他方面。

 

L2(部分自动化):车辆能够控制转向以及加速或减速,但驾驶员需要一直对系统进行监视并准备在紧急情况时接管系统。

 

L3(条件自动化):车辆可以在某些条件下进行自动驾驶,但在系统失效或超过工作条件时,驾驶员需要对故障汽车进行接管。

 

L4(高度自动驾驶):车辆能够在设计运行条件内持续地执行全部动态驾驶任务,不需要人类干预,但在请求驾驶自动化系统退出后,驾驶员的角色才能恢复。

 

L5(完全自动驾驶):车辆在任何可行驶条件下持续地执行全部动态驾驶任务,不需要人为关注,从而免除了“动态驾驶任务”。

 

目前,大多数无人驾驶公司处于L2-L4阶段,而L5级别的自动驾驶汽车,即能够在任何环境下完全自主驾驶的系统,目前还未普及,但正在积极研发中。

 

三、技术发展的挑战与困境

 

1. 技术挑战下的安全问题

 

自动驾驶技术的核心在于通过先进的传感器、算法和控制系统实现车辆的自主驾驶。然而,与传统驾驶相比,自动驾驶技术所引发的安全问题需要从两个方面进行考量。

 

从传统交通安全的层面。根据调查,绝大部分的交通安全事故是由人为失误或不当驾驶行为造成的。[2] 自动驾驶技术在一定程度上确实可以通过将车辆的操控权从驾驶员手中转移到更为可靠的数字化管理系统,从而减少因人为失误引发的交通事故,进而显著降低事故的发生率。[3] 但在实际应用中,自动驾驶汽车仍面临着诸多技术难题。首先,感知技术是自动驾驶汽车实现环境感知的关键,但当前传感器在恶劣天气、复杂道路条件下的感知能力仍有待提高。例如,在雾、雨、雪等低能见度条件下,摄像头和激光雷达的识别精度会降低,这可能导致自动驾驶系统无法准确识别交通标志或障碍物。其次,决策规划技术是实现自动驾驶汽车智能决策的核心,如何在保证安全性的同时实现高效、舒适地行驶,仍是当前研究的热点和难点。例如,在城市交通中,自动驾驶汽车需要能够识别和响应交通信号、遵守交通规则,并与其他车辆和行人进行有效的交互。此外,自动驾驶汽车还需要能够处理意外情况,如紧急避让或应对突发的交通事件。[4] 最后,控制技术是自动驾驶汽车精确执行决策规划系统指令的基础。它涉及到车辆的加速、制动、转向和其他动态控制。如何保证控制系统的稳定性和鲁棒性,仍是亟待解决的问题。

 

从数据安全与网络安全层面首先,隐私问题一直是自动驾驶技术发展中不可忽视的一个关键点。自动驾驶系统在运行过程中,确实需要收集和处理大量的数据,包括但不限于车辆的位置信息、行驶速度、行驶轨迹以及驾驶者的行为模式等。这些数据不仅对于提升自动驾驶系统的智能性和安全性至关重要,同时也蕴含着驾驶者的个人隐私。一旦这些数据被不当使用或泄露,将对驾驶者的个人隐私构成严重威胁。为了有效应对自动驾驶领域个人信息泄露和滥用的风险,构建一个全面的个人信息保护机制显得尤为关键。[5] 其次,一且自动驾驶系统或智能交通基础设施遭受恶意网络攻击,其潜在的灾难性后果可能与故意引发的火灾、爆炸或洪水等灾难性事件相提并论,不仅可能引发一系列严重的交通事故,还可能对公共安全造成无法估量的损害。

 

2. 治理困境下的监管与归责问题

 

自动驾驶汽车,作为现代科技的前沿产物,正在逐步改变我们的出行方式。然而,随着技术的发展和应用的普及,相关法律法规的滞后性逐渐显现。目前,全球范围内的自动驾驶汽车法律法规尚未形成统一的框架,在监管依据、权责认定等方面存在较大争议,这在一定程度上制约了技术的发展和应用的推广。

 

首先,监管依据的不明确是当前面临的一个重要问题。正如前文所提到的,自动驾驶汽车的运行涉及众多技术环节,如车辆控制、环境感知、决策制定等。这些技术环节的复杂性和多样性使得监管机构难以制定统一的标准和规范。并且,不同国家和地区在技术标准、安全要求等方面的差异,也增加了监管的难度。一方面,监管机构需要与技术专家、制造商和行业组织紧密合作,制定既科学又可行的技术规范。另一方面,自动驾驶汽车的普及将对现有的交通法规和法律体系带来挑战。[6] 现有的交通法规大多是基于人类驾驶者设计的,而自动驾驶汽车的引入需要重新审视这些法规,确保它们能够适应新的驾驶模式。

 

此外,责任归属问题也是自动驾驶汽车普及过程中必须解决的问题。在自动驾驶汽车发生事故时,责任的归属可能会变得复杂。一方面,根据我国《道路交通安全法》第76条第1款规定,机动车之间发生交通事故适用过错责任。根据《道路交通安全法实施条例》 第91条规定,公安机关交通管理部门根据当事人的行为及其过错的严重程度确定当事人交通事故责任。鉴于此,交通事故责任认定需要评价当事人行为的作用力大小和过错严重程度。对于作用力大小的评价,是对当事人的行为与损害结果之间因果关系强度进行客观评价。对于过错严重程度的评价,是对行为人故意或过失的主观要件的评价。[7] 传统上,机动车事故责任的判定通常基于驾驶者都是人类,共享相同的法律地位,这是适用过错责任原则的法理基础。然而,在智能驾驶技术日益普及的今天,自动驾驶汽车继续沿用这一原则可能不再适宜。现有的法律体系,主要围绕人类驾驶行为构建过错判断标淮,这种模式在面对自动驾驶技术时显得力不从心。

 

另一方面,某些自动驾驶汽车的事故可能源自系统缺陷,这些缺陷直接导致了交通事故的发生。即便系统本身没有缺陷,但产品的整体设计问题也可能引发缺陷,进而引发事故。根据《民法典》第1202条和第1203条的规定,如果产品缺陷造成他人伤害,生产者必须承担相应的侵权责任。受害者有权向生产者或销售者提出赔偿要求。但当自动驾驶车辆出现交通事故时,证明其存在设计缺陷或产品质量问题变得尤为复杂,这种复杂性主要源于自动驾驶系统的高度集成性和技术复杂度,使得事故原因的追溯和责任的认定变得异常因难。因此,作为原告的消费者在以设计缺陷为由对汽车制造商提起诉讼时,往往面临诸多困难。这使得他们难以有效地追究制造商的责任。

 

3. 新兴领域所带来的伦理问题

 

目前,我国已不断加强对人工智能伦理的关注,并为此建立了专门的机构和规章制度,但目前关于人工智能伦理的讨论大多还停留在诸如“科技向善”和“以人为本”等宏观理念上。具体到自动驾驶汽车的算法伦理,尚未形成具体且有针对性的讨论和规范。自动驾驶汽车代表了人工智能技术的综合应用,其核心系统由多个复杂组件构成,包括感知、定位、决策和执行系统。这些系统在运作过程中不可避免地触及到众多伦理议题。

 

决策系统负责处理感知和定位系统收集的数据,并据此做出驾驶决策,如是否变道、加速或减速。执行系统则将这些决策转化为实际的驾驶操作。这两个系统在功能上类似于人类的大脑和身体,直接关联到行为的伦理性,即行为主体基于自由意志做出的选择及其对社会和他人的影响。[8] 自动驾驶汽车的设计必须将安全性放在首位,这是毋庸置疑的。然而,在某些极端情况下,事故的发生可能无法完全避免。在这种情况下,自动驾驶系统需要在不同的风险之间做出权衡,选择相对较小的伤害。例如,当自动驾驶汽车面临一个必须做出快速决策的紧急情况,如避免撞上行人或选择撞向其他物体时,系统必须依据其编程和算法来决定如何最小化损害,在更为极端的情况下,假如自动驾驶汽车在开启自动化驾驶系统后,在通过绿灯的十字路口,三名儿童突然冲出,车辆无法及时刹车避让。唯一的选择是转向,撞到遵守交通规则的摩托车,造成骑手死亡。此时,自动驾驶汽车又该如何决策?

 

在当今快速发展的科技时代,法律和伦理的紧密结合与相互补充显得尤为重要。它们共同构成了确保科技进步能够为人类带来积极影响的基础。特别是在自动驾驶汽车这一领域,伦理的讨论不仅揭示了在算法设计过程中必须考虑的关键因素,更强调了这些因素对于保障人的尊严和提升人类福祉的重要性。通过深入探讨伦理问题,科技界和产业界能够更全面地理解并重视那些影响深远的决策,从而在技术解决方案的探索中,将这些伦理要素纳入考量。人工智能伦理的发展不应仅仅停留在抽象的原则层面。为了真正实现科技向善,伦理原则必须具体化,转化为可以指导实际设计行为的详细准则。

 

四、各国关于自动驾驶领域的法律规定

 

1. 中国

 

在标准层面,中国发布了《汽车驾驶自动化分级》国家标准,将驾驶自动化功能分为0-5级共6个级别。

 

在测试与准入层面,自动驾驶汽车的测试与准入要求主要由《智能网联汽车道路测试与示范应用管理规范(试行)》和《关于加强智能网联汽车生产企业及产品准入管理的意见》规定。

 

在事故责任认定层面,根据《深圳经济特区智能网联汽车管理条例》 (2022) 完全自动驾驶的智能网联汽车在无驾驶人期间发生道路交通安全违法情形的,由公安机关交通管理部门依法对车辆所有人、管理人进行处理。智能网联汽车发生交通事故,因智能网联汽车存在缺陷造成损害的,车辆驾驶人或者所有人、管理人依照有关规定赔偿后,可以依法向生产者、销售者请求赔偿。根据《上海市浦东新区促进无驾驶人智能网联汽车创新应用规定》 (2022) 无驾驶人智能网联汽车发生交通事故并造成损害,依法应由智能网联汽车一方承担责任的,由该无驾驶人智能网联汽车所属的企业先行赔偿,并可以依法向负有责任的自动驾驶系统开发者、汽车制造者、设备提供者等进行追偿。

 

在网络安全与数据保护层面,以《网络安全法》《数据安全法》《个人信息保护法》为框架的中国网络安全与数据保护领域规范体系已逐渐完善。自动驾驶汽车企业需落实数据分类分级管理制度,确保数据的安全性和合规性。

 

2. 欧盟

 

欧盟的《人工智能法案》 (EU AI Act) 是全球首个全面监管人工智能的法规,旨在规范人工智能的应用,保护基本权利、民主、法治和环境可持续性,同时促进创新。该法案在2024年3月13日以压倒性多数通过,并在同年8月1日正式生效。

 

法案的主要内容包括:对人工智能系统进行风险分级管理,分为不可接受风险、高风险、有限风险和低或极小风险四个类别。其中,对于拟用作道路交通的安全组件的人工智能系统,被划分为高风险。

 

《人工智能法案》对高风险人工智能系统设定了严格的合规要求,包括注册、风险管理、测试、技术稳健性、数据治理、透明度、人类监督和网络安全等方面。高风险人工智能系统的提供者在将系统投放市场或投入使用之前,需要将其注册在欧盟范围内的人工智能数据库中,并必须实施有效的风险管理流程,以识别、评估和控制与人工智能系统相关的潜在风险。这包括定期审查和更新风险评估,以及制定相应的风险缓解措施。此外,高风险系统在上市前必须经过严格的测试和验证,以确保它们在实际使用中能够按照预期运行,并且不会对用户或环境造成危害。

 

3. 英国

 

在标准层面,2022年1月26日,英格兰、威尔士和苏格兰法律委员会发布了《自动驾驶汽车:联合报告》,包含关于如何制定新的自动驾驶汽车监管改革的75项建议。报告涉及自动驾驶概念、自动驾驶的分级、设定安全标准、初始准入和授权、使用中的安全保障和数据使用民事责任等多个方面。

 

在测试与准入层面,2023年12月5日,交通运输部办公厅发布了《自动驾驶汽车运输安全服务指南(试行)》,规范自动驾驶汽车在运输服务领域的应用。指南适用于使用自动驾驶汽车在城市道路、公路等用于社会机动车通行的各类道路上,从事城市公共汽电车客运、出租汽车客运、道路旅客运输经营、道路货物运输经营活动的。

 

在事故责任认定层面,2018年7月19日,英国通过《自动与电动汽车法案》。该法案将车辆强制保险范围扩大至自动驾驶汽车,对汽车保险和责任规则进行了革新,对自动驾驶汽车在“自我驾驶”状态下发生事故的,保险人或车辆所有人应承担“首要责任”。

 

在网络安全与数据保护层面,英国交通运输部同国家基础设施保护中心共同制定了《网联和自动驾驶汽车网络安全关键原则》,要求汽车产业长期供应链中的所有参与者必须携手确保设计阶段以及车辆上路后数年的汽车网络安全问题。

 

4. 德国

 

在标准层面,德国于2021年5月通过了《自动驾驶法》,允许L4级别智能汽车在德国公共道路指定区域运营,并规定了相应的技术要求、行驶条件和数据处理规则。该法还创设了技术监督员制度,将其纳入保有人强制责任保险的被保险人之列。

 

在测试与准入层面,具有自动或自主驾驶功能的车辆开展公路测试时,必须依法登记并拿到联邦汽车运输局的测试许可证,且应由具有车辆技术知识的驾驶员(或技术监督员)对自动(或自主)驾驶系统进行监控。

 

在事故责任认定层面,自动驾驶法补充了车辆保有人责任豁免的例外情况,确保车辆保有人的危险责任无一例外适用于所有自动驾驶汽车,包括拖车且不限车速。此外,新法还将已经适用于高度和全自动化驾驶车辆的双倍最高责任金额延至无人驾驶汽车。

 

在网络安全与数据保护层面,德国的自动驾驶法规还对自动驾驶汽车的数据隐私有明确规定:当未出现意外事故时,数据的保存时间不得超过6个月;反之,数据的保存时间不得超过三年。

 

五、相关案例:各国案例的具体分析

 

1. 美国加利福尼亚州特斯拉自动驾驶事故致死案

 

(1)基本案情

米卡‧李 (Micah Lee) 于2019年驾驶Model3时,自动驾驶系统导致⻋辆突然偏离洛杉矶以东高速公路,撞上一棵棕榈树并起火。法庭文件显示,这起事故导致李死亡,两名乘客重伤。原告要求特斯拉赔偿4亿美元以及惩罚性赔偿。

 

(2)矛盾焦点

死者家属称特斯拉故意销售有缺陷的自动驾驶系统,而特斯拉否认负有责任,称李在开车前饮酒。且目前尚不清楚事故发生时自动驾驶仪是否已启用。但特斯拉的律师迈克尔·凯里 (Michael Carey) 辩称,驾驶员最终控制着车辆,他们在使用自动驾驶时,双手必须握住方向盘。

 

(3)判决结果

本案于2023年11月作出判决,陪审团认为汽车的自动驾驶系统不是导致Micah Lee死亡的车祸的原因,并认定事故是人为失误造成的。

 

2. 蔚来汽车紧急制动事故致死案 [ (2021) 沪02民终984号 ]

 

(1)基本案情

2019年7月,上海沈海高速上,驾驶蔚来的金某追尾货车引发连环车祸,事故造成金某死亡,同车刘某受伤。刘某向上海市静安区人民法院提出诉请,认为蔚来存在欺诈,要求蔚来按照车价款的三倍赔偿损失。

 

(2)矛盾焦点

根据蔚来交付的《用户手册》,当车辆在和前车距离过近时,如有必要会自动紧急制动,最大限度地将车辆碰撞伤害降到最低,协助避免追尾碰撞前车及减轻后果。2018年12月31日,刘某收到蔚来发送的《软件更新ES**.2.0版本升级》公告,告知自动紧急制动 (AEB) 功能开放,可侦测潜在的前方同向车辆追尾风险,并自动启动对驾驶员的预警。若本车与前方车辆间距小于安全距离,且驾驶员未及时介入,则会主动施加紧急制动以降低车速。而在事故发生时,涉案车辆的自动紧急制动功能既未启动对驾驶员的预警,亦未主动施加紧急制动以降低车速或实现制动刹停。刘某认为,涉案车辆存在设计与应用上的缺陷,且在刘某预订时蔚来未告知自动紧急制动功能有诸多限制条件,造成刘某错觉,忽略了行驶中的戒备,导致车毁人亡的严重后果。

 

(3)判决结果

经交警部门认定,涉案车辆的驾驶员驾车时遇情况措施不当,未按操作规范安全驾驶,应承担事故主要责任。根据查明的事实,涉案车辆具备自动紧急制动、前撞预警等功能,上述功能在《用户手册》及软件升级公告中进行了详尽介绍,并列举了自动紧急制动、前撞预警可能不启动的情况,又以合理的方式提示用户,自动紧急制动、前撞预警受若干因素影响可能失效、失当或不及时,切勿依赖,已能够达到作为普通消费者理解能力之要求。刘某在事发前对于上述内容均已知晓,亦从未提出异议。本案中的交通事故,涉案车辆的驾驶员未按操作规范安全驾驶,在前方拥堵且高速行驶的情况下急转弯发生追尾。事故发生时,涉案车辆虽未主动施加紧急制动,但被告在《用户手册》中已明确说明,在急转弯等情况下紧急制动可能不启动,不存在隐瞒或欺诈。刘某认为涉案车辆存在设计与应用上的缺陷,但未能提供证据加以证明。自动紧急制动功能系智能辅助功能,对天气、路面及驾驶员的操作有一定要求,并不等同于缺陷。驾驶员应全程谨慎驾驶,不能过度依赖辅助功能。刘某未进一步举证证明涉案车辆存在机械故障,亦未提供证据证明被告销售涉案车辆时存在虚假宣传、隐瞒事实的情形,从而对刘某的选择权和真实意思产生直接影响。因此,法院驳回了刘某所有的诉讼请求。

 

3. 蔚来汽车自动驾驶致死案

 

(1)基本案情

2021年8月12日,中国企业家林文钦在驾驶蔚来ES8汽车启用自动驾驶功能后,在沈海高速涵江段发生了交通事故,不幸逝世,终年31岁。根据报道,林文钦所驾驶的蔚来ES8汽车在启用了NOP领航辅助功能后发生了事故。

 

(2)争议焦点

事故发生后,林文钦的家属委托律师表示,蔚来技术人员未经交警同意,私自接触涉案车辆进行了相关操作,但蔚来方面否认了这一说法,并表示公司没有删改任何数据的行为,也没有员工被警方传唤。蔚来品牌部人士称,NOP领航辅助并不是自动驾驶,而是一种自动驾驶辅助功能,且在使用时驾驶员需时刻关注交通状况及道路环境。

 

说明:考虑到通常表述和翻译习惯,本文引述我国和日本法律案例时,使用“著作权”;引述英美、欧盟法律和案例时使用“版权”。

 

参考资料

 

[1] 市场监管总局(标准委)《汽车驾驶自动化分级》(GB/T 40429-2021) 

[2] The UK Department for Transport, “Distribution of contributing factors leading to road accidents in Great Britain in 2020”, 2021.

[3] 谭九生,胡健雄,“自动驾驶的安全风险及其治理”。

[4] Nirajan Shiwakoti, Peter Stasinopoulos, Francesco Fedele, “Investigating the state of connected and autonomous vehicles: a literature Review”, Transportation Research Procedia, Volume 48, 2020.

[5] 刘明霄,“自动驾驶来了,法律该怎样应对”,检察日报,2021。

[6] 陈静,“人工智能体视域下的法益侵害及归责路径——以无人驾驶技术应用为例”,2024。

[7] 郑振瑶,“L3级自动驾驶汽车侵权责任法律风险及规制研究”,2024。

[8] 郑戈,“电车难题与自动驾驶系统算法设计中的伦理考量”,2024。

 

RECOMMEND
相关推荐