兰迪研究 兰迪研究
LANDING RESEARCH
兰迪研究
首页 兰迪研究 专业文章 文章详情
兰迪研究 | 多视角透析——人工智能伦理、安全、治理风险的法律规范(三)

一、引言

 

在人工智能时代,AI技术的广泛应用和迅速发展为众多行业带来了革命性的变化,催生了多个领域的快速进步与创新,机器人领域也不例外。在AI技术的支撑下,机器人系统不仅在智能化水平上取得了质的飞跃,而且在与人类的互动、解决复杂问题以及在极端或危险环境应用等方面也展现出了前所未有的能力。在当今时代,人工智能机器人(AI-Robotics)引起了前所未有的广泛关注。

 

人工智能机器人通过结合机器人技术和AI算法,来完成通常需要人类才能完成的复杂任务。AI技术让机器人能感知和理解周遭环境,通过数据处理和分析,让机器人具备识别对象、理解人类语言和非语言信号的能力,并能够对环境变化做出响应。此外,AI还赋予机器人自主决策的能力。通过机器学习和深度学习,机器人能从经验中学习,优化其决策过程。以人工智能为基础的机器人,不仅能按预设规则执行任务,还能根据实时数据及以往学习成果做出更为复杂且适应性更强的决策。最后,AI还提升了机器人与人类的交互与协作能力,通过自然语言处理(NLP)和语音识别技术,机器人可理解人类指令并及时反应。

 

当今时代的人工智能机器人系统正在悄然改变着世界。在制造业中,人工智能可以使机器臂识别不同零件、检测次品并自动执行装配或焊接等任务。而医疗人工智能机器人则可以辅助医护人员执行对手术的操作,具有精准度小、安全性高、不会生理疲劳的特点,能够在显著性提高手术成功率的同时,将对患者的损害缩减至最小。此外,服务领域的清洁机器人利用AI来进行空间导航、障碍物识别和最优路径规划,以高效完成清洁任务。最后,在国防和军事行动中,以无人机为代表的人工智能机器人也用来提高战略能力,减少人员风险。

 

然而,人工智能机器人的不断发展也带来了伦理、治理及安全上的挑战,如机器人容易遭受欺骗、存在潜在的被攻击风险、数据泄露等。为此,本文将梳理分析人工智能机器人可能面临的伦理、治理以及安全的风险,并归纳相关法律法规,旨在对AI机器人的未来发展提供见解。

 

二、人工智能机器人的伦理、治理、安全风险

 

1.安全风险

 

机器人系统的安全性一直是一个热门话题。在实践中,AI机器人可能会受到来自多个方面的安全攻击,包括利用底层人工智能技术漏洞的攻击等。这些攻击可能削弱系统的功能性、安全性及其可靠性,引发数据泄露,进而威胁到人身安全和财产安全。此外,物理安全风险也是AI机器人系统必须面对的重要问题。机器故障和设计缺陷可能导致AI机器人意外伤人或损坏其他物品。比如在制造业中,大型AI机器人的突然故障或程序错误可能导致与人工操作者的危险接触,造成严重伤害或死亡事故。例如,2015年在密歇根州的一家汽车零部件制造工厂中,一名工人因为机器人的操作失误而丧生。随后在2016年,一名合同工在大众汽车工厂安装机器人时被机器人抓住并压在金属板下,就此丧生。事后的调查指出此事故因机器人的操作程序错误而发生。

 

2.伦理风险

 

随着人工智能机器人系统认知能力的提升,机器人与人类之间的直接认知交互不仅成为现实,这同时也催生了关于机器人伦理的重要讨论。这一领域关注机器人对人类行为、情感的影响,也关注智能机器人领域可能存在的道德问题及隐私保护问题。 

 

机器人伦理这个概念首先由 Gianmarco Verrugio[ . G. Veruggio, "The birth of Roboethics", Proc. IEEE Int. Conf. Robot. Autom. (ICRA), pp. 1-4, Apr. 2005.]创造,旨在探讨机器人技术所产生的道德结果与后果,尤其是在智能与自主机器人被应用于社会场景的情况下。这个概念的应用有着多方现实意义,比如对于医疗机器人而言,由于这些机器人具备收集、记忆和分析患者个人隐私信息的能力,其使用过程中能够收集、记录和分析患者的个人隐私信息,尤其是涉及手术内容、生理和心理健康、病情康复等情况。一旦这些数据在患者不知情的情况下泄露,可能会影响个人正常的工作和生活,如造成求职过程中的偏见和社会生活中的歧视等。

 

对于家居机器人来说,数据泄露风险则会危及到每一个公民的日常生活。比如,为了有效地导航和清洁,清洁机器人需要收集家庭的布局数据,包括房间的大小、形状以及家具的位置等信息。这意味着它会生成家庭的详细地图,并可能将这些数据发送到开发商的服务器进行处理,导致被开发商违法利用的潜在风险。同时,清洁机器人也面临着被黑客潜在攻击的可能性,从而泄露房屋数据和家庭隐私。

 

 同样,辅助机器人的普及,如用于帮助残疾人或老年人的康复机器人、机器人轮椅、助行器等,也面临着同样的伦理问题。包括用户对机器人的依赖程度、在发生事故或故障时的责任归属、以及如何平衡机器人陪伴的好处与过度依赖机器所带来的潜在风险。更具体的,这引发了下述一系列更加具体的问题,如用户应在多大程度上控制辅助机器人的行为和决策?如果辅助机器人操作失误导致事故,责任应如何划分?我们如何在享受机器人陪伴的益处和避免对机器形成情感依赖之间找到平衡点?

 

3.治理风险

 

现有的智能机器人也在不同面向上对现有的法律治理提出了挑战,特别是在医疗、创作和社交媒体领域中。以医疗机器人为例,虽然当前医疗人工智能在诊疗领域的应用上表现出惊人的精准度和效率,但当患者因机器人操作出现问题而受到伤害时,此时一系列复杂的法律问题就会出现。首先,围绕着智能医疗机器人责任归属的界定模糊。在出现伤害事件时,究竟应追究医疗人员的责任,还是应基于产品缺陷追究制造商的责任?二者之间如何进行责任划分?其次,考虑到智能机器人可能涉及到AI算法,在涉及到智能机器人侵权时,作为被害人的患者是否有足够的专业知识证明产品缺陷以及对可能存在的过错提供相应的证明?

 

这一问题也同样对聊天机器人提出考验。随着人工智能大模型技术的出现,聊天机器人也得到了迅速的发展,它们不仅能与用户进行高度自然的交流,还能创作出文章、诗歌、图像等作品。然而,这种生成的作品也引发了知识产权领域的广泛争议,特别是关于聊天机器人生成作品的版权归属和保护范围的问题。比如,机器人生成的作品是否受到著作权法的保护?如果受到保护的话,著作权归属应当属于创作者还是生产机器人的产品商?更根本的,聊天机器人在生成回答时利用的大模型技术本身就需要对数据进行挖掘计算,这种数据利用也会造成侵权。比如《纽约时报》曾对ChatGPT的开发商OpenAI提出诉讼,诉讼事由为对方未经许可使用其数据。

 

三、应对措施

 

对于这些风险,各个国家都采取了一定的法律法规来进行规制。其中,韩国、欧盟以及俄罗斯的相关法规较为系统,凸显了该国对于人工智能机器人的基本态度和原则,具有一定的代表性。本文将着重分析:

 

 

1.欧盟

 

欧洲议会在2017年2月16日通过了一项关于《欧洲机器人技术民事法律规则》(European Civil Law Rules in Robotics)的建议,其主要由制订背景、规则内容设计和规则配套附件三部分组成,其主要是为了规制伦理失衡、数据与隐私侵害、问责困难等问题。

 

在治理角度,《欧洲机器人技术民事法律规则》建议对传统的责任规则进行新的尝试,建议依托机器人“自主性”的概念来建立新的归责原则。此概念被界定为“在外部世界做出独立于外在控制或影响的决定并实施这些决定的能力。这一自主性具有纯技术本质,且其自主性程度取决于机器人被设计成的可与其环境进行交互的复杂程度。”在此基础上,《规则》建议在机器人“自主性”程度不高的情况下,应当确立智能机器人的辅助地位,机器人的制造者/操作者/所有者和使用者应当承担法律责任。但是对于“自主性”较高的机器人,传统规则不足以确定机器人之造成损害的法律责任,因此需要能适用于技术发展的新的规则。

 

同时,《规则》也建议欧盟内部市场应当引入综合的先进机器人注册系统,以此来为不同机器人进行种类划分,进一步对于不同种类的机器人进行标准的制订。在此基础上,欧洲议会也通过《规则》呼吁委员会考虑选定一个欧洲机器人技术和人工智能实体机构,通过提供必要的技术、伦理和监管专门知识来支持欧盟和成员国两级的相关公共行为者,努力确保及时、合乎伦理且知情地应对机器人技术发展带来的新机遇和挑战。

 

在伦理角度,《欧洲机器人技术民事法律规则》强调机器人技术的发展应当着眼于补足人的能力,而不是取代人的能力。同时,其规定在机器人技术和人工智能的发展中,必须保证人类始终控制机器人,还应当特别关注人类和机器人之间情感联系的可能发展。在宏观层面上,《规则》认为使用机器人技术应当从人类安全、健康和保障的角度认真进行评估,维持自由、隐私、正直和尊严等共有价值。在落地层面,《规则》规定机器人在开发的各个环节都应该首先制订明确、严格和有效的伦理指导框架,并且这些框架应当以有益、非恶、自主和公正原则为基础,建立在欧盟法的其他基本原则和价值观之上(透明、自治、个人责任和社会责任)。最后,《规则》还制订了《机器人技术工程师伦理行为准则》与《研究伦理委员会准则》作为附件,以供后续形成伦理框架。

 

在安全角度,《欧洲机器人技术民事法律规则》呼吁通过公共资金来保持机器人技术和人工智能研究的领导者地位,并且鼓励委员会和会员国对机器人和人工智能技术可能存在的长期风险和机遇开展研究,尽快组织公众对话。同时,欧洲议会也呼吁应当专门致力于机器人技术标准制定的专业技术委员会,如ISO/TC299机器人技术委员会,应当给予肯定。

 

2.韩国

 

韩国在工业机器人化密度方面还在近代一直被认为是世界领先者。国家在宏观政策上偏好促进发展机器人。2008年3月28日,韩国通过了第9014号关于促进智能机器人开发和流通的法律(《智能机器人开发和普及促进法》)。该监管法律法案是世界上第一批此类级别的专门文件之一,既包含机器人监管的要素,也包含该行业发展的国家战略的基础。

 

在治理和安全端,《智能机器人开发和普及促进法》(INTELLIGENT ROBOTS DEVELOPMENT AND DISTRIBUTION PROMOTION ACT)规定了智能机器人在流通前应当进行的认证标志,并规定了一系列的配套措施如公式制度、监督机制以及取消认证机制等来保障其顺利实施。进一步地,通过认证标志来规制机器人的生产或者促销活动。同时,政府规定了对智能机器人认证的补助措施,以及向弱势群体(老人和残疾人等)普及智能机器人及免费使用机器人的态度原则。 此外,政府将该项法律链接到国内的其他实体法如《保险法》《仲裁法》等,并且对智能机器人投资企业做了资格规定以及处罚措施,从而确保有关投融资活动安全进行。

 

在伦理角度,该法律的附件《智能机器人伦理宪章》(MAKING OF SOUTH KOREAN ROBOT ETHICS CHARTER)对相关伦理规则做出了详细规定,其主要说明AI机器人应当从“保护人类尊严”“追求公共利益”以及“追求幸福”三大基本价值观出发,并且应当遵循“透明性”“可控性”“责任”“安全”“信息安全”等五大实践原则。值得注意的是,《宪章》还对各个阶段的使用者,比如“制造商”“服务提供者”以及“用户”做出了更加细致的定义与要求。

 

3.俄罗斯

 

俄罗斯学者起草的作为俄罗斯第一部机器人法草案的“格里申法案”(“3aK〇H flMUTpufl「pu山UHa”),提出了机器人在不同法律关系中和发展阶段的定位。

 

从治理和安全角度上来看,“格里申法案” 的基本理念是将智能机器人规制成与动物具有特定相似性的财产,即“机器人可以像动物一样完成自主行为,能做人类需要运用智能才能去做的事情”,通过此种对“机器人”的权利态度,将其纳入到民法体系的规制下。

 

在具体条文上,其将“机器人-代理人”的概念纳入到民事主体部分中来,在自然人、法人和特殊民事主体之后,突破性的增加9个条款来规制机器人。同时在民事权利客体部分,在第137条“动物”增加“机器人”这一条款。而在最终的民事责任部分,将机器人置于“高度危险来源致人损害”的条款下,从而确定了在机器人造成损害后的责任归属问题。

同时,对于“机器人-代理人”这个概念,“格里申”法案中也做了详细的规定。机器人要像先被视为“机器人-代理人”来取得权利能力,应该首先在国家机器人登记薄中登记,同时要公开声明机器人开始以“机器人-代理人”的身份进行运作。

 

4.总结

 

三个国家的法案从三个不同的层级对智能机器人提出了规制,展现出了不同的立法理念。欧盟的《欧洲机器人技术民事法律规则》对于机器人较为宏观,强调了应当对智能机器人的“自主性”进行判别,通过此项特征对机器人进行分类规制,并且呼吁推进相关标准的制订。在伦理层面,其提出应该把机器人视作辅助,同时始终确保机器人应该处于被人类控制之下。韩国的《智能机器人开发和普及促进法》则通过对机器人进行标准认证,来确保治理的有效。俄罗斯的“格里申”法案则是通过将机器人与动物进行权利类比,确定其权利主体地位和民事责任,并通过配套行政手段对机器人进行登记。

 

四、相关案例

 

1.FDA数据揭示达芬奇手术机器人相关的医疗事故风险

 

PLOS One发表的一项研究引起了人们注意。该研究通过分析美国食品和药物管理局(FDA)2000年至2013年的数据,揭示了与达芬奇手术系统相关的风险和并发症。该研究识别出10,624起不良事件,包括1,391起患者受伤和144起死亡。报告中还有超过8,061例设备故障,占不良事件的大部分。这项研究还对不同手术专业中报告的不良事件及其对患者(伤害或死亡)和手术进程(程序转换或重新安排)的影响进行了分类讨论。

 

另一份报道,来自Drugwatch.com,详细讨论了达芬奇手术系统使用中的风险。在2000年至2013年间,通过FDA的研究发现共有144人死亡、1,391人受伤以及8,061个设备故障。报道指出,在14.7%的报告案例中,烧毁或断裂的器械碎片掉入患者体内;另有10.5%的案例涉及器械的电弧放电,以及8.6%涉及器械的意外操作。系统错误和视频/成像问题在报告中分别占5%和2.6%。

 

这些数据强调了在采用达芬奇手术系统时面临的技术难题和并发症,尽管这些系统被广泛用于在美国进行微创手术,但仍有一定数量的技术困难和并发症出现。研究建议,采用先进的设计和操作技术,以及加强不良事件报告机制,可能有助于减少这些可预防的事件。

 

2.纽约时报控诉OpenAI和微软侵犯版权

 

纽约时报(The New York Times)已对OpenAI和微软提起诉讼,指控这两家公司未经许可使用了数以百万计的报纸文章来帮助训练聊天机器人,以向读者提供信息。纽约时报声称,这是第一家因其作品的版权问题而起诉聊天机器人GPT的创造者OpenAI以及微软的主要美国媒体组织。纽约时报在曼哈顿联邦法院提交的诉状中指控OpenAI和微软“试图免费搭便车,利用《时报》在其新闻业务上的巨大投资”,并使用其内容来创建替代性的信息传递产品,从而“窃取”其受众。纽约时报没有寻求特定数额的赔偿,但估计损害在“数十亿美元”范围内,并要求OpenAI和微软销毁包含其材料的聊天机器人模型和训练集。

 

OpenAI在回应诉讼时表示对此感到“惊讶和失望”,因为它正在与纽约时报就这一问题进行“富有成效且积极向前的”谈判。OpenAI表示,希望找到一种对双方都有利的合作方式,正如它正在与许多其他出版商所做的那样。

 

此案件凸显了出版商、音乐家和艺术家越来越多地寻求法律手段,以便于对使用其作品内容而构建的来聊天机器人进行索赔。与选择与OpenAI签订内容协议的其他媒体集团(如德国的Axel Springer或美联社)相比,纽约时报选择了更具对抗性的应对方式。

 

3.家中隐私被Roomba扫地机器人捕捉并用于数据训练

 

iRobot公司开发的Roomba J7系列扫地机器人被发现能够捕捉家庭内的私密场景,并将所收集的图像数据用于人工智能训练目的。此事件首次由《麻省理工科技评论》在其详尽的调查报道中揭露。该报道披露了这些私密图像被发送至Scale AI——一家专业从事人工智能数据标注的公司。

 

Scale AI利用其众包平台Remotasks,以较低的成本让其他国家的远程工人处理收集标注数据。值得注意的是,这些图像中的个人信息,在未经处理的原始数据中是清晰可见的,尽管后续为保护隐私被进行了模糊处理。

 

iRobot作为全球最大的扫地机器人供应商,确认这些图像确实由其设备在2020年拍摄。然而,公司声明,这些图像来源于经过特别硬件与软件修改的开发型机器人,并强调这些机器人未来不会用于消费者产品。尽管如此,iRobot也承认已经向Scale AI共享了超过200万张图片,以及向其他数据标注平台共享了未具体说明数量的图像。

 

此事件凸显了在智能设备广泛渗透到日常生活的背景下,隐私和数据伦理问题的严峻性。尽管iRobot及相关公司声称采取了加密、安全漏洞定期修补、限制及监控内部员工访问信息等措施来保护用户隐私,但数据的收集、使用和共享方式仍旧引起了广泛的社会关注与讨论。

 

该案例对人工智能领域的研究与实践提出了重要的伦理挑战,特别是关于用户同意、数据透明度以及隐私保护的问题。随着计算机视觉和机器学习技术的快速发展,相关企业、监管机构应当共同努力,制定更为严格的隐私保护措施和数据伦理准则,确保技术进步不以牺牲个人隐私为代价。

 

4.亚马逊Alexa误发送私人对话引发公众担忧

 

在俄勒冈州波特兰,一位名为Danielle的女士经历了一次令人不安的隐私侵犯事件,涉及她家中的亚马逊Echo智能音箱。两周前的某个晚上,Danielle接到了她丈夫同事的电话,告诉她赶紧关闭家里的亚马逊音箱Echo。这位同事解释说,他收到了一封包含Danielle及其丈夫对话录音的语音邮件。最初,Danielle认为这是一场恶作剧,直到这位同事提及对话内容涉及木地板,她才意识到事态的严重性。

 

随即,Danielle断电了家中四台Echo设备,并联系了亚马逊客服寻求解释。亚马逊迅速响应,调查了相关设备的日志文件,并向Danielle确认设备确实出现了故障,但未提供具体原因。尽管客服代表在30分钟的通话中多次表示歉意,Danielle对于没有得到一个明确解释感到不满。

 

随着事件被当地电视台KIRO 7报道,亚马逊面临了巨大的舆论压力,并提供了进一步的解释。亚马逊声称,这次隐私泄露是因为语音助手Alexa被误唤醒并错误地将用户的对话解释为指令所致。亚马逊强调,他们非常重视用户隐私,并正在努力降低错误识别率,减少此类事件的再次发生。

 

此事件引发了广泛的社会讨论,许多人分享了类似的经历,表达了对智能音箱隐私保护能力的担忧。亚马逊的工程师也参与了讨论,尽管他们努力解释事件的技术层面,但仍有用户将此事与更广泛的隐私监控问题联系起来。

 

此外,亚马逊曾申请的一个专利显示,他们有能力让设备持续监听用户对话,引发了对和隐私影响的进一步担忧。尽管智能语音助手已成为许多家庭的一部分,但这次Danielle的案例成为了一个警示,让众多用户重新考虑他们对智能设备的信任程度。

RECOMMEND
相关推荐