一、引言
人工智能技术的迅猛进展及广泛应用带来了前所未有的技术成就,但同时也引起了道德、社会及技术本身可靠性等方面的诸多问题和风险。世界各国对这些挑战的反应和策略各不相同。
通过分析全球84份相关政策文件的用词频率,目前世界各国对人工智能的管理原则已趋于一致,主要聚焦于五个领域:透明性与安全性、平等性、可追责、个人隐私保护。尽管不同国家因为各自的文化背景不同,对这些原则的诠释和应用有所区别。但从行业整体的角度来看,这些共识的目标都是围绕建立一个获得多方认可的可信赖人工智能。
因此,本文将通过探讨不同国家对于可信赖人工智能的规划,从原则的角度进行可信赖人工智能伦理探讨,同时从规则的角度分析人工智能风险的治理。
二、可信赖人工智能概述
1. 可信赖人工智能定义
根据欧盟《可信赖人工智能评估列表》(Assessment List for Trustworthy Al)[1]的定义,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”;其次,它应该在技术上强健且可靠。因为即使有良好的意图,人类如果缺乏对技术的掌握也会造成无意的伤害。
也就是,一个可信赖的、理想的人工智能不仅在主观上是善意的,而且要保证在面临极端情况(如攻击)下,仍然保持技术的稳定性和安全性,不能成为伤人的利刃。
关于可信赖人工智能,国际上以法规形式阐述的并不多,主要是欧盟和中国在致力于构建可信赖人工智能框架,包括的法案有欧盟2020年发布的《可信赖人工智能评估列表》、中国2022年发布的《可信人工智能白皮书》[2]以及中国通信院发布的《“可信AI”评估体系产品手册(2023年6月版)》。
2.可信赖人工智能中欧对比
(1)欧盟
1)可信赖人工智能要素
在欧盟的《可信赖人工智能评估列表》中,要求正在开发、部署、采购或使用的人工智能系统符合人类代理与监督(human agency and oversight)、技术鲁棒性及安全性(technical robustness and safety)、隐私与数据治理(privacy and data governance)、透明度(transparency)、多样性(diversity)、非歧视和公平性(non-discrimination and fairness)、社会和环境福祉(environmental and societal well-being)、责任(accountability)七项基本要求。
这份清单也表现出了灵活性,人工智能开发者可以从中抽取与其人工智能系统无关的元素,也可以根据他们所处的行业添加适合的元素。它帮助人工智能开发者了解什么是可信赖人工智能,特别是人工智能可能产生哪些风险,以及如何在最大化人工智能利益的同时最小化这些风险。
2)可信赖人工智能框架
在《可信赖人工智能评估列表》的要求1,人类代理与监督中,法案通过询问人工智能开发者相关问题,例如人工智能是否被设计为与人类最终用户进行交互、引导或做出影响人类或社会的决策。在这项要求中探讨了人工智能对人类情感、信任和独立性的影响。
在《可信赖人工智能评估列表》的要求2,技术稳健性和安全性中,规定了人工智能必须在数据中毒、系统受损等模拟情境下,仍然保持安全性和稳健性。此外,还强调了在人工智能开发时采用风险预防的方法,使其行为可靠且符合预期。同时要求尽可能减少无意间或偶然损害。
在3-7项中都列出了许多标准,要求人工智能系统开发者满足。
最后,《可信赖人工智能评估列表》规定了事后问责措施,当人工智能系统出现问题,应该具备可靠的责任追究机制,确保问题能够被及时进行纠正。
(2)中国
1)可信赖人工智能要素
中国在2022年发布的《可信人工智能白皮书》中总结提出了五项可信赖特征要素,主要包括可靠可控、透明可释、数据保护、明确责任、多元包容,用以指引实践中的可信赖人工智能。
2)可信赖人工智能框架
可信赖人工智能已成为研究领域的热点,其中主要包括了提升人工智能稳定性、可解释性、隐私保护、公平性等。
其中人工智能稳定性技术主要是指人工智能面临着特有的干扰时的反应能力,这些干扰主要来自于针对数据和系统的多种攻击。为抵御这些攻击,一些专家提出多种异常数据检测方法来检出并清除恶意数据,从而增进人工智能的稳定性。
人工智能隐私保护技术关注如何在人工智能依赖于大量数据的背景下,保护敏感隐私信息不被泄露。鉴于数据流转过程及人工智能模型本身可能导致隐私泄露,学界已经提出了众多保护措施,以确保数据的安全与隐私。
人工智能公平性技术致力于解决人工智能在广泛应用中可能出现的不公平决策和对某些群体的歧视问题。为了提高决策的公平性,研究者们通过构建包含多样性的异构数据集来尽量减少歧视和偏见,并定期对数据进行检查,确保其质量,以此保障决策的公正性。
人工智能可解释性增强技术旨在解开以深度学习为核心的人工智能系统的“黑箱”运作模式,使人们能够理解数据输入与输出之间的内部工作原理和决策依据。尽管当前对于人工智能算法的可解释性研究还处于初级阶段,且部分算法的理论框架需要进一步完善,但该方向的探索对于增强人工智能的透明度和可信度至关重要。
3. 对比总结
可以看到,中欧对于“可信赖人工智能”的要素要求是有所侧重的。在欧盟的要素要求中,“可信赖人工智能”主要需要满足价值观上的需求,以人本身的价值为出发点。而我国的要素要求更多地集中在人工智能产品本身的性质上,要求产品达到一个可被信任可被理解的标准。
而在框架设计方面,中欧都尽可能地将人工智能把握在人类的控制之下以防止科技“双刃剑”的出现。以可信赖人工智能的生命周期为线索,在设计阶段:可信赖的人工智能首先要解决不可解释性和“幻觉”问题,让人类清楚生成式人工智能工作机制并且要保证在极端情况下的安全稳定性,在使用阶段:必须尽可能避免人工智能输出歧视性偏见性内容,最后如果出现事故,则必须保证追责性,明确设计者、提供者以及使用者等等各方的责任。
三、可信赖人工智能伦理——使用原则引导
尽管中国和欧盟都对“可信赖人工智能”描绘了理想中的图景,但是在实践中人工智能仍然显现出了许多问题,给人类社会造成了负面影响;这显然需要伦理对人工智能等新科技进行引导。
尽管中国和欧盟都设计了“可信人工智能”的框架,但是在实践应用中人工智能技术仍然显现出了许多问题,给人类社会造成了负面影响。
为了应对这些负面影响,各国人工智能相关立法遵循着“真”与“善”的原则。其中原则是伦理的基础,为我们的行为提供指导;伦理规范则是原则在具体情境中的具体体现。
通过遵循原则和伦理规范,我们可以确保我们的行为符合“智能向善”的要求。
1. 前景提要——各国关于人工智能伦理立法梳理
在过往文章《多视角透析——人工智能伦理、安全、治理风险的法律规范》[3]中,笔者对全球不同国家对于人工智能的法律规范进行了梳理。
(1)欧洲
欧盟采取了先锋立场,其首个《人工智能法案》强调保护个人自由与社会价值,并要求人工智能系统符合《欧洲联盟基本权利宪章》中确立的价值观,认为利用人的社会行为或人格特征进行社会评分的人工智能系统是不可接受的。
英国在其《理解人工智能的伦理和安全》中提出SUM价值观(支持、加强和激励),建立了一套融合生物伦理和人权话语的人工智能技术道德词汇体系。
同时,英国的《自动决策系统的伦理、透明度与责任框架》(ETAF)规定企业必须对算法或自动决策系统实施平等影响评估,以识别并消除使用的数据中可能存在的明显偏见和歧视。
(2)中国
在中国,根据国务院2022年3月印发的《关于加强科技伦理治理的意见》确立了五大原则:促进人类福祉、尊重生命权利、维护公平正义、控制风险以及保持透明度。
(3)美国
在美国,《2022年算法问责法案》要求企业对其系统对消费者产生的影响进行深入研究和公开报告,尤其关注是否存在基于种族、性别、年龄等个人信息产生的偏见或歧视性自动决策。
拜登总统颁布的行政命令旨在通过联邦政府进一步推动种族平等,并支持服务不足的社区,其中明确指出大型模型应避免因训练数据中的歧视信息而导致输出结果存在偏见。
2.可信赖人工智能伦理的出发点、特点和必要性
(1)可信赖人工智能伦理的出发点
通过观察各国立法倾向可以看出,可信赖人工智能伦理主要关注人工智能技术的“真”与“善”,同时也强调给技术发展留下广阔的空间。其伦理主要有如下两个出发点:一是在价值目标上保障人类的生命权、公平权和隐私权等;二是在行为目标上保障人工智能产品的安全可控、透明可追责等等。
(2)可信赖人工智能伦理有如下三个特点
首先,人工智能伦理映射了人类对道德和哲学的深度思考,展现了其全面性。这不仅涉及到对人的本质、人格以及人类情感等伦理学基本问题的探讨,还包括对人工智能应用是否遵循现代社会道德标准的反思。其次,人工智能伦理具有明显的历史维度,从1940年首次提出的“机器人三原则",到当下社会对于人工智能大模型的广泛讨论,关于人机关系及未来科技伦理的讨论不断加深。最后,人工智能伦理还表现出显著的地域性特征,不同国家基于各自的历史和地理背景形成了独特的伦理观念,这些观念在人工智能的治理中有着深刻的体现。尽管如此,"智能向善"和“以人为本”的伦理理念已经成为全球共识。
(3)可信赖人工智能伦理的必要性
随着人工智能技术的不断发展,诞生了新的主体,即“人工智能体”。这引发了一系列挑战。第一,是人类的主体性受到了考验,当人工智能可以代替人类做出决策,人工智能的脑力劳动代替了人类思考,此时人类的自主性可能需要重新定义。第二,人类的自我价值受到冲击,当人工智能体可以代替人类完成富有创造性、学习能力的任务时,人类的自我价值将会受到冲击,甚至引发社会结构性失业,引起动荡。第三,人类与机器的关系将会变得复杂化,一方面,是人工智能工作机制本身具有的不可解释性,另一方面,随着具身智能和自动驾驶等技术的出现,人工智能能否成为社会主体或者法律意义上的主体,越来越受到大家的关注。
3. 总结概述
通过对比几个国家的可信赖人工智能伦理,可以看到每个国家采用不同的伦理立场引导着可信赖人工智能,欧洲国家经历过两次世界大战、奥斯维辛等历史事件,对于人类权益的保护相对敏感,在可信赖人工智能构建上也往往从价值目标出发。而美国由于是多种族国家,民族构成复杂,因此在可信赖人工智能的引导上更偏向防止偏见和歧视的形成。而我国本着以人民为中心的出发点,要求可信赖人工智能首先要增进人民福祉。
同时案例表明,不可信赖的人工智能系统不仅仅会侵犯人类隐私权、名誉权等等价值,从长远来看,更有可能导致结构性失业和社会动荡等一系列问题。因此,可信赖人工智能的伦理治理已经迫在眉睫。
四、可信赖人工智能风险——使用规则规制
尽管人们对于可信赖人工智能提出了包括透明性和公平性在内的众多伦理原则要求,但在实际应用中,原则性规定的伦理无法对实际中的人工智能风险进行实际有效的规制,因此我们需要具体规则对人工智能风险进行规制。风险治理的具体规则是可信赖人工智能伦理在具体情境中的具体体现,为我们提供了明确的伦理指导。通过遵循风险治理的具体规则,我们可以确保我们的行为符合伦理要求。
1. 风险分类
(1)中国对人工智能风险的分类
在《人工智能伦理治理标准化指南》(2023版)[4],根据人工智能生成过程,将人工智能风险分为了数据采集阶段风险、算法阶段风险、决策阶段风险和由于人为因素造成的风险。
在数据采集阶段,由于数据集的代表性差、不清晰、不均衡等问题,容易导致数据集的公平性受到影响,从而影响算法公平性;数据标注过程的泄露等数据预处理安全问题也会导致个人信息保护的问题;缺乏对数据层面的可追溯技术也会增加人工智能在责任认定以及问责方面的风险。
在人工智能算法层面,主要存在以下3种形式的问题:算法安全风险;因采用复杂神经网络的算法导致决策不透明与无法被充分解释,同时数据的输入和输出关系理解不清晰,可能造成的可解释性安全风险;以及因算法推理结果的不可预见性与人类自身的认知能力受限,导致无法预测智能系统做出的决策原因与产生的效果,造成的算法决策偏见。
此外,算法在运行推理环节可能会被错误使用或滥用,如智能推荐算法一旦被不法分子利用,将使虚假信息、涉黄涉恐、违规言论等不良信息传播更加具有针对性和隐蔽性,在扩大负面影响的同时减少被举报的可能。
在决策阶段,由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统固有的不透明性、低可解释性等特征,再加上系统漏洞、设计缺陷等风险,可能引发许多社会问题。
由于人为阶段,风险主要体现为人为造成的算法歧视,主要分为两种:一种是由算法设计者造成的算法歧视,另一种是由用户造成的算法歧视。
(2)欧盟《人工智能法案》对风险的分类
欧盟《人工智能法案》规定了一份被禁止的人工智能清单。禁止清单包括所有被认为违反欧盟以及《欧洲联盟基本权利宪章》价值观(如侵犯基本权利)而不可接受的人工智能。其中禁止的行为包括:
1) 有很大可能通过潜意识技术超越人的意识来操纵人;
2) 利用特定弱势群体(如儿童或残疾人)的弱点来实质性地扭曲他们的行为,从而可能对他们或他人造成心理或身体伤害的行为;
3) 公共机构出于一般目的而进行的基于人工智能的社交评分;
4) 为执法目的在公共场所使用 "实时 "远程生物识别系统,除非某些有限的例外情况适用。
2. 风险治理具体规则
(1)欧盟——总体分级+高风险严格规制
欧盟《人工智能法案》将人工智能的使用风险区分为:
1) 造成不可接受的风险;
2) 高风险;
3) 低风险或最小风险。
针对自然人的健康和安全或基本权利造成高风险的人工智能被系统规定了具体规制规则,根据该规则,高风险的人工智能系统可以在欧洲市场上销售,但必须符合强制性要求和事先评估。
将人工智能系统划分为高风险的依据是人工智能系统的预期用途是否符合现行的产品安全法规。因此,高风险分类不仅取决于人工智能系统的功能,还取决于该系统的具体用途和使用方式。
在《法案》中,针对高风险人工智能产品制定了全周期规制流程,包括了投入市场前的数据备案、递交政府报告、日志记录到自然人监督;还包括了到上市后的监测计划和事故报告制度;以及各方主体(如供应商、经销商和使用者)的义务和责任。
(2)中国——原则性规定+应用场景及风险等级管理
根据2023年国务院发布的《生成式人工智能服务管理暂行办法》指出,将会根据生成式人工智能应用的服务场景,对应用中可能出现的风险及影响从高到低进行排序,再根据不同风险等级划定不同的监管方式。
虽然我国暂时未根据人工智能应用场景进行风险等级划分,但是也进行了原则性的风险规避方法。一是,不得生成法律法规明确禁止的内容;二是,不得生成歧视性内容;三是,不得侵犯他人知识产权;四是,不得侵犯他人其他合法权益。
(3)前沿专家解读
在过往文章《多视角透析——人工智能伦理、安全、治理风险的法律规范》中,已经展示了各国立法对于人工智能风险治理的态度。此外,还有专家对此发表了解读:
在2023年12月9日下午,清华大学与香港科技大学联合主办的2023人工智能合作与治理国际论坛的专题论坛“前沿大模型风险研判与治理”[5]会上,各位人工智能领域的专家各抒己见,表达了自己的看法。
张钹院士在演讲中提到,以GPT为代表的大型人工智能模型展现出惊人的能力,这种“涌现”现象带来了前所未有的技术进步。然而,这也伴随着一些挑战,包括产生“幻觉”、鲁棒性不足以及缺乏自我认知等问题。因此,人工智能的治理已经成为我们不得不直面的重要议题。
周伯文认为人工智能的隐私、偏见和认知方面存在多重风险与隐患。他尤其强调应针对被视为现代人工智能的基础设施的基础模型展开全生命周期治理。此外,他着重阐释了科学家在此之中扮演的关键角色。一是科学家在各利益相关者之间扮演协调与平衡者的角色,二是科学家需积极参与从数据到模型再到应用等各个环节的治理进程。
吉米·巴(Jimmy Ba)认为一方面应提高普通民众的数字能力,利用人工智能拓展他们的专业知识。让人工智能技术赋能生产生活的同时,也可以帮助挖掘仍需改进的技术痛点。另一方面则是需要发挥专家在识别人工智能复杂问题方面的专业素养与洞察能力。
同时,在2023年7月10日,美国战略与国际研究中心发布其瓦德瓦尼人工智能与先进技术中心高级研究员Michael Frank撰写的评论文章《在不削弱创新的前提下管理人工智能带来的生存风险》[6]中指出欧盟的《人工智能法案(AI Act)》是一个全面的法案,但是通过跨部门立法对风险进行分类,对于解决生存风险或人工智能灾难几乎无济于事,也限制了利用人工智能带来的益处的能力。
同时,作者提出并阐释了四项监管设计原则,第一项原则是防止为老牌公司建立反竞争的监管护城河,创业精神仍应是创新的核心;第二项原则是重点解决现有法律中的明显漏洞,以缓解人们对人工智能带来的生存风险的担忧;第三项,从解决最严重的危害入手,并在必要时调整方法,这将有助于防止过度监管;第四项原则是推进特定行业监管的“速赢”。
2023年2月21日,布鲁金斯学会(Brookings Institution)发表其技术创新中心治理研究研究员Alex Engler撰写的文章《关于规范类似ChatGPT等生成式人工智能的早期思考(Early thought on regulating generative AI like ChatGPT)》[7]。作者首先介绍了生成式人工智能模型及其存在的使用风险。他在文章中表明,生成式人工智能的两个不同的风险来源:商业应用和恶意使用,两者需要单独考虑,并且可能需要不同的政策干预。
作者进一步解释了生成式人工智能存在的商业风险和恶意使用的案例,并提出相应对策。
使用生成式人工智能进行合作开发的关键问题是,上下游公司都未能充分理解最终人工智能系统的功能。最初的开发者只开发了生成式人工智能模型本身,无法看到模型被改编为其他用途时的全部使用情况,而没有参与原始模型开发的下游开发者可能会将改编的模型输出整合到更广泛的软件系统中,其过程中可能会高估生成式人工智能模型的能力。在二者都没有完全掌握和了解整个系统的情况下,可能会增加出现错误和意外行为的可能性。
3. 对比总结
为了达到可信赖人工智能的目的,不同的国家和地区对于风险的归纳有着不同的思考逻辑,同时从产业链的角度,科学家、哲学家和企业家对目前的可信赖人工智能风险治理的关注点也不一样。
地域上,欧洲地区以价值目标为出发点构建了可信赖人工智能风险治理结构,而我国大多是从人工智能应用场景的角度出发,在每个应用节点做到风险防范。
在产业链的角度,科学家们主要关注技术本身的风险,希望从科学本身的角度规避人工智能“幻觉”、可信赖度、透明度等等的问题;而哲学家和法学家则从价值取向的角度出发,设计了一套“智能向善”的制度对人工智能进行规制;而企业角度更希望达成一个开放共赢的人工智能生态,促进大模型对齐,避免出现科技垄断和恶性竞争。
综上所述,在人工智能技术已经飞速发展的今天,人类也面临着许多的风险,而单独的一个国家或者行业都难以对这些风险进行全面治理。为了达到“可信赖人工智能”的目的,需要各国通力合作,各界相互配合,才能够从多方面多视角治理人工智能风险,避免进入科幻小说家或者科学家们笔下描绘的,在科技飞速发展后人类反而进入了被科技统治的时代。
五、案例——人工智能典型司法案例概述
1. 人工智能安全性典型案例——美国首辆无人驾驶巴士与卡车相撞案件[8]
案件概述:2017年11月8日,美国拉斯维加斯无人驾驶巴士在获准上路的第一天就卷入了一场车祸。这辆无人驾驶巴士在低速行驶的情况下,与一辆人力驾驶的运货卡车相撞,所幸事故中没有人员受伤。据悉,无人驾驶巴士由法国公司Navya制造,可承载15名乘客。
裁判主旨:在自动驾驶汽车的交通事故中,保有人、汽车制造商、自动驾驶系统提供者承担无过错责任,驾驶人承担过错责任。
2. 人工智能可追责性典型案例——AI深度合成内容侵权[9]
案件概述:国内古风模特楼某某,在短视频平台发布汉服造型视频后,发现上海某公司将其视频用作“AI换脸”APP模板。用户支付会员费可替换视频中楼某某面部,分享生成视频。楼某某认为此举侵犯肖像权,请求法院判令停止侵权并赔偿。
裁判结果:被告公司未经楼某某同意,通过技术手段提取涉案古风肖像视频,并擅自上传至其运营的换脸APP中供用户选择使用,该行为本身已侵害楼某某肖像权。
同时,涉案视频模板已被用户多次使用和收藏,可以认定该公司利用深度合成技术将其他用户提供的人脸替换至涉案视频中的身体形象之上,并生成了形象逼真、画面流畅的伪造肖像视频,可供用户进行下载保存、发布共享等不当使用。
综上,被告公司未经楼某某同意,利用深度合成技术使用其肖像制作了伪造视频,依法应认定为构成对楼某某肖像权的侵害。法院判决被告向楼某某赔礼道歉并赔偿损失5000元。
3. 人工智能隐私性、公平性典型案例——大数据“杀熟”[10]
案件概述:2020年7月18日,原告胡女士在携程APP预订了舟山希尔顿酒店一间豪华湖景大床房,支付价格2889元,次日却发现酒店该房型的实际挂牌加上税金、服务费仅1377.63元。胡女士认为作为携程钻石贵宾客户,她非但没有享受到会员的优惠价格,还支付了高于实际产品价格的费用,遭到了“杀熟”。之后,胡女士将上海携程商务有限公司告上了浙江绍兴柯桥区法院。
裁判结果:法院当庭作出宣判,判决被告携程赔偿原告胡女士差价243.37元,以及订房差价1511.37元的三倍金额,共计4777.48元,且判定携程应在其运营的携程旅行APP中为原告增加不同意其现有“服务协议”和“隐私政策”仍可继续使用的选项,或者为原告修订携程旅行APP的“服务协议”和“隐私政策”,去除对用户非必要信息采集和使用的相关内容,修订版本需经法院审定同意。
4.人工智能平等性典型案例——招聘软件被指歧视年长者[11]
案件概述:2022年5月,美国平等就业机会委员会(EEOC)起诉 iTutor Group 旗下三家公司(iTutor Group,Inc、上海平安智慧教育科技有限公司、Tutor Group Limited)因应聘者年龄拒绝了200多名申请者,被判赔36.5万美元,用于补偿被拒的应聘者。据EEOC指控,iTutor Group 2020年对其在线招聘软件进行编程,该算法会自动拒绝年龄较大的应聘者,55岁以上的女性和60岁以上的男性将被取消考虑资格。
裁判结果:被告公司赔偿36.5万美元(约264万元),双方达成和解。
附:各国人工智能相关法律规范参考
一、美国
发布主体 |
法规名称 |
发布时间 |
美国计算机协会公共政策委员会 |
《算法透明性和可问责性的声明》 |
2017年1月 |
美国参议院 |
《2018年恶意伪造禁令法案》 |
2018年12月 |
美国白宫 |
《美国人工智能倡议》 |
2019年2月 |
美国国家科学技术委员会 |
《国家人工智能研究与发展战略计划》 |
2019年6月 |
美国国会 |
《2019年深度伪造报告法案》 |
2019年6月 |
美国国防创新委员会(DIB) |
《人工智能准则:美国国防部(DoD)人工智能伦理使用推荐性规范》 |
2019年10月 |
美国政府问责局 |
《人工智能:联邦机构和其他实体的问责框架》 |
2021年6月 |
美国国会 |
《算法责任法案》 |
2022年2月 |
总统拜登 |
《关于安全、可靠和可信赖地开发和使用人工智能的行政令》 |
2023年11月 |
二、欧洲
发布主体 |
法规名称 |
发布时间 |
欧盟委员会 |
《通用数据保护条例》 |
2018年5月 |
欧盟委员会 |
《算法责任与透明治理框架》 |
2019年4月 |
欧盟AI高级专家组 |
《可信赖人工智能伦理指南》 |
2019年4月 |
欧洲议会研究中心 |
《人工智能伦理:问题和倡议》 |
2020年5月 |
欧盟AI高级专家组 |
《可信赖AI评估列表》 |
2020年7月 |
欧盟委员会 |
《人工智能、机器人和相关技术的伦理框架》 |
2020年10月 |
欧盟委员会 |
《人工智能法》 |
2021年4月 |
欧盟委员会 |
《欧洲人工智能法案》 |
2023年12月 |
三、中国
发布主体 |
法规名称 |
发布时间 |
国家新一代人工智能治理专业委员会 |
《新一代人工智能伦理规范》 |
2021年9月 |
国家互联网信息办公室 |
《互联网信息服务算法推荐管理规定》 |
2021年12月 |
中共中央办公厅、国务院办公厅 |
《关于加强科技伦理治理的意见》 |
2022年3月 |
国家互联网信息办公室 |
《互联网信息服务深度合成管理规定》 |
2022年11月 |
中华人民共和国外交部 |
《中国关于加强人工智能伦理治理的立场文件》 |
2022年11月 |
科学技术部教育部工业和信息化部等部门 |
《科技伦理审查办法》 |
2023年9月 |
国家互联网信息办公室、中华人民共和国国家发展和改革委员会等 |
《生成式人工智能服务管理暂行办法》 |
2023年5月 |
全国信息安全标准化技术委员会秘书处 |
《生成式人工智能内容标识办法》 |
2023年8月 |
参考资料
[1] 首席人工智能官:中译本首发 | 欧盟委员会《可信赖人工智能评估清单(自评估)》 | CAIGP公益翻译小组
[2] 中国信息通信研究院与京东探索研究院:《可信人工智能白皮书》
[3] 段和段金牌律师:《多视角透析——人工智能伦理、安全、治理风险的法律规范》
[4] 中国科学院监督与审计局:《人工智能伦理治理标准化指南》(2023 版)
[5] 清华大学人工智能国际治理研究院:2023人工智能合作与治理国际论坛专题论坛“前沿大模型风险研判与治理”顺利召开
[6] 清华大学人工智能国际治理研究院:【AIIG观察第193期】美国战略与国际研究中心:美国人工智能监管应在鼓励创新与降低风险之间取得平衡
[7] 清华大学人工智能国际治理研究院:【AIIG观察第156期】布鲁金斯学会:浅思如何规范生成式人工智能的潜在危害
[8] 央广网:美无人驾驶巴士出师不利对中国车企有哪些启示?
[9] 中国法院网:“AI换脸”:好玩儿,也好惹官司!
[10] 华中师范大学新闻传播学院案例库:携程大数据杀熟事件:算法权力下被控制的人
[11] 腾讯新闻:平安旗下教育公司卷入美国首例AI招聘歧视案,判赔约264万元