一、引言
伴随人工智能的迅速发展和广泛应用,人类正在进入一个“人机物”相融合的万物智能互联时代。人工智能技术应用在带来机遇的同时,也诱发了技术不可控、数据不可信、社会负效应等风险,带来了伦理、安全、治理的三重维度挑战。
伦理方面,以人为本、公平非歧视、透明可解释、类可控制、责任可追溯、可持续发展等内容愈发受到国际关注[1]。安全方面,维护个人信息权益、规范数据与隐私利用、防止虚假信息生成已成为主要议题。治理方面,在技术发展与创新激励的基础上建立统一的监管体系,则成为各国立法的共同趋势。
本文将从三重维度梳理各国人工智能政策,形成当前人工治理伦理、安全、治理的体系框架,并就我国与欧盟的相关立法与政策文件进行重点解读。
二、分析——全球人工智能立法政策的三维度梳理
目前,虽未形成全球统一的人工智能监管范式,但各国各地区都已积极开展适应本区域技术发展进程的人工智能治理体系工作。
(一)欧盟
《人工智能法案》(下称《法案》)(Artificial Intelligence Act)作为欧盟人工智能监管体系的核心,是欧盟首部有关人工智能的综合性立法。其以人工智能的概念作为体系原点,以人工智能的风险分级管理作为制度抓手,以人工智能产业链上的不同责任主体作为规范对象,以对人工智能的合格评估以及问责机制作为治理工具,从人工监管、隐私、透明度、安全、非歧视、环境友好等全方位监管人工智能的开发和使用,详细规定了人工智能市场中各参与者的义务。[2]
1. 伦理方面
《法案》强调,人工智能应该是一种以人为本的技术,不应该取代人类的自主性,也不应该导致个人自由的丧失,而应该主要服务于社会需求和共同利益,因此应提供保障措施,以确保开发和使用尊重欧盟价值观和《欧洲联盟基本权利宪章》(下称《宪章》)(Charter of Fundamental Rights of the European Union)的道德嵌入式人工智能。
2. 安全方面
《法案》采用风险分级标准,以AI系统对《宪章》所保护的基本权利造成不利影响的程度为参考。其中的基本权利包括:人的尊严、尊重私人和家庭生活、保护个人数据、言论和信息自由、集会和结社自由以及不受歧视的权利、受教育权、消费者保护、工人权利、残疾人权利、性别平等、知识产权、获得有效补救和公平审判的权利、辩护权和无罪推定、良好管理的权利。若被评定为“高风险AI系统”,则人工智能投放市场及交付使用时均会受到严格的管控,并需履行评估及备案等一系列要求。
3. 治理方面
《法案》引入了人工智能办公室和成员国监督机构。前者由管理委员会、秘书处、咨询论坛组成,负责促进法案的实施并协调各成员国监督机构之间的合作。后者由各成员国指定一个国家监督机构,根据法案监测各项规定的适用情况,以及与其他监督机构之间的合作,促进法案在整个欧盟的一致适用。
(二)美国
美国在联邦层面尚未通过一部完整且专门针对AI系统的法案,而是试图通过调整政府机构的权利,在现有的立法框架及监管规则内对人工智能进行规制。目前联邦层面的合规重点主要涉及反歧视、保护数据隐私等要求。[3]
1. 伦理方面
美国《2022年算法问责法案》要求使用自动化决策系统作出关键决策的企业应研究并报告系统对消费者的影响。具体内容上,报告应包括是否会因为消费者的种族、性别、年龄等信息,生成对消费者有偏见或歧视性的自动决策。具体程序上,该法案形成了“评估报告—评估简报—公开信息”三层信息披露机制。
拜登《关于通过联邦政府进一步促进种族平等和支持服务不足社区的行政命令》同样规定了大模型应避免由于输入训练数据中的歧视信息,而导致训练结果输出内容中存在偏见。同时,联邦政府在设计、开发、获取和使用人工智能和自动化系统时,应在符合适用法律的前提下,防止、纠正歧视和促进公平,包括保护公众免受算法歧视。
2. 安全方面
美国白宫科技政策办公室《人工智能权利法案蓝图》提出了指导人工智能的设计、使用和部署的五项原则,其中有四项均涉及安全保护,即技术的安全性和有效性、保护数据隐私、告知及解释义务、人类参与决策。同时,在技术指南部分,其对每一项原则均解释了其重要性、所指引的期望,以及各级政府与各种公司为维护原则可以采取的具体的实施步骤、原则的实践案例。
美国参众两院《美国数据隐私和保护法案》(下称《ADPPA》)进一步明确了“覆盖算法”及其规范等说明。倘若人工智能所使用的数据集涵盖个人信息、数据与隐私,则构成“覆盖算法”;使用“覆盖算法”的大数据持有人,如果对个人或群体构成相应伤害风险,并单独或部分使用“覆盖算法”来收集、处理或传输覆盖数据,则应当根据《ADPPA》规定的评估标准进行隐私影响评估。同时,《ADPPA》还对隐私政策的告知与退出机制等内容做出了规定。其要求,企业或代表企业的服务提供商需要告知个人有“选择退出”的权利,即拒绝企业对其个人数据的收集、处理或传输。
3. 治理方面
拜登《关于安全、可靠和值得信赖的人工智能”的行政命令》为美国人工智能技术划定了发展方向和危险禁区,但其监管力度和范围远远比不上实际的立法行为。
在行政命令发布之前,拜登政府给予企业自愿自我监管安全风险的余地。7 月,白宫宣布亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等多家人工智能制造商已同意对其系统进行自我监管。美国目前以自愿为原则的监管办法在最大程度上鼓励了美国的人工智能技术创新和大企业的全球发展,因为将不会有政府的强制性监管机构监督大公司的人工智能计划和技术框架。
(三)英国
1. 伦理方面
英国人工智能办公室和政府数字服务局《理解人工智能的伦理和安全》,提出了SUM(Support,Underwrite,Motivate)价值观。其构建了一套人工智能技术的道德词汇,包含了生物伦理和人权话语的概念元素,如关怀(Care)意味着在设想和部署人工智能应用时,优先考虑人们的安全、精神和身体完整性。
英国中央数字与数据办公室、人工智能办公室与内阁办公室《自动决策系统的伦理、透明度与责任框架》(下称《ETAF》)规定,企业必须对算法或自动决策系统做一个平等影响评估,使用高质量和多样化的数据集,发现和抵制所使用数据中明显的偏见和歧视。[4]
2. 安全方面
《理解人工智能的伦理和安全》提出了FAST(Fair,Accountability,Sustainability,Transparency)运转法则,针对人工智能技术提出操作性较强的技术战略。例如在问题形成、预实施以及再评估阶段,利用利益相关者影响评估方法,测量人工智能项目的社会影响和可持续性。
《ETAF》则规定,算法和自动化决策在上线之前应该进行严格的、受控的和分阶段的测试。测试时,需要考虑自动化决策系统的准确性、安全性、可靠性、公平性和可解释性。同时,算法或计算机系统应该被设计为完全可以负责和可被审计的,算法和自动化的责任和问责制度应该明确。
3. 治理方面
目前,英国最新的人工智能治理文件以2023年3月英国政府发布的《有利于创新的人工智能监管方法》白皮书为准。该白皮书提出了五项原则,以制定监管活动的框架、指导AI模型和工具的未来发展及其使用。但这些原则尚未被纳入法律,而是由各个部门的监管机构在中央支持职能部门的协助下进行解释并转化为行动。
三、对比——欧盟与我国就伦理、安全、治理的规制解读
(一)规制原则
【欧盟】
《人工智能法案》明确了开发和使用人工智能系统或基础模型需遵守的六项一般原则,即人类主体和监督,技术稳健性和安全性,隐私和数据治理,透明度,多样性、非歧视和公平,社会和环境福祉。
【我国】
《关于加强科技伦理治理的意见》明确了科技伦理的五大类原则:增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明。
(二)规制范围与人工智能定义
【欧盟】
《法案》将人工智能系统定义为“基于机器的系统,旨在以不同程度的自主权运行,并且可以针对明确或隐含的目标生成例如预测、建议或决策等输出,影响物理或虚拟的环境。”[5]
《法案》的适用范围也较为广泛,即便企业是欧盟范围外人工智能技术的供应商,但所使用其人工智能技术的产品或服务提供在欧盟范围内,也需要适用法案的相关规定。具体而言,包括:(1)在欧盟投放入市场或投入使用人工智能系统的供应商,无论其设立地点是否在欧盟内;(2)设立在或位于欧盟的人工智能系统的部署者;(3)人工智能系统未部署在欧盟,但人工智能系统的输出内容在欧盟内使用的供应商和部署者;(4)人工智能系统的进口商和分销商;(5)以其产品和名称/商标在欧盟部署人工智能系统的产品制造商;(6)在欧盟设立的供应商的授权代表。
此外,《法案》并不适用于军事、国防和国家安全、第三国根据与欧盟执法和司法合作协议而使用的、用于科学研究的、自然人用于私人事务的人工智能,以及已经受特定法规约束的相关行业(例如民航、铁路、汽车等)对于人工智能的使用。
【我国】
定义方面,目前仅有生成式人工智能规范的具体范围以及人工智能伦理的涵射内容。《生成式人工智能服务管理暂行办法》(下称《暂行办法》)第二条从正反两面对生成式人工智能进行了明确,规定“利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务,适用本办法。”同时,还明确排除了不适用的场景,一类是“新闻出版、影视制作、文艺创作等领域”,另一类是“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的情形”。此举将适用范围限定在“提供服务”层面,豁免了暂行办法对于研发阶段的规制,减缓了企业研发模型及其相关技术的合规要求,旨在鼓励生成式人工智能在多领域多渠道的进一步探索。
《人工智能伦理治理标准化指南》(下称《指南》)将人工智能伦理总结为三方面:一是人类在开发和使用人工智能相关技术、产品及系统时的道德准则及行为规范;二是人工智能体本身所具有的符合伦理准则的道德准则或价值嵌入方法;三是人工智能体通过自我学习推理而形成的伦理规范。
此外,《科技伦理审查办法》(下称《审查办法》)《互联网信息服务深度合成管理规定》进一步细分了需要进行科技伦理审查的人工智能活动,即(1)算法模型涉及个人信息数据的;(2)算法模型涉及公共秩序的;(3)提供深度合成服务的。
(三)规制内容
【欧盟:总体分级管理 + 高风险系统重点规制】
《法案》将人工智能系统根据风险评估分为了四类,包括不可接受的风险、高风险、有限风险与最小风险。对于不同风险等级,法案采取了不同程度的监管措施——对于不可接受风险的人工智能,法案严厉禁止,并对违反者处于上一财年全球营业额最高6%的处罚。对于高风险的人工智能,法案规定了一套完整的全流程风险管理措施;对于有限风险的人工智能,法案要求履行公开透明义务;而对于最小风险的人工智能,法案并不作干预。
同时,对高风险人工智能系统,《法案》规定了具体要求,包括建立风险管理制度,制定技术文件,留存相关记录,保障系统的准确性、稳健性和网络安全。
【我国:分类分级监管方向 + 禁止性规定】
《暂行办法》第三条明确提出了分类分级监管原则,十六条具体指出,分类分级监管指根据生成式人工智能应用的服务场景,对应用中可能出现的风险及影响从高到低进行排序,再根据不同风险等级划定不同的监管方式。虽然我国目前并未提出进一步的分类分级依据以及操作办法,但《国务院2023年度立法工作计划》已将《人工智能法草案》列为预备提请全国人大常委会审议的法律草案。关于分类分级监管的原则应会得到进一步的落实。
就具体规定而言,《暂行办法》采取了禁止性规定形式。一是,不得生成法律法规明确禁止的内容;二是,不得生成歧视性内容;三是,不得侵犯他人知识产权;四是,不得侵犯他人其他合法权益。
(四)规制主体义务与责任
【欧盟】
《法案》针对高风险人工智能系统产业链的不同参与者明确了细化的义务性要求:
提供者,指开发人工智能系统的自然人、法人、公共当局或其他机构。相关义务主要包括:第一,保障系统安全,建立质量管理系统,遵守备案义务,确保高风险人工智能系统符合无障碍要求。第二,标明相关信息,在高风险人工智能系统上标明提供者的名称、商标、地址、联系方式等信息;在高风险人工智能系统上以明显、清晰的方式加贴永久性CE标志。第三,留存相关资料,制定并保存高风险人工智能系统技术文件;保留高风险人工智能系统自动生成的日志。
进口者,指将带有在欧盟外自然人或法人名称、商标的人工智能系统,投放市场或投入使用的欧盟内自然人或法人。主要义务包括:确保提供者实施了相关合格评估程序;确保提供者起草了技术文件;确保人工智能系统带有所需的合格标志,并附有所需的文件和使用说明。此外,进口者也应按规定履行信息披露的义务以及与主管部门合作的义务。
基础模型提供者,指在海量数据集上进行规模化训练的人工智能模型提供者。主要义务为:在向市场提供模型前,第一,确保系统满足使用要求;通过评估,确保基础模型在整个生命周期内满足性能、可预测性、可解释性、可纠正性、安全性和网络安全等方面要求;制定广泛的技术文件和可理解的使用说明;建立质量管理系统。第二,满足数据处理、效率要求。第三,在欧盟数据库中对该基础模型进行备案。此外,将基础模型专门用于生成式人工智能时,基础模型提供者还应当遵守透明度义务,采取足够的保障措施防止产生违反欧盟法律的内容;在不影响国家或欧盟版权立法的情况下,记录并公开提供受版权法保护的训练数据使用情况的详细摘要。
系统部署者,指在授权情况下使用人工智能系统的自然人或法人、公共当局、或其他机构。相关义务包括:适当使用,开展人为监督,开展评估。
【我国】
《暂行办法》针对生成式人工智能提供者、使用者设置了不同强度的规范。
一是要求提高生成内容的准确性和可靠性。由于数据标注的质量一定程度上决定了人工智能学习结果的优良,因此,《暂行办法》第九条要求提供者应当清晰、具体、可操作的标注规则,及时开展数据标注质量评估,抽样核验标注内容的准确性,并要对标注人员进行必要培训,提升遵法守法意识,监督指导标注人员规范开展标注工作。
二是要求对人工智能生成内容进行标识。由于目前服务生成内容易出现技术被滥用、误用等问题,因此,《暂行办法》第十二条规定生成式人工智能服务提供者应当按照《互联网信息服务深度合成管理规定》(下称“《深度合成规定》”)对图片、视频等生成内容进行标识。具体标识方法主要集中在两个方面:(1)应当采取技术措施对使用其服务生成或者编辑的信息内容添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息。(2)提供的服务可能导致公众混淆或者误认的,应当在生成或者编辑信息内容的合理位置、区域进行显著标识。此种服务主要包括智能对话、智能写作、合成人声、仿声、人脸生成、人脸替换、人脸操控、姿态操控、沉浸式拟真场景。
三是针对未成年人设定防沉迷模式。具体设定方式则参考《国家新闻出版署关于进一步严格管理切实防止未成年人沉迷网络游戏的通知》(国新出发〔2021〕14号)中的规定,即一方面严格限制向未成年人提供网络游戏服务的时间;另一方面严格落实网络游戏用户账号实名注册和登录要求。[6]
除上述网络信息内容生产者责任外,提供者还需承担服务平台的管理责任。主要包括违法行为内容处置及报告义务、健全投诉举报机制义务两种类型。同时,《暂行办法》此处所规定的管理义务与网络信息内容服务平台所应履行的管理义务相类似,具体可以参考《网络信息内容生态治理规定》第九条的规定进一步完善平台的治理机制,通过遵守科学合法的规范、积极履行相关的管理义务以减少相应的经营风险。
对于使用者,我国各政策文件的要求颇为宽泛。《暂行办法》除在第四条设置了对使用者与使用者共同适用的原则性规定外,还在第十八条明确了使用者具有投诉举报的权利。
(五)执法(审查)主体与规制程序
【欧盟】
正如前文所述,为实现对于人工智能系统的有效治理,欧盟引入了人工智能办公室和成员国监督机构。人工智能办公室负责促进法案的实施并协调各成员国监督机构之间的合作,从而避免成员国各自为政,确保单一市场的最佳运作。国家监督机构则由各成员国指定,根据法案监测各项规定的适用情况,并通过与其他成员国的监督机构之间的合作,促进法案在整个欧盟的一致适用。
【我国】
我国现阶段并未设置执法主体,而是以审查机构来规范人工智能伦理、安全事宜。根据《审查办法》,高等学校、科研机构、医疗卫生机构、企业等是本单位科技伦理审查管理的责任主体,以上各主体应根据《审查办法》第2条规定内容梳理是否涉及人工智能伦理审查触发的条件,严格按照要求设立伦理(审查)委员会,建立伦理(审查)委员会审查机制,涉及审查事项的应当组织伦理(审查)委员会逐项审查,并出具相关审查意见和合规建议。
科技伦理审查程序有三种:一是简易程序,其适用条件包括:科技活动伦理风险发生的可能性和程度不高于最低风险(指日常生活中遇到的常规风险或与健康体检相当的风险);对已批准科技活动方案作较小修改且不影响风险受益比;前期无重大调整的科技活动的跟踪审查。二是一般程序,除适用简易程序以外的科技活动均适用于一般程序。三是专家复核,其可能产生较大伦理风险挑战的7类特定科技活动。
四、案例——人工智能典型司法案例概述
(一)垄断与竞争案件
1. 出版商诉谷歌反垄断案[7]
案件概述:2023年12月,美国阿肯色州出版商《海伦娜世界纪事报》(Helena World Chronicle)在哥伦比亚特区联邦地方法院提起一项反垄断集体诉讼,指控谷歌及其母公司Alphabet的行为违反美国反垄断法。原告诉称,谷歌通过反竞争行为“盗取”了出版商的内容、用户和广告收入。同时,谷歌还引入了新的人工智能技术,如“生成式搜索体验功能”(SGE)和“人工智能聊天机器人巴德”(AI Bard)。这些新技术加剧了已有问题,损害了出版商的利益。
诉讼进程:根据 Similarweb 的数据,谷歌目前占用着出版商近40%的流量,人工智能整合的潜在后果对该行业构成了重大威胁。申言之,在数字时代,技术、反垄断问题和新闻出版商未来生存能力之间的交叉问题日益受到关注。
2. 智能语音指令不正当竞争纠纷第一案
案件概述:原告百度在线网络技术(北京)有限公司是“小度”AI电子产品的开发者和运营者,因发现北京子乐科技有限公司生产销售与其“小度”智能音箱产品相同的AI电子产品“杜丫丫”学习机,并使用“xiaodu xiaodu”语音指令进行唤醒操作,遂提起诉讼。最终,法院判决子乐公司构成不正当竞争,要求其消除影响、赔偿百度在线公司经济损失50万元及合理开支5万元。
裁判主旨:虽然语音指令较之商品名称、企业名称、网络域名、网站名称等出现得较晚,在类型方面亦存在一定差别,但只要其能够与该商品或服务及其提供者建立起特定的联系,且具有一定的影响,即应被纳入反不正当竞争法第六条所规定的权益保护范围之内。擅自将他人符合上述条件的语音指令进行使用,属于该条第四项所规定的,其他足以引人误认为是他人商品或者与他人存在特定联系的混淆行为。
(二)隐私权类
1. 谷歌非法搜集个人生物信息案[8]
案件概述:2022年6月,美国伊利诺伊州库克县巡回法院宣布,谷歌就此前非法收集和存储伊利诺伊州居民的个人生物特征数据与多位集体诉讼原告达成和解协议,决定向受到影响的居民支付共计一亿美元的和解金,预计最多赔付每人400美元。该州居民需在9月24日前填写表格提出索赔申请。
裁判主旨:《生物特征信息隐私法》规定,任何收集生物特征数据的私人公司都必须有一份公开的书面隐私政策,明确告知用户其生物特征数据将被收集、存储和使用,并就其存储相关数据的期限和具体销毁时间等作出规定。此处的生物特征数据包括视网膜或虹膜扫描数据,指纹、声音或手部、面部扫描数据。
2. Clearview AI 数据采集案
案件概述:Clearview AI是一家以人脸爬取和识别服务为主营业务的美国公司,其大量爬取社交媒体和互联网上的人脸数据,专为警方和情报部门提供服务。这种数据采集行为未经用户和网站所有者同意,Clearview亦未根据加州或佛蒙特州的法律注册为数据经纪人,直到《纽约时报》曝光才被公众发现。随后,佛蒙特州总检察长在2020年3月起诉Clearview违反数据经纪人和消费者保护法,指控其通过抓取行为欺诈性地获取和中介个人信息,使消费者面临各种风险和伤害。最终,Clearview AI胜诉并推翻了英国法院对其所加处的750万英镑巨额罚款。
案件意义:Clearview AI在欧洲仍面临其他国家诉讼。到目前为止,该公司已设法避免在欧盟支付任何罚款。欧盟的数据保护框架目前已对类似 Clearview AI的公司采取严格管控措施。
(三)生命健康权类
1. Uber自动驾驶车辆致人死亡案
案件概述:2018年3月18日,于美国亚利桑那州,一辆由沃尔沃XC90改良后的Uber自动驾驶汽车撞上一女子,后因伤势过重死亡。在事故发生时,该女性并未在人行通道内,而在人行通道外推着自行车行走。最终,法院判决该事故责任人被判处三年缓刑。
裁判主旨:在自动驾驶汽车的交通事故中,保有人、汽车制造商、自动驾驶系统提供者承担无过错责任,驾驶人承担过错责任。
(四)反歧视类
1. 亚马逊人工智能招聘算法歧视性别案[9]
案件概述:2018年,亚马逊公司开发的人工智能招聘系统在通过算法进行简历筛选时,对包含“女性”等词的简历进行降权处理,最终被控性别歧视。
案件意义:本案突显了人工智能算法的潜在偏见和歧视风险,尤其是在涉及敏感性别、种族、年龄等因素的决策中,企业有必要重新审查其人工智能技术的公正性和合规性,加强对算法的审查和测试,以避免歧视行为。
(五)知识产权类
1. OpenAI版权侵权案[10]
案件概述:2023年,美国报业巨头纽约时报向美国最知名的AI平台OpenAI及其投资人微软公司提起侵犯版权诉讼,指控这两家机构未经许可就采集该报数百万篇文章以训练人工智能。这也是全世界首个AI平台被大型媒体起诉侵犯版权的案例。
诉讼进程:目前,《纽约时报》已提交了充分证据,表示其文章构成了单个数据集,可能被用于训练AI;同时,其文章体现了创造力,而模型则出现了幻觉、捏造不实消息等问题。
2. 中国首例AI生成图片著作权案[11]
案件概述:李某用风靡全球的绘图大模型StableDiffusion生成了一张古装少女的图片,并将该图以《春风送来了温柔》为名在小红书等平台进行了发布。原告发现百度百家号在其中使用了自己先前生成的图片作为插图,并且去除了该图片原有的水印后,以侵害作品署名权和信息网络传播权为由将百家号作者刘某起诉至北京互联网法院。
裁判结果:法院认为原告从构思涉案图片到最终选定涉案图片的过程中进行了一定的智力投入;涉案图片体现出了与在先作品存在可以识别的差异性;原告对画面元素、画面布局构图等进行了选择和安排。因此,该AI绘图构成美术作品。
参考资料
[1] 中国信通院:《人工智能伦理治理研究报告(2023年)》
[2] 信通院互联网法律研究中心:《域外观察 | 欧盟<人工智能法案>的主要内容及启示》
[3] 金杜研究院:《人工智能:科技伦理治理走起》
[4] 社科院工业经济研究所:《数字科技伦理监管的政策布局与实践模式:来自英国的考察》
[5] 欧盟《人工智能法案》(欧洲理事会2022年12月6日同意版)第3条“定义”,为了本条例的目的,适用以下定义:(1) “人工智能系统”(AI系统)是指旨在具有自主元素的系统,该系统根据机器和/或人类提供的数据和输入,通过机器学习和/或基于逻辑和知识的方法推断如何实现给定的目标,并产生系统生成的输出,如内容(生成性AI系统)、预测、建议或决策,影响与其互动的环境。
[6] 中国民商法律网:《生成式人工智能服务管理暂行办法》公布(附国家互联网信息办公室有关负责人答记者问)
[7] 数字法学研究:《2023年12月22日:出版商以人工智能损害其利益为由对谷歌提起反垄断诉讼》
[8] 中美法律评论:《美国得克萨斯州起诉谷歌私自收集用户生物识别数据一案》
[9] 商事法律实务与研究:《十大世界涉“人工智能”案件》
[10] 智元宇宙:《纽约时报对科技巨头OpenAI和微软发起重大版权诉讼,索赔数十亿美元》
[11] 北京互联网法院(2023)京0491民初11279 号判决书。