兰迪研究 兰迪研究
LANDING RESEARCH
兰迪研究
首页 兰迪研究 专业文章 文章详情
兰迪研究 | 多视角透析——人工智能伦理、安全、治理风险的法律规范(四)

一、引言

 

随着AI技术的广泛应用,其带来的诸多伦理、治理、安全问题也引起了社会各界的高度关注。特别是以Chat-GPT、Sora为代表的生成式人工智能技术的突飞猛进,不可避免地引发了社会对人工智能带来的失序、失业、失控的担忧。生成式人工智能是一种强大的人工智能类型,可以通过学习数据中的模式来创建新的原创内容,其目标是生成具有创造性和逻辑性的内容或信息。生成式人工智能可以应用于一系列目的,尽管它目前专注于产生文本、计算机编程、图像和声音,但在未来生成式人工智能将被运用于包括药物设计、建筑和工程在内的广泛领域。[1]与传统的基于规则和逻辑的人工智能相比,生成式人工智能更加注重对语言和文本的理解和生成能力。目前最炙手可热的生成式人工智能Chat-GPT便是通过借助大量的参数与数据对大规模文本语料进行预训练,并从人类的反馈中进行强化学习,最终实现对人类认知机制的模拟。

 

生成式人工智能有着广阔的发展前景,但同时它也面临着监管与法规层面的大量空白,这使得生成式人工智能的发展伴随着多方面的困境与挑战。本文将梳理分析生成式人工智能可能面临的伦理、治理以及安全困境,并归纳现有案例与法案,旨在对生成式人工智能未来的发展与治理途径提供见解。

 

二、数据与算法的偏见

 

生成式人工智能在带来创新和便利的同时,也引发了诸多伦理困境,尤其是在数据与算法偏见方面。由于这类AI系统依赖大量数据进行学习,它们可能会无意中学习并放大训练数据中的偏见,导致在决策和输出中产生不公平和歧视性的结果。开发者能够通过裁剪数据库或操控算法的方式,将自己的偏好植入训练数据,从而使生成式人工智能所输出的内容呈现某种开发者所期待的价值观。此外,生成式人工智能的训练需要依托大量的数据,并通过与人类的交互来实现自我学习完善,以提高准确性,偏见与歧视会在数据训练、人机交互中被灌输给人工智能。随着生成式人工智能被运用在越来越多的领域,由数据与算法偏见所导致的危害也在扩大。

 

1. 内容虚假与伪造

 

生成式人工智能的发展迅猛,带来了一个紧迫的问题,即其有可能成为虚假与伪造内容的工具。在当今社会的信息爆炸时代,假新闻已经司空见惯。而生成式人工智能的卓越能力使得虚假信息更加逼真,并对网络信息的可信度提出了严峻挑战。生成式人工智能可以生成看似真实的文章、新闻、评论等内容,很难辨别真实与虚假。根据统计在国内外主流音视频网站、社交媒体平台上,2021年由生成式人工智能所产出的深度合成视频的数量较2017年增长10倍以上。此外,其关注度也呈指数级增长,通过对互动数据进行统计,2021年所获得的点赞数已超过3亿。[2]这给公众带来了可能误导和混淆的风险,损害了人们对信息的信任。

 

2. 数据与隐私泄露

 

美图秀秀、醒图等图片编辑APP纷纷推出“AI写真”服务,用户只需上传自己的照片,等待几分钟后便可获得精美的写真艺术照,但用户无法确保自己所上传的照片仅会被运用到自己所授权的写真制作中。生成式人工智能导致数据泄露的原因主要有三个方面:首先,生成式人工智能开发者或服务提供者,出于谋取自身利益的考量,存在直接向第三者交易买卖数据的可能;其次,生成式人工智能通过人机交互,即用户的主动信息输入作为其学习与完善发展的重要途径,若用户输入的信息中包含了具有隐私敏感性的文本数据,例如医疗记录、司法文书、个人通信记录等,那么模型可能会学习这些信息并在未来版本中将其泄露出来。[3]最后,生成式人工智能模型本身的安全漏洞也是一个重要的考虑因素。这些漏洞可能被攻击者利用,从而对模型造成潜在的威胁。攻击者可以通过修改模型的输出、篡改模型的训练数据或窃取模型的参数等方式进行攻击。这些攻击可能导致模型输出的泄露,进而影响到数据的隐私和保密性。

 

三、现阶段各国对生成式人工智能的治理途径

 

1. 中国

 

在数据与算法偏见方面,我国已于2022年1月由国家网信办、工信部、公安部、国家市场监督管理总局联合发布《互联网信息服务算法推荐管理规定》,[4]该规定针对算法歧视、“大数据杀熟”、诱导沉迷等进行了规范管理,并要求建立算法分级分类安全管理制度。

 

在内容虚假与伪造方面,《互联网信息服务算法推荐管理规定》亦要求对算法生成合成的信息做显著标识,并要求提供互联网新闻信息服务的算法推荐服务提供者和使用者,不得生成合成虚假新闻信息。《互联网信息服务深度合成管理规定》[5]则更加细致地规定了包括智能对话、智能写作、人脸生成、人脸操控、姿态操控等具有生成或显著改变信息内容功能的深度合成服务应当遵守的要求,包括以显著标识的形式向公众提示。该规定旨在促进AI产业的健康发展,同时防止技术被滥用,要求通过深度合成技术制作的合成视频和照片必须明确标注,以避免公众混淆。

 

在数据与隐私泄露方面,我国《数据安全法》已明确将数据分类为国家核心数据、重要数据、一般数据,进行轻重有别的差异化保护。处理重要数据应当明确数据安全负责人和管理机构,落实数据安全保护责任,并要求开发机构在开展数据处理活动应当加强风险监测,发现数据安全缺陷、漏洞等风险时,应当立即采取补救措施;发生数据安全事件时,应当立即采取处置措施,按照规定及时告知用户并向有关主管部门报告。重要数据的处理者应当按照规定对其数据处理活动定期开展风险评估,并向有关主管部门报送风险评估报告。[6]此外,在《网络数据安全管理条例(征求意见稿)》第9条中亦规定“处理重要数据的系统原则上应当满足三级以上网络安全等级保护和关键信息基础设施安全保护要求,处理核心数据的系统依照有关规定从严保护”。

 

但在生成式人工智能这一细分领域,目前我国仍处于治理建设的初期阶段。为应对生成式人工智能算法偏见与歧视的困境,我国多部委联合发布《生成式人工智能服务管理暂行办法》[7],针对生成式人工智能所面临的数据与算法偏见、内容虚假与伪造、数据与隐私泄露等困境作出了回应,这是我国为应对生成式人工智能这一新技术冲击所作的尝试。但目前我国并未建立其完整的生成式人工智能审查与监管机制。进一步细化人工智能领域的法律法规,设计出贴合新兴技术的治理机制是我国加强人工智能领域治理的主要路径。

 

2. 美国

 

2023年2月,拜登签署《促进种族平等并通过联邦政府支持服务不足的社区》行政令,其中包含“指示联邦机构根除在设计和使用新技术(包括人工智能)方面的偏见,保护公众免受算法歧视的影响”条款。这是美国对消除生成式人工智能所带来的数据与算法偏见所作出的尝试。美国对生成式人工智能等新技术的发展,实行鼓励与监管并行的治理模式,2022年10月,白宫发布《人工智能权利法案的蓝图》,提出“自动化系统要为美国人民工作”,列出“安全性和有效性、防止算法歧视、数据隐私、通知和解释以及人类参与决策”等五项指导设计、使用、部署原则。[8]

 

而随着人工智能生成虚假信息的进一步蔓延传播并广泛用于实施欺骗行为,美国对其加强了立法监管。2023年5月,美国共和党全国委员会发布了生成式人工智能制作的政治广告,美国众议员伊维特·克拉克(Yvette Clarke)提出了《真实的政治广告法案》(The REAL Political Ads Act),对竞选广告提出了人工智能生成内容披露要求。6月,美国众议员里奇·托雷斯(Ritchie Torres)提出《人工智能披露法案》(The AI Disclosure Act),提议在任何人工智能生成的内容中添加披露声明。为了应对生成式人工智能所产出的伪造内容,美国已生效《恶意禁令法案》与《2019年深度伪造报告法案》,以防止生成式人工智能所产生的伪造内容干扰大选。另外,美国加州颁布《AB 730》和《AB 602》法令, 禁止使用生成式人工智能干预选举和制作色情内容。

 

3. 欧盟

 

欧盟于2023年6月发布《人工智能法案》,将Chat-GPT归类至“高风险”技术,提出对其进行必要且全面的伦理审查,以降低风险,确保用户的自主性、公平对待与隐私。欧盟主张人工智能应当符合人类伦理,不应背离人类基本道德和价值观,较之一般人工智能,欧盟对生成式人工智能的伦理审查机制更为审慎,强调基本伦理秩序维护与公民基本权利保护。此外,欧盟已出台《人工智能道德准则》, 将隐私和数据管理作为可信赖人工智能需要满足的七个要素之一。欧盟《通用数据保护条例》(General Data Protection Regulation)[9]第37条规定,所有数据处理者都应当设立“数据保护官员”,负责数据保护相关工作。在规制内容虚假与伪造方面,欧盟于2022年6月更新《反虚假信息行为准则》(Code of Practice on Disinformation),要求社交媒体公司从其平台上删除深度伪造和其他虚假信息,否则将处以高达公司全球营收6%的罚款。欧盟《数字服务法》(The Digital Services Act,DSA)也要求平台展示举报和删除非法内容的机制。

 

4. 总结

 

生成式人工智能的治理是一个复杂的问题,需要综合考虑技术、伦理、法律和社会因素。未来,生成式人工智能的治理需确保其应用和发展在符合道德、法律和社会价值的框架下进行。

 

1. 确保透明度和建立问责机制确保生成式人工智能的开发者和运营者能够向公众透明地展示其系统的能力和局限性。通过公开透明的算法、数据来源和模型训练过程,促进对系统的审查和评估。此外,建立问责制度,对于系统的错误、偏见或滥用进行追责。

 

2. 加强数据伦理和隐私保护采取措施保护个人隐私和数据的安全。确保收集、存储和使用数据的合法性和透明性。遵循数据保护法规,尊重个人的数据主权,并明确告知用户数据的收集和使用方式。

 

3. 倡导多元参与和公正性鼓励多元化的参与者参与生成式人工智能的决策过程,包括不同背景、专业知识和利益相关方。确保生成式人工智能的应用在不同社群和利益相关方之间公正,并减少可能带来不公平和歧视性结果的风险。

 

4. 完善防护措施加强对生成式人工智能系统的安全性措施,防止潜在的恶意攻击和滥用。建立强大的网络安全防护机制,包括漏洞修复、身份验证和数据加密等,确保系统的安全性和可靠性。

 

5. 建立健全治理框架与加强国际合作建立生成式人工智能的治理框架和指导原则,以国家层面或跨国组织的合作为基础。通过合作分享最佳实践、共同应对挑战和制定共同标准,推动生成式人工智能的全球治理和合作。

 

四、案例延伸

 

1. 亚马逊AI招聘模型

 

在2014年,亚马逊在爱丁堡成立了一个团队,旨在探索一种创新的自动化招聘方法。该团队开发了500种计算机模型,这些模型通过分析过去十年内入职员工的简历,提取出了大约50,000个关键词。亚马逊对这项技术寄予厚望,希望它能够简化招聘流程:仅需将100份简历输入系统,算法就能自动筛选出前五名候选人,从而极大地提高招聘效率。然而,这个人工智能系统似乎对女性求职者存在偏见。经过深入调查,团队发现这种偏见的根源在于算法所依赖的训练数据。由于过去十年间,大多数简历来自男性求职者,算法在不知不觉中学会了一种性别偏见,认为男性求职者更为可靠。因此,在处理包含女性相关词汇的简历时,系统会自动降低这些简历的评分。所有包含“女性”这个词的简历,例如“女子国际象棋俱乐部队长”“女子大学”等描述都被该模型赋予了低分。这对亚马逊的自动化招聘项目是一个重大打击,该项目于2017年终止。

 

它不仅揭示了人工智能在数据处理中可能产生的性别偏见问题,也对整个科技行业如何处理算法偏见提出了严峻的挑战。亚马逊的这一经历提醒我们,在利用人工智能简化工作流程的同时,必须对其潜在的偏见问题保持警觉,并采取措施以确保算法的公正性和透明度。

 

2. 犯罪风险评估模型

 

COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) 算法在美国司法系统中用于评估罪犯再次犯罪的风险,以便辅助决策,如确定保释、量刑等。然而,这一系统受到了广泛的批评,因为它在评估过程中表现出了种族偏见。据ProPublica在2016年的调查报道,COMPAS算法在预测再犯风险时,黑人被告被错误地标记为高风险的可能性比白人被告高出近两倍。ProPublica的分析还指出,尽管COMPAS算法在预测白人和黑人被告的累犯概率方面准确率大致相同,但是它在分类方式上存在显著差异,导致黑人被告面临更高的误判风险。这引发了对该系统算法公正性的严重质疑,因为它不仅关系到个人的自由和未来,还可能加剧司法系统中的种族不平等。此外,由于COMPAS算法的内部工作机制和决策逻辑并未公开,这增加了对该系统“黑箱”操作的担忧,使得被评估的个人难以对其评估结果提出有效的挑战。

 

这些问题不仅引发了对COMPAS算法本身的质疑,也激发了对整个刑事司法系统中人工智能应用的广泛讨论。许多人呼吁需要对算法的决策过程进行更多的监管和透明度,以确保算法的公正性和减少对边缘群体的潜在伤害。这一案例也促使了对算法透明性和可解释性的需求,以及对算法在敏感领域应用的深入反思。

 

3. 国内首例Chat-GPT犯罪案件

 

2023年4月25日,一篇关于甘肃省火车事故的报道出现在百家号上,声称一列火车撞上公路工人,导致9人死亡。然而,警方调查发现,该报道实际上是一则假新闻,由广东深圳的一间自媒体公司发布。该公司的洪姓男子涉嫌使用Chat-GPT技术,通过修改真实新闻中的元素,如时间、地点、日期和性别,来编造多版本的假新闻,以规避平台的查重功能,以此吸引流量并非法获利。洪姓男子的这一行为已涉嫌寻衅滋事罪,警方对其采取了刑事强制措施,可能面临最高五年的有期徒刑。

 

这起事件是中国首例利用人工智能生成假新闻的案件,这起案件凸显了生成式AI技术在虚假信息传播中的潜在风险,以及对此类行为进行法律规制的迫切需求。同时,这起案件也表明,随着AI技术的发展,生成虚假内容的门槛降低,成本减少,使得虚假信息在网络上的泛滥和辨别更加困难。因此,需要更多的技术、法规和教育措施来应对这些挑战,确保AI技术的健康发展和社会的稳定。这包括但不限于加强对AI生成内容的监管,提高公众对虚假信息的识别能力,以及鼓励开发更有效的AI检测工具。

 

4. 深度伪造技术

 

深度伪造技术,可以通过人工智能算法实时伪造面部表情和人声,并合成高仿真度的视频与音频。早在2018年,导演乔丹·皮勒便使用深度伪造技术生成了一段伪造的美国前总统巴拉克·奥巴马的演讲视频,视频中奥巴马用污秽语言攻击他的继任者唐纳德·特朗普。2019年,一段伪造的美国国会众议院议长南希·佩洛西的视频在社交媒体上流传,视频中佩洛西看起来像喝醉了酒,语速和语调异常且滑稽,后该视频被证实是由深度伪造技术生成。这项技术的兴起和普及为诈骗分子提供了新的犯罪手段,2021年,黑客运用生成式人工智能技术成功构建了一个名为“Deepfake Wire”(深度伪造电线)的欺诈平台。他们巧妙地利用Chat-GPT技术打造了一个虚假的客服机器人,并将其伪装成“虚拟角色”,从而实施了一系列诈骗行为。随着技术的不断进步,深度伪造内容的生成质量和逼真度也在不断提高,这进一步增加了其被用于不法用途的风险。

 

5. Clearview AI 数据泄露事件

 

人工智能初创公司Clearview AI因其开发的面部识别技术而备受争议。该公司的技术能够通过从网络社交媒体上抓取的超过30亿张照片,形成庞大的生物特征信息数据库,从而识别个人。然而,Clearview AI的数据库在一次黑客入侵事件中被泄露,导致超过2000家客户的数据面临风险,其中包括美国移民局、司法部、FBI等重要执法机构。此事件引发了对数据隐私保护和安全性的广泛关注,同时也引起了法律诉讼和官方调查。Clearview AI的案例突显了人工智能技术在隐私保护和数据安全方面可能带来的风险,尤其是在未经照片主体同意的情况下收集和使用其生物特征信息。

 

6. 三星数据泄露事件

 

三星在启用Chat-GPT的20天内就发生3起员工泄露数据事故,泄露内容包括半导体设备测量、良品率/缺陷、内部会议内容等敏感信息。[10]为了防止类似事故再次发生,三星正在制定相关的保护措施,并加强内部管理和员工训练。此外,三星也将每次向ChatGPT提问的限制减少到1,024字节以内。如果再次发生类似事件,三星可能会切断ChatGPT服务,并对相关人员进行处罚。这些事件凸显了生成式人工智能在企业数据安全管理中可能带来的风险,同时也表明了企业在使用此类技术时需要采取更为谨慎和严格的数据保护措施。

 

参考资料

 

[1] 2023世界经济论坛,《2023年十大新兴技术》,2023年6月 

[2] 清华大学人工智能研究院,《深度合成十大趋势报告(2022)》,2022年2月 [3] 钭晓东,论生成式人工智能的数据安全风险及回应型治理,2023年9月

[4] https://www.gov.cn/zhengce/2022-11/26/content_5728941.htm 

[5] 国家互联网信息办公室,《互联网信息服务深度合成管理规定》,2022年11月 

[6] 中华人民共和国《数据安全法》第二十七条、第二十九条、第三十条

[7] https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm

[8] 美国白宫科技政策办公室,《人工智能权利法案蓝图》,2022年10月

[9] https://gdpr-info.eu/ 

[10] 世界互联网大会人工智能工作组,《发展负责任的生成式人工智能研究报告及共识文件》,2023年11月

 

RECOMMEND
相关推荐