2026年1月22日,新加坡资讯通信媒体发展局(IMDA)在达沃斯世界经济论坛期间,正式发布《智能体人工智能示范治理框架(MODEL AI GOVERNANCE FRAMEWORK FOR AGENTIC AI)1.0版》(以下简称框架),这是全球首个由政府主导的Agentic AI(智能体人工智能或智能体AI)专属监管框架,填补了全球该领域权威性指导原则的空白,也为人工智能与数字法律实务提供了全新的参照标杆。本文将从法律视角拆解框架核心要点,剖析其对企业合规、责任认定的实务影响。
一、智能体AI的法律风险特殊性——为何需要专属治理框架?
不同于传统AI的被动响应、生成式AI的内容输出,智能体AI的核心特征的是“自主决策、主动行动”——它能通过规划推理、工具调用、多代理协作,独立完成用户委托的多步骤任务,甚至访问敏感数据、修改系统数据、执行支付等直接影响现实环境的操作。这种自主性,使其法律风险呈现出区别于传统AI的特殊性,也是新加坡推出专属框架的核心原因。
从法律实务角度看,智能体AI的风险本质是“自主行为的责任归属模糊”:
其一,它继承了传统软件漏洞(如SQL注入)和大语言模型固有风险(如幻觉、偏见),但风险通过工具调用、多代理交互放大,易引发级联效应(如一个Agent的错误决策传导至整个系统);其二,其自主操作可能突破权限边界,导致未经授权操作、数据泄露、系统破坏等侵权甚至违法后果;其三,多主体参与(开发者、部署者、终端用户、第三方供应商)导致责任分散,一旦发生损害,难以界定各方法律责任。
正如框架所强调,现有可信AI治理原则(透明度、问责制、公平性)仍适用,但必须转化为针对智能体AI的具体控制措施——这正是该框架的核心价值:将抽象的法律原则,落地为可操作、可落地的合规指引,破解智能体AI “自主行为无边界、责任归属无依据”的法律困境。
二、框架的核心四大维度
该框架面向所有自主研发或使用第三方智能体AI的企业,围绕“风险管控、责任落实、技术控制、用户责任”四大核心维度展开,每一项均与法律实务紧密相关,本质是为企业搭建智能体AI全生命周期的合规体系。
(一)预先评估和限定风险:合规前置,划清行为边界
框架将“风险预先评估”作为首要环节,核心是通过“场景适配+权限限制”,从源头降低法律风险,这与法律上“预防为主”的合规原则高度契合。
从法律实务来看,企业需重点关注两点:一是场景风险分级,结合智能体AI的部署领域(如金融、医疗、物流)、数据访问权限(敏感数据/公开数据)、行为可逆性(如删除数据/安排会议),判断其风险等级——例如,处理个人信息的Agent需严格遵循《个人信息保护法》,执行金融交易的Agent需符合金融监管规定;二是权限边界划定,遵循“最小权限原则”,通过身份管理、访问控制,明确Agent的操作范围,确保其行为可追溯、可管控,这是后续责任认定的基础(若Agent超出权限造成损害,企业可据此主张自身无过错)。
值得注意的是,框架强调“威胁建模”和“残余风险评估”,这要求企业不仅要识别风险,还要对未完全规避的残余风险进行评估,确保其处于可接受范围——这一点呼应了法律上“合理注意义务”的要求,若企业未履行充分的风险评估义务,一旦发生损害,可能被认定为存在过错,承担相应的民事赔偿甚至行政责任。
(二)使人类有意义地承担责任
“人类最终负责”是框架的核心原则,也是解决智能体AI法律责任归属的关键——正如新加坡数字发展及新闻部长杨莉明所言,目前确定Agent本身的责任“为时过早”,但无论服务以何种方式提供,消费者保护法依然适用,企业必须明确内部角色与职责,落实问责机制。
从法律实务角度,这一维度的核心是“搭建问责链”,明确各方主体的法律责任:
1.组织内部责任:明确关键决策者(划定Agent使用场景、权限)、产品团队(确保合规部署、测试监控)、网络安全团队(防范安全风险)、终端用户(规范使用、及时报告问题)的职责,避免责任分散——若因内部职责划分不清导致Agent违规操作,企业需承担全部责任。
2.组织外部责任:与模型开发者、第三方供应商合作时,需在合同中明确义务分配,包括安全保障、数据保护、违约责任等——例如,若第三方提供的Agent存在漏洞导致数据泄露,企业可依据合同向第三方追偿,这为企业规避连带风险提供了法律依据。
3.人工监督的法律意义:框架要求在高风险操作(如修改敏感数据、大额支付)、不可逆操作前设置人工审批节点,这不仅是技术控制,更是法律上“过错免责”的重要支撑——若企业已履行充分的人工监督义务,因Agent突发故障导致损害,可减轻或免除责任;反之,若未设置必要的人工监督,将被认定为存在过错。
(三)实施技术控制和流程:将合规要求嵌入全生命周期
技术控制是智能体AI合规的核心保障,框架要求企业在开发、部署前、部署后三个阶段实施技术管控,本质是通过技术手段,确保Agent的行为符合法律规定和企业合规要求。
从实务来看,重点关注三个环节:
一是开发阶段,对规划推理工具、协议等新组件实施安全管控,防范攻击风险,避免因技术漏洞导致的侵权(如数据泄露);
二是部署前测试,不仅要测试任务执行准确性,还要测试政策合规性(如是否遵循个人信息保护规定)、工具调用合法性,确保Agent的行为符合法律边界;
三是部署后监控,建立实时警报、异常检测机制,及时干预违规行为,同时完整记录Agent的操作日志——这些日志将成为后续责任认定、纠纷解决的关键证据。
此外,框架强调“逐步部署”策略,建议企业优先在低风险场景、经过培训的用户中部署Agent,这符合法律上“审慎注意义务”的要求,可降低企业合规风险。
(四)启用终端用户责任
智能体AI的合规不仅依赖企业,还需终端用户的配合——框架要求企业通过透明度披露、分层培训,让终端用户了解Agent的权限范围、自身责任,这也是法律上“风险告知义务”的体现。
从实务来看,企业需区分两类用户的责任:
一是外部用户(如与智能客服交互的客户),需明确告知其正在与Agent交互、Agent的决策范围、数据使用规则,若未履行告知义务,可能构成对用户知情权的侵犯;
二是内部用户(如使用Agent处理工作流程的员工),需通过培训让其掌握Agent的操作规范、常见故障识别方法,若员工违规使用Agent导致损害,企业可依据内部规章制度追究员工责任,同时降低自身的连带风险。
三、框架的实务价值与潜在法律思考
作为全球首个政府主导的智能体AI治理框架,其核心价值在于“填补空白、落地合规”——它没有简单套用传统AI的治理模式,而是针对智能体AI的自主性特征,将法律上的“问责制、透明度、公平性”原则,转化为可操作的流程和措施,为企业合规提供了明确指引,也为司法实践中责任认定提供了参考依据。
从法律实务角度,该框架对企业的启示尤为重要:
第一,合规前置是降低法律风险的关键。智能体AI的自主性决定了其风险具有不可预测性,企业需在规划阶段就开展风险评估、划定权限边界,避免“先部署、后合规”,否则可能面临行政处罚、民事赔偿等法律后果。
第二,责任划分是破解纠纷的核心。框架明确的“人类最终负责”原则,为司法实践中智能体AI侵权纠纷的责任认定提供了基本遵循——无论Agent的自主性如何,企业作为部署者、管理者,均需承担主要责任,这要求企业必须建立完善的问责机制,明确各方主体的职责。
第三,证据留存是应对纠纷的基础。框架强调的操作日志、测试记录、监控数据等,均是纠纷发生时的关键证据,企业需建立完善的证据留存机制,避免因证据不足无法主张自身无过错。
同时,该框架也留下了一些值得法律实务界进一步探讨的问题:例如,多代理协作场景下,多个Agent交互导致的损害,如何界定各Agent部署者的责任;Agent的“自主决策”达到何种程度时,可适当减轻企业的责任;随着技术发展,Agent本身是否可能成为法律上的责任主体等。
新加坡的这份框架不仅为企业提供了合规指引,也为全球智能体AI的法律治理提供了参考样本。
对于我国企业而言,无论是否部署了智能体AI,都可借鉴该框架的核心思路,提前搭建AI合规体系,明确责任边界,防范法律风险。后续,随着新加坡逐步推出智能体AI测试准则,以及全球智能体AI技术的快速发展,相关的法律问题也将不断涌现。我们将持续关注该领域的政策动态与司法实践,为企业提供专业的AI与数字法律合规服务,助力企业在技术创新与法律合规之间实现平衡。
点击“阅读原文”查看《MODEL AI GOVERNANCE FRAMEWORK FOR AGENTIC AI》原文。