AI 代理完成了 KYC 审核,另一个代理冻结了交易,第三个起草了可疑活动报告(SAR)。当某项决策被证明是错误的——一位合规客户遭到冻结、一起真实犯罪被漏判、一份 SAR 存在重大错误——监管机构必然会追问一个简单而尖锐的问题:谁来负责?对于当前已部署代理型 AI 的大多数机构而言,这个问题没有清晰的答案。这个空白不是技术问题,而是治理危机。
从辅助工具到自主代理
合规领域 AI 的第一波浪潮天然是"副驾驶"模式:模型提出建议,人类接受或拒绝,问责责任始终归属于人。代理型 AI 打破了这一模式。AI 代理不再是建议者,而是决策者——并付诸行动。它自主发起、排序、升级,有时在无任何人工接触的情况下完成整个案件处置流程。在金融犯罪工作流中,这一转变尤为关键,因为每项决策都具有法律效力:交易冻结意味着剥夺资金,SAR 是正式的监管申报,客户退出是具有声誉影响的永久性动作。
其吸引力显而易见。据估计,AI 增强型欺诈操作的收益是传统方式的 4.5 倍,正是因为它的运作速度超越了人工审核周期。将人类置于每个决策环节的机构,在结构上比对手慢一步。代理型 AI 可以弥合这一速度差距——但前提是机构必须在部署之前不是监管调查之后,回答清楚问责问题。
问责空白
传统合规治理建立在指名责任人的基础上。反洗钱合规官(MLRO)依据英国 2017 年《反洗钱条例》承担个人刑事责任。美国的 BSA 合规官承担对等职责。新加坡金融管理局(MAS)第 626 号通告要求指定个人对反洗钱/反恐融资计划承担责任。这些框架均预设由人类做出决策。当 AI 代理做出决策时,这些框架便无从作答——而监管机构已开始注意到这一点。
现实中最直接的矛盾点在于 SAR。近期一项调查显示,85% 的合规负责人将 AI 问责列为首要关切;SAR 正是这一关切转化为法律问题的场域。SAR 是一份具有宣誓性质的文件。若由代理起草、填写并提交,或基于模型输出决定不予申报——谁来签署?谁来证明其准确性?是一年前批准该代理部署的 MLRO?还是训练模型的供应商?目前尚无任何司法管辖区对此有明确答案,这种模糊性对所有已将此工作流自动化却未建立书面问责链的机构构成敞口风险。
"我们批准了这套系统,但我们并未批准系统将做出的每一项决策。这一区别,经不起监管审查。"
——一级区域性银行首席风险官(CRO,姓名隐去)
三层治理架构
一、部署前风险定界
任何代理工作流上线前,机构必须出具书面风险评估,将代理可执行的每项操作映射至相应监管义务,为该义务指定内部责任人,并明确代理被允许自主行动与必须上报的条件边界。这份职责落在机构身上,供应商无从代劳。该定界文件须能完整经受第 166 条审查或 MAS 审查。
二、运行时护栏
护栏属于运行时约束代理自主权的核心机制,不能视为可选项。两类护栏不可或缺:确定性策略约束(代理不可逾越的硬性规则——例如,未达到最低证据门槛不得提交 SAR;高于特定风险评分的客户退出须经高管审批);以及针对阈值案件的人工介入触发机制(任何跨越既定重要性或新颖性阈值的决策,须在执行前路由至人工审核)。反洗钱合规官(MLRO)须能随时查阅护栏配置,并证明其符合现行政策。
三、事后审计与决策溯源
每项代理决策必须具备可回放性。这意味着不仅要记录结果,还要记录输入数据、模型版本、策略版本,以及产生该结果的推理步骤序列。模型版本管理与软件版本管理同等重要——若模型发生更新,机构必须能够还原特定 SAR 提交或特定冻结操作时运行的是哪个版本。决策溯源即审计轨迹;缺失审计轨迹,机构既无法证明合规,也无法有效应对监管认定,更无法从错误中系统性地汲取教训。
监管走向
尽管各地具体规则不尽相同,监管机构正在就相同的框架要求形成共识。EU AI Act 将 AML 系统列为附件三中的高风险 AI,触发强制合规评估、人工监督义务及部署前详细技术文档要求。MAS FEAT 原则(公平、伦理、问责、透明)要求新加坡受监管机构确保 AI 决策可解释,且在整个模型生命周期中问责责任清晰归属。FCA 的模型风险管理指南(由 SS1/23 强化)将模型治理定位为董事会层面事务,不是技术部门事务。新加坡 IMDA AI 治理框架同样将人工监督与决策可追溯性列为基准要求。
四套框架呈现出相同的规律:可解释性、高风险决策节点的人工监督,以及从模型到指名个人的书面问责链。现在即着手构建的机构,将发现监管审查可以从容应对;未做准备的机构,将为第一次审查付出高昂代价。
对 AI 治理团队的启示
- 在采购前确立问责映射。供应商提供的每项代理能力,须在合同签署前映射至内部责任人。"供应商负责"不构成任何金融监管机构认可的问责链。
- 将护栏配置视为政策文件。护栏不是工程决策,而是合规政策的代码化表达。应由合规职能部门起草,纳入版本管理,并与机构 AML/CFT 计划同周期审查。
- 从第一天起就为可回放性而构建。决策日志、模型版本管理和输入数据捕获,无法在部署后追加。架构若在上线时不产生可回放的审计轨迹,在监管压力下同样不会产生。
WIDTH 平台将这一问责架构作为首要设计原则,不是事后补充。代理识别(KYA)为平台内每个运行中的 AI 代理建立身份、权限与问责边界。AI 合规官(AI Compliance Officer)在单一可审计界面中呈现决策溯源、模型版本历史与护栏配置——当监管机构追问"谁来负责"时,机构在审查开始之前便已备有经过记录、站得住脚的答案。