自主執行,全程可控
WIDTH 的 AI 代理在身份、行為、交易與網絡關係等全維度資料訊號上進行推理。每一個決策均附帶完整推理鏈,符合 MAS FEAT(公平、道德、問責、透明)原則及 EU AI Act 附件三對高風險 AI 系統可解釋性的強制要求;每一個動作均可回滾,每一條軌跡均可審計。
WIDTH 的 AI 代理在身份、行為、交易與網絡關係等全維度資料訊號上進行推理。每一個決策均附帶完整推理鏈,符合 MAS FEAT(公平、道德、問責、透明)原則及 EU AI Act 附件三對高風險 AI 系統可解釋性的強制要求;每一個動作均可回滾,每一條軌跡均可審計。
推理、決策、解釋三個循環在每位客戶和每個事件上並行運作,無交接、無上下文丟失。該架構直接響應 MAS FEAT 原則對 AI 系統"道德性"與"問責性"的雙重要求,確保每個自動化決策均有人類可理解的依據。
推理循環持續攝取 KYC 資料、交易記錄、裝置訊號與網絡關係上下文,實時更新每位客戶的動態風險圖譜。圖譜同步呈現給人類分析師,並標註 AI 當前假設與置信度——滿足 FATF 基於風險方法(RBA)對持續盡調(ongoing CDD)的要求,以及 Wolfsberg 原則對"全面客戶檔案"的標準(基於40+訊號源融合,行業調研資料)。
探索圖譜 →AI 採取的每一個操作——放行、暫停、升級、提交 SAR——均受機構書面合規政策約束,不得越權執行。政策即程式碼的設計直接滿足 MAS Notice 658 對個人問責制的要求:每條決策均可追溯至具體政策條款與授權審查員,確保監管檢查時責任鏈清晰。
檢視政策 →為每個警報標記生成通俗易懂的中文敘述,引用具體證據與規則條款。敘述格式符合金融情報單位(FIU)對 SAR/STR 敘述部分的質量要求,亦契合 IMDA《AI 治理框架》對 AI 決策說明的透明度標準,分析師可直接作為申報底稿使用。
檢視示例 →AI 自動放行低風險客戶(適用 SDD 簡化盡調)、自動暫停製裁明確命中,並將需要 EDD(增強盡調)判斷的模糊案例路由給分析師。人機分工設計符合 FATF RBA 指引對"風險比例原則"的要求,確保高風險決策保留人工稽核節點,滿足監管機構對自動化決策的問責預期。
案件管理原理 →每次模型變更均被版本記錄、簽名並可逆,由機構風險委員會獨立審查後方可上線。治理流程符合 FCA SS1/23《模型風險管理》對模型變更審批的要求,以及 MAS Notice 658 對高階管理層對 AI 模型負有最終問責的監管預期。
檢視治理 →每次模型運行均測量輸入分佈漂移、輸出分佈漂移與人口公平性差異 — 在漂移觸及 MAS FEAT、EU AI Act 第15條或 NIST AI RMF 閾值前預警模型風險團隊。生產環境無靜默退化。
瞭解模型風險 →大多數合規供應商將大語言模型(LLM)疊加在傳統規則引擎之上。結果是:決策速度更快,但推理鏈斷裂、審計軌跡碎片化,無法滿足 MAS FEAT 原則對可解釋性的要求,也難以透過 FCA SS1/23 模型風險管理框架下的監管審查。