中國人工智慧產業發展聯盟聯合騰訊、百度、華為等機構發布全球首份針對 OpenClaw 類 AI 代理框架的官方風險管理規範,識別六大技術風險與三大管理漏洞,但規範能否跟上部署速度,仍是未知數。 (前情提要:B.AI 正式上線:破除 A2A 協作壁壘,以全景基建解鎖智慧體經濟潛能) (背景補充:阿里巴巴 HappyHorse 快樂馬模型空降 AI 影片生成榜首,超越 Seedance 2、效果差異一次看(API 4 月底開放)) 中國人工智慧產業發展聯盟(AIIA)今(10)日發布《OpenClaw 類智慧體部署風險管理指南》,參與編寫的機構包括中國資訊通訊研究院、騰訊、百度、華為、科大訊飛。這份檔案的定位是:全球首份針對 OpenClaw 類 AI 代理框架的官方風險管理規範。 時間點值得注意。就在數週前,中國國家安全部才對外示警 OpenClaw 的四大安全隱患;同期,OpenClaw 龍蝦基金會宣布輝達與位元組跳動加入,中國使用者規模持續擴張。 六大技術風險:從工具呼叫到幻覺決策 報告識別的六大技術風險,覆蓋 OpenClaw 類框架的核心能力鏈:讀檔、執行程式碼、呼叫工具、自主完成任務,每一個環節都被標記為潛在攻擊面。 具體風險包括:工具呼叫安全風險(Tool Call Security)、上下文注入風險(Context Injection)、提示注入風險(Prompt Injection)、資源過度消耗風險(Resource Exhaustion)、資料洩露風險(Data Leakage),以及幻覺與錯誤決策風險(Hallucination & Erroneous Decision)。 幻覺風險在傳統語言模型中是輸出品質問題,在 AI 代理框架中則變成執行風險。模型產生錯誤判斷後,系統可能直接採取行動,而非等待人工確認。這是 OpenClaw 類框架「自主性」的代價,報告將其列入技術風險,某種程度上是承認了代理框架與純生成模型在風險結構上的本質差異。 三大管理漏洞:人的問題比技術更難處理 技術風險之外,報告另列三大管理風險:許可權配置不當、審計日誌缺失、供應鏈安全風險。 這三項的共同點是:都不是模型本身的問題,而是部署與運維環節的人為疏失。許可權配置不當意味著代理框架獲得了超出業務需要的系統存取能力;審計日誌缺失意味著事後難以追溯代理的操作路徑;供應鏈風險則指向外掛、工具呼叫介面可能引入的第三方攻擊向量。 換句話說,即使 OpenClaw 本體執行正常,外圍管理失當仍可構成獨立風險源。 三條原則、三個階段:框架完整,落地待驗 同時報告提出三大核心原則:操作可信、許可權可控、風險可溯。並針對部署前、使用中、下線三個生命週期階段,提出具體管控建議,包括最小許可權原則、沙盒隔離、操作審計等措施。 這套框架在邏輯上是完整的。問題在於,OpenClaw 類框架的設計目標本身就是降低人工干預,讓代理自主規劃並執行任務。「可溯」的審計要求與「自主」的產品定位之間存在結構性張力,規範檔案無法靠條文消解這個矛盾,最終仍取決於具體部署場景的工程實作。 目前報告尚未公布強制執行機制或合規時間表。以過往中國 AI 治理檔案的慣例,發布指南與形成強制標準之間,通常存在相當的時間差。 相關報導 中國國家安全部警告「龍蝦養殖」:OpenClaw 埋四大安全地雷,你的裝置可能被接管 OpenClaw將成立「龍蝦基金會」獨立營運!輝達Nvidia、位元組跳動ByteDance確認加入 黃仁勳發表 AI Agent 平台 NemoClaw:一鍵為 OpenClaw 小龍蝦套上安全護欄〈中國官方發布 OpenClaw 龍蝦風管指南:揭六大技術風險,三條原則能堵住嗎?〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。