## OpenClaw火爆引爆AI治理困境：智能体‘会做会说’，责任归属与风险测评难度指数级攀升
OpenClaw的爆火，将人工智能治理的核心矛盾——‘科林格里奇困境’——推到了聚光灯下。技术迭代速度远超监管跟进能力，而当智能体（Agentic AI）真正嵌入工作流与社会系统后，责任界定与风险管控的复杂性将呈指数级增长。学界警告，传统的单一责任主体框架正在失效，治理滞后正从理论担忧演变为迫在眉睫的实践危机。

这一困境的核心在于智能体改变了‘行动主体’的本质。清华大学教授陈昌凤指出，智能体不再是仅被动执行指令的工具，而是能自主拆解任务、调用工具、协调流程的‘行动参与者’。一项任务的完成，是模型、工具、平台、部署者、使用者等多方共同作用的产物。一旦执行出错，责任往往分散于整个协同链条，而非单一节点失灵。陈昌凤强调，‘治理的实质是规范设定权’，但权力与责任归属的模糊变化，使得现有治理框架显得捉襟见肘。

更严峻的挑战在于风险测评。上海计算机软件技术开发中心的专家陈敏刚表示，智能体的测评难度比传统大模型‘不止一个量级’，甚至可能是指数级提升。原因在于，智能体不仅能‘说’（生成内容），更会‘做’（执行任务）。在实际运行中，它可能调用多种工具，出现多智能体协作、分身执行等复杂情形。测评因此不再只是评估‘答得对不对’，还必须同时监控‘做得安不安全、准不准’。这直接加剧了幻觉、安全攻击、数据泄露及大模型滥用等已知风险的管控难度，使得治理落地面临前所未有的直接挑战。
---
- **Source**: 澎湃新闻 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能治理, 科林格里奇困境, Agentic AI, 风险测评, 责任归属
- **Credibility**: unverified
- **Published**: 2026-04-01 08:59:34
- **ID**: 44967
- **URL**: https://whisperx.ai/en/intel/44967