OpenClaw火爆,AI治理如何穿越“科林格里奇困境”

专属客服号

微信订阅号
大数据治理
全面提升数据价值
赋能业务提质增效
OpenClaw火爆,AI治理如何穿越“科林格里奇困境”
“在技术发展的早期,我们往往不知道该不该管;等到看清楚问题,又已经很难再改。”OpenClaw的火爆,引发了学界对于人工智能监管的新思考。3月29日,在复旦大学 “科林格里奇困境与人工智能治理创新”跨学科论坛上,多位参会人员表示,随着Agentic AI的加速落地,人工智能治理正更加集中地暴露出“科林格里奇困境”:一方面,技术迭代过快,治理往往跟不上;另一方面,一旦智能体真正进入工作流和社会系统,责任界定、风险测评和监管落地的难度都会明显上升。
Agent把治理难题往前推了一步
清华大学新闻与传播学院教授、博士生导师陈昌凤在题为《OpenClaw之后:AgenticAI的入口之争与治理节奏》的演讲中指出,当前信息获取与分发的逻辑正在经历变化:以OpenClaw为代表的智能体出现后,新的流量入口正逐步转向以“智能体”为中心的任务驱动方式。
在她看来,这一变化的关键更在于“行动主体”正在发生改变。
陈昌凤指出,在智能体时代,一项任务的完成往往不再是单一主体的结果,而是模型、工具、平台、部署者、使用者等多方共同作用的产物。过去那种相对清晰、可识别、可追责的单一责任主体结构,正受到冲击。
Agent已经不再只是被动执行指令的工具,而是能够自主拆解任务、调用工具并协调流程的“行动参与者”。一旦执行中出现偏差或错误,责任往往不是某一个单点失灵,而是由模型、工具、平台及相关参与主体共同构成的链条所导致。传统责任归属框架,在这种多主体协同、责任分散的结构中,开始显得不够用。
“治理的实质是规范设定权,这是最核心的方向。权力责任的变化怎么归属,治理总是滞后,这是为什么。”陈昌凤说。
智能体不只会“说”,还会“做”,测评难度陡增
如果说责任归属的变化,是智能体时代带来的制度性新问题,那么测评难度的上升,则是治理落地层面的直接挑战。
上海计算机软件技术开发中心AI治理研究所、上海生成式人工智能质量检验检测中心的陈敏刚表示,人工智能快速发展带来了更严峻的安全与治理挑战,包括幻觉、安全攻击、数据泄露以及大模型滥用等风险。而在OpenClaw火爆后,智能体的测评难度比传统大模型测评高出“不止一个量级”,甚至可能是指数级提升。
原因在于智能体不仅能生成内容,还能执行任务。在实际运行中,它可能调用多种工具,也可能出现多智能体协作、分身执行等复杂情形。测评因此不再只是看“答得对不对”,而要同时关注任务是否完成、过程是否连续、遇到异常时能否恢复,以及失败究竟发生在哪个环节。
“它不仅能‘说’,还能‘做’。”陈敏刚说,在这种情况下,测评需要跟踪任务执行过程,进行Case级别的过程追踪和失败定位,难度明显提高。
陈敏刚以北京大学与香港大学团队基于OpenClaw场景开源真实测评框架ClawEval为例,认为这或许是智能体测评方向的新进展。公开信息显示,ClawEval构建了接近企业日常运行的模拟环境,涵盖邮件、日历、待办事项、财务系统、工单系统等15类典型业务系统,并纳入网页浏览和终端操作场景,形成多系统协同测试环境。
要前移到“技术设计阶段的嵌入式”治理
面对AI治理滞后于技术发展的现实,不少与会者都提到,治理需要进一步前移。
东南大学人文学院教授、AI伦理实验室主任王钰在论坛上介绍了东南大学发布的系统级伦理垂域大模型“问道”的实践。2025年11月,东南大学发布“问道”模型,尝试将中国传统哲学智慧与西方伦理框架结合,形成面向人工智能伦理分析与应答的模型体系。
据介绍,“问道”在输出建议时,会标注推理依据与伦理原则来源,并提示结论的不确定性,以增强可解释性。研发团队由文、理、工、医等多学科背景成员组成:工科负责将伦理原则转化为可执行的工程代码,文科则提供伦理学、哲学、法学等价值判断基础。
王钰表示,团队希望将“问道”定位为一种“伦理基础设施”,应用于风险评估、审计、模拟决策推演、辅助设计和知识库构建等环节,并在此基础上衍生不同场景下的Agentic AI应用。目前,该模型已开始与政府及企业对接,参与地方数据治理和模型备案等讨论,并在教育、政务等场景中探索落地,团队也正在推进2.0版本升级。
在她看来,这项实践的意义,正在于推动治理逻辑前移——从“技术完成后的审查”,转向“技术设计阶段的嵌入式治理”。
“随着人工智能逐步深入数据、算法乃至系统入口层面,伦理问题不再只体现在结果上,而是贯穿整个技术链条。”王钰说,因此有必要在数据、算法与系统设计阶段就引入伦理约束,实现全流程治理。
不过,她也坦言,这一方向目前仍处在探索中,尤其如何进一步打通传统伦理与现代技术之间的衔接,仍有待深化。
企业期待更动态、更可执行的规定
相比学界更强调治理前移,企业更关注的是规则如何真正可执行,并在安全、创新与公平之间形成平衡。
脱胎于复旦大学未来信息创新学院的具身智能公司眸深智能联合创始人胡斐表示,从企业视角看,当前人工智能监管确实存在一定滞后性,但企业并不排斥监管。相反,一旦有明确规范,不仅有助于提升技术壁垒,也能让企业在发展过程中获得更强的安全感。
他认为,企业对AI治理的核心诉求主要有三点:安全可控、促进创新、保障公平。其中,促进创新尤其关键。治理框架、约束条款和可控机制,应该尽量兼顾公平性,避免形成对部分企业不利的偏向。
基于企业实践,胡斐提出两点建议:一是推动AI治理的分类分级,二是探索“沙盒监督”。
在分类分级方面,他认为,可以借鉴食品安全、影视审核等领域的经验,按照“识别风险—分类分级—差异化监管”的思路推进更精准的AI治理。企业内部目前也在用类似方式管理项目,对不同项目进行S级、A级、B级、C级分级,以判断可行性、投入人力和优先级。
他同时提到,AI治理规则不应被视为一套长期不变的静态制度,而应随着技术演进持续增补和优化。尤其在全球尚未形成统一AI立法、处罚标准也不清晰的背景下,动态调整将更符合行业实际。
在沙盒监督方面,胡斐认为,可以借鉴英国金融监管中的“监管沙盒”理念,为企业划定一条可控的创新边界:在边界内,企业可以进行技术探索与试错;边界之外,则必须遵守明确监管规则,以确保风险始终处于可控状态。
在他看来,这种机制既能给创新留出空间,也有助于降低技术快速推进带来的外溢风险。
据了解,这次跨学科论坛同时也是复旦大学两大工程三期“人工智能伦理的中国之治研究”项目开题会。本项目以人工智能伦理的“中国之治”作为核心概念,将在比较研究、实证研究基础上,进一步探讨论证兼具敏捷治理、软法治理、柔性治理、人本治理与协同治理的“中国之治”如何更好地实现技术创新与风险规避的平衡。


