2026年1月26日正式发布的OpenClaw(曾用名 Clawdbot,又曾用名 Moltbot)是一个开源框架,能把 AI 模型(或多个模型)变成一个主动的"数字团队",可以控制你的整台电脑并访问互联网。
虽然没有去实践,但看到莫唯书写的文字,很受启发——OpenClaw催生人机共生环境的协同进化。
当前AI应用的矛盾,恰如让一位战略家用绣花针执行战术——我们赋予AI强大的认知能力,却强迫它在为人类设计的GUI界面中笨拙操作。这种错配导致技术优势被旧体系消解。
真正的瓶颈不在于AI不够聪明,而在于世界尚未为它的聪明做好准备。
他的文章中提及三大重构路径正成为破局关键:
其一,工具API化不是简单开放接口,而是重构软件设计哲学——就像为内燃机发明汽油,而非要求它模仿马匹吃草。
其二,工作流原子化需要穿透行业黑箱,将“安排出差”这类模糊指令拆解为可编程的标准化模块,这本质上是将人类经验转化为机器可执行的知识胶囊。
其三,信任机制可视化必须超越技术层面,构建如飞机黑匣子般的决策追溯系统,让人能在关键节点注入判断,形成“AI执行-人类监督”的动态平衡。
这场变革的终极图景,绝非AI取代人类,而是催生新的文明协作形态。
当AI能像电力般无缝融入基础设施时,人类将从重复操作中解放,转而专注创造性与价值判断——就像建筑师不必亲手烧制砖块,却能建造更伟大的殿堂。
但是,安全问题没有得到足够重视,人机共生环境重构还需补充第四条路径。
其四,风险控制与伦理机制的内生进化:
(1)安全必须成为架构第一性原则:OpenClaw的沙箱与审批设计代表了其在平衡AI能力与系统安全方面的工程努力,然而,从实际发生的通过技能文件投毒、大规模网络暴露到严重的远程代码执行漏洞等事故可以看出,这些设计在面对精心构造的社会工程学攻击、不当的用户配置、以及自身协议与实现的漏洞时,防护效果是有限的。它警示我们,赋予AI系统级权限是一项高风险工程。
(2)共生关系需要动态治理:基于智能体社会异化的研究,人类监督(“人在环”)不能是静态的,而需设计成能随AI能力进化而升级的动态治理框架。
(3)呼唤同步进化的社会规则:OpenClaw更名风波,也能看出技术进化在倒逼法律、伦理标准需要及时更新。
最终,这场“人机共生环境进化”的成功,不仅取决于我们能否建造更强大的“数字团队成员”,更取决于我们能否同时为它们设计好不可逾越的“行为准则”、能理解其变化的“社会法律”以及当关系失调时可靠的“紧急制动阀”。
未来AI的广泛落地,或许正取决于我们能否率先完成这场“技术-安全-治理”协同的人机共生环境的进化。