从点燃市场的通用AI智能体Manus发布,到被称为“龙虾”的开源AI智能体OpenClaw的持续火爆,再到阿里、百度等互联网企业密集部署桌面Agent工具,AI智能体正以前所未有的速度从代码世界走入工作与生活场景。
在“7×24小时数字员工”“一人公司”等愿景加速成为现实的同时,深圳、无锡等地近期相继出台政策,支持OpenClaw等开源智能体项目在制造、政务等领域的实际应用。然而,技术成熟度、安全治理与产业生态面临的挑战也随之显现。业内专家认为,AI智能体正处于从技术探索迈向规模化应用的关键“跨越期”。
技术本质:“初级实习生”而非全能管家
与用户熟悉的ChatGPT、豆包等对话式AI不同,近期走红的OpenClaw等执行型智能体在技术定位上有着本质差异。
清华大学中国创新服务研究院院长郑吉昌表示,AI智能体可以被理解为一种“既会思考,也能执行”的数字员工。两者的核心差异在于是否具备“闭环执行能力”。AI智能体能够对接ChatGPT等各类大模型进行深度思考和生成内容,与传统AI助手不同的是,它还具备“动手能力”——通过调用系统权限和自动化工具,它可以像人一样在电脑上执行具体操作。
不过,从技术本质来看,对于“AI开始自己行动”的说法仍需要更加理性看待。郑吉昌指出,目前,AI智能体更像一位需要精心调试的“初级实习生”,虽然在特定场景下能高效完成任务,但也常出现理解偏差或操作失误。离大众期待的、稳定可靠的自主智能还有相当距离。
安全风险浮现:工信部发布“六要六不要”提示
随着AI智能体开始接入邮件系统、代码仓库、数据库等关键业务环境,其潜在风险逐渐显现。有360数字安全集团安全专家指出,前期由于OpenClaw智能体在安装部署和使用过程中的不当配置,已经出现了一些典型安全风险。
3月11日,工信部网络安全威胁和漏洞信息共享平台发布关于防范OpenClaw开源智能体安全风险的“六要六不要”建议。工信部明确四大典型应用场景安全风险:智能办公场景主要存在供应链攻击和企业内网渗透的突出风险,开发运维场景主要存在系统设备敏感信息泄露和被劫持控制的突出风险,个人助手场景主要存在个人信息被窃和敏感信息泄露的突出风险,金融交易场景主要存在引发错误交易甚至账户被接管的突出风险。
对此,工信部建议:使用官方最新版本,严格控制互联网暴露面,坚持最小权限原则,谨慎使用技能市场,防范社会工程学攻击和浏览器劫持,建立长效防护机制。
从“可用”到“可靠”:规模化应用的三重突破
郑吉昌认为,智能体从“可用”迈向“可靠”面临关键瓶颈,而突破这一瓶颈需要从三个方向发力。首先是基础设施革新,必须为智能体搭建高性能、高安全的“运行底座”。其次是架构进化,要推动智能体从单一模型向“感知-推理-执行-自进化”的闭环演进。最后是治理与协议,为智能体立下“安全规矩”,建立统一的安全与责任框架,例如要求智能体在任何操作中继承用户的权限边界,实现全链路可追溯。
“只有基础设施、架构设计和治理规则的同步突破,智能体才能真正赢得用户的信任,成为数字世界中可靠的执行者。”郑吉昌表示。
在国研新经济研究院创始院长朱克力看来,应该从技术架构、任务设计和验证机制等多个方面进行努力。强化规划与反思能力,使智能体在执行过程中具备自我检查、纠错和动态调整的能力;建立人机协同机制,在关键操作节点保留人工确认与监督;完善行业标准与测试体系,形成可量化、可验证的可靠性指标。
