智能体法治监管挑战与应对
AI智能体迅速发展,但其在实际应用中因技术逻辑变化引发的安全风险等问题不容忽视。对智能体的监管和有效规制,应在充分理解技术逻辑基础上,结合具体技术特征设计与之相适应的规制规则。
过去几个月,AI智能体迅速发展,大模型在应用端已实现从“被动交互对话”到“自主执行任务”的进阶。2026年开年以来,一款名为OpenClaw的开源人工智能体(昵称“龙虾”)在全球科技圈迅速走红,成为人工智能领域的新热词,引发社会广泛关注。
与此同时,在AI智能体的实际应用中,因技术逻辑变化引发的安全风险等问题同样不容忽视。近期,针对国内一些政企机构及个人用户的“养龙虾”热潮,工信部、国家安全部等监管部门接连发出安全风险提示。
今年全国两会期间,2026年政府工作报告明确提出“深化拓展‘人工智能+’,促进新一代智能终端和智能体加快推广,推动重点行业领域人工智能商业化规模化应用,培育智能原生新业态新模式”。作为“人工智能+”的重要实践形态,AI智能体的快速落地既需要政策层面的鼓励支持,更离不开法治框架的规范引导。
当前,新一轮科技革命和产业变革加速演进,人工智能已成为引领这一轮科技革命和产业变革的战略性技术,正在深刻改变全球经济格局和竞争态势。全球主要经济体都将人工智能视为重塑制造业竞争力的关键抓手。在此背景下,我国应如何应对智能体发展带来的法治难题?中国政法大学人工智能法研究院院长张凌寒接受民主与法制社记者专访时表示,智能体互联网正在成为人工智能与网络空间深度融合的重要趋势,对智能体的监管和有效规制,应在充分理解技术逻辑的基础上,结合具体技术特征设计与之相适应的规制规则。
智能体改变现有互联网生态
2025年1月,生成式人工智能DeepSeek在全球爆火。此后一年间,各类生成式人工智能应用迅速走入大众市场,与人类生活、办公等应用场景深度融合。AI公司竞相追逐谁的模型更强、更“聪明”,并在产品数量、模型性能及用户规模等方面持续向好发展。
智能体到来后,AI不再靠“死记硬背”被动执行指令,而是开始自主去理解任务目标、与环境交互、进行深度推理、调用外部工具与服务、与其他智能体协作以完成各项任务。
OpenClaw作为开源模型,由用户自主安装部署、自行配置权限功能,在用户授权下可以直接操作电脑,自主执行包括读写本地文件、整理文档、安装软件、发送邮件等任务。这对以往互联网生态中的系统安全架构、数据流转、责任链条等都产生了冲击。
有观点认为,互联网的下一站是从“信息互联”迈向“智能体互联”,AI智能体将成为网络的“原生公民”。
张凌寒表示,智能体互联网的确正在成为人工智能与网络空间深度融合的重要趋势。智能体互联网的核心在于,从当前以信息传递与呈现为主的信息互联网,转变为以自主交互与任务协同为特征的行为互联网。这意味着过往的“人找信息、人操作应用”变为“机器主动理解需求、自主完成调度服务”,这将显著提升社会整体的智能化水平。
AI智能体的迅猛发展,引发社会各界对其中的安全治理、人机关系、技术路径等问题的关注。
张凌寒说:“智能体带来的影响更多来自其与现有应用平台生态、风控策略及用户习惯之间的碰撞。智能体的操作过程涉及多个应用与数据接口的调用,如何确保所有操作均符合用户真实意图并在法律法规与授权范围内进行,需要持续关注。”
在技术设计、协议标准与制度安排等方面进行审慎平衡
3月10日,国家互联网应急中心发布关于OpenClaw安全应用的风险提示称,由于其默认的安全配置极为脆弱,攻击者一旦发现突破口,便能轻易获取系统的完全控制权。
该风险提示指出,由于OpenClaw智能体的不当安装和使用,已经出现一些严重的安全风险:网络攻击者通过在网页中构造隐藏的恶意指令,诱导OpenClaw读取该网页,可能导致用户系统密钥泄露;由于错误理解用户操作指令和意图,OpenClaw可能会将电子邮件等重要信息彻底删除;多个适用于OpenClaw的功能插件已被确认为恶意插件,或存在潜在的安全风险,安装后可执行窃取密钥等恶意操作。
“智能体自主操作与用户自行操作相比,主要体现在执行主体和交互方式的不同。”张凌寒表示,过去用户需要在不同平台间手动切换,现在AI智能体可以理解指令,并跨应用平台自动调用功能,跳过了应用界面限制。这种互操作性的增强可能促进数据与资源的流动,有利于创新与协作,但也确实会对企业现有竞争优势格局产生一定影响。同时,还可能引发用户隐私、安全及权益保护等问题。
张凌寒认为,要综合考虑市场实际与监管要求,在技术设计、协议标准与制度安排等方面进行审慎平衡,才能促进智能体向善发展。
张凌寒表示,在获得手机或电脑系统、用户及各应用软件等授权的前提下,可以通过多种技术途径增强智能体操作的安全性,进一步保障智能体在实际应用中的合规性与可靠性。例如,实施关键操作前的动态确认机制、建立全流程可追溯的操作日志、用户实时干预与任务终止、持续关注补丁和安全更新、版本更新等功能。这些措施有助于提高智能体行为的可控性与透明度,推动智能体在安全性和用户体验方面不断改进。
结合技术特征设计不同的规制规则
智能体给法治监管层面带来的挑战是多方面的。张凌寒表示,从法律与监管视角看,AI智能体的发展对现有规范与技术的结合提出了新的要求。随着智能体技术的发展与应用,需重点适应以下几个方面的变化:一是需进一步研究如何在智能体参与的多方协作场景中,合理明确各相关方的权责关系,以支持法律体系的持续完善。二是智能体具备跨应用调度与执行能力,这对行为可追溯性与系统可控性提出了更高的技术要求,相关机制有待在实践中逐步建立与验证。三是如何在智能体运行过程中持续落实个人信息保护法、网络安全法、数据安全法等相关法律法规,值得研究。比如,如何在动态、连续的交互场景中落实用户知情同意机制,确保用户知情同意与数据安全等。
以智能体运行中的授权机制为例,张凌寒表示,目前,我国尚未专门针对智能体的授权机制进行立法规制。在现有法律框架下,涉及用户授权、数据调用及跨应用操作等行为,仍属于行业实践与自律探索阶段。
“AI智能体的授权机制是一个多元化、多层次的复杂系统,不同授权模式对应着差异化的技术实现路径,而这些技术路径又需要匹配相应的法律规制框架,需要结合具体技术特征再去设计不同的规制规则。换句话说,有效规制必须建立在充分理解技术逻辑的基础上,这需要足够的耐心与系统性的工作,无法简单地一概而论,也不能一蹴而就。”张凌寒表示,总体而言,法律与监管需要持续探索适应性治理路径,这一过程既需要理论层面的深入研究,也离不开在实践中的持续试错与机制完善。
在促进产业生态发展方面,张凌寒认为,智能体的部署与应用涉及多方协作,需在鼓励创新与促进公平竞争之间寻求平衡,可推动建立适应智能体发展的数据使用与互联互通规范,鼓励在合规前提下开展技术协作与生态建设。通过行业标准引导、技术测试验证与持续评估改进,也可以推动智能体在法律框架内稳步发展,实现安全与创新的协同推进。
