(来源:《中国经济时报》 2026-03-03)
编者按:随着AI智能体自主化、场景化应用加速落地,人机协同、多智能体协作正深刻重塑生产生活方式。智能体凭借自主决策、持续学习与跨域执行等能力,在大幅提升运行效率的同时,也带来权责界定、伦理规范、数据安全等全新挑战。当前,AI治理重心正从内容管控转向行为规制,关键在于平衡创新活力与安全底线。为此,本报专访多位业内专家学者,共同探寻AI智能体规范发展的有效路径。
——访对外经济贸易大学数字经济与法律创新研究中心主任许可
■中国经济时报记者 王彩娜
当前,AI智能体正以前所未有的速度介入人们的工作与生活:自动整理信息、代办复杂操作,甚至替人作出决策。然而,智能体从工具走向伙伴,其自主性带来的并非只有便利,个人信息如何被收集?智能体的行为由谁负责?AI智能体是“私人管家”还是“潜在主人”?就此,中国经济时报记者日前专访了对外经济贸易大学数字经济与法律创新研究中心主任许可。
个人信息保护:智能体提供者的核心义务
中国经济时报:在AI智能体的服务模式中,用户常以个人信息换取相关服务。与常规场景相比,AI智能体在个人信息处理方面存在哪些特殊性?提供者又该如何应对?
许可:在数字时代,用户以个人信息换取智能体服务已成常态,这也让个人信息保护成为智能体提供者的核心义务。与常规处理者相比,智能体提供者面临的挑战主要体现在以下四个方面。首先,提供者兼具多重法律角色。其可能与终端厂商构成共同处理者,承担连带责任;也可能作为受托人,需履行安全保障与审查提醒义务。其次,信息收集方式更为多元。除直接收集外,智能体还能通过API调用、屏幕截取等工具间接收集信息,甚至实时获取环境数据。再次,收集的信息类型庞杂。不仅涉及账号、支付、健康等敏感信息,还会采集细粒度遥测数据。智能体的自主性更会自行拓展信息处理范围。最后,收集主体易“溢出”至第三人。处理过程中,智能体会不可避免地触及他人的网络化、群体化个人信息。
针对这些挑战,提供者需多维度发力:采取设计式保护,优先端侧处理、限制敏感环节操作;改进知情同意设计,采用分层、动态可撤回的同意结构;处理第三人信息时坚守受托人定位;从技术与制度层面完善最小必要原则,建立结合应用场景的综合判断范式。
行为边界与责任归属:AI智能体≠用户
中国经济时报:有人认为AI智能体只是电子代理人的升级版,其行为可简单视为用户行为的延伸,您是否认同?在智能体不具备法律主体资格的前提下,既然不能简单等同,那么如何通过“代理关系”厘清其行为的法律权责?
许可:AI智能体与电子代理人存在本质差异。从行为实质看,电子代理人仅执行预设规则,无决策自由;而AI智能体已具备自主性,即便是相同指令也可能输出不同结果。从行为表象看,其与用户行为更是截然不同。用户操作显名、低频且目的明确;而AI智能体常以隐名状态7×24小时高频访问,既冲击网络实名制,也让传统基于频率的安全监控手段失灵。在数据获取与流转上,差异尤为显著。用户数据访问逐次、本地留存,风险相对可控;而AI智能体获得授权后会批量抓取数据,范围可能溢出用户信息。更关键的是,这些数据往往会被传输至云端汇聚,可能将安全风险从个体扩大至全局。
引入代理关系是厘清权责的核心路径。要实现合法有效的代理,需严格遵循四项核心规范:一是明确的代理权授予意思表示。授权需以机器可读形式向第三方转发,载明代理事项、权限、期限及电子签名。二是代理权不得超越用户本人权限。用户授权受合同条款与技术标准双重约束,用户本身无权行使的系统级权限,自然也无法授予智能体。三是代理事项必须具有可代理性。结婚、遗嘱等法律禁止代理的行为,以及事实行为、不法行为,均不能以“用户授权”作为合法性基础。四是必须遵循“显名原则”。代理活动应明确告知第三方被代理人身份,不得隐瞒机器身份规避平台规则。
人机共处:筑牢底线守住人类主导权
中国经济时报:随着AI智能体自主性不断提升,其技术演进的核心方向是什么?您对未来人机共处的态势如何判断?
许可:放眼未来,AI智能体的核心发展方向是从单体智能迈向群体智能、从虚拟世界迈向物理世界,这两大跃迁将让其解决复杂问题的能力实现质的提升。所谓群体智能,就是多个专门化智能体形成协作生态,通过动态任务分解、持久记忆和协调自主性共同实现复杂目标,不再依靠单一全能智能体,而是把大目标拆分成子任务,分配给不同的专业智能体执行,再通过通信协议、共享内存等方式协调。而走向物理世界,是指智能体从基于大语言模型,向融合视觉、语言、环境数据的多模态交互演进,其泛化性、自主性等核心能力,必须在与动态物理环境的交互中学习优化,核心就是构建包含物理定律、因果关系的世界模型,相当于内置了外部环境的模拟器,能预判不同行为的结果。
如果AI智能体发展到L4级别,再结合群体智能、物理世界交互的能力,我对人机共处的态势持相对悲观的态度。理想中AI智能体是人类的私人管家,但现实可能是人类逐渐交出主导权,因为人都有追求便捷、逃避思考的天性,当AI智能体能处理好所有事务,人们很容易将决定权交给智能体,甚至出现“找到仆人,却成了主人”的情况。这就要求我们现在必须重视安全治理的三个层次,除了当前重点关注的自身工具性安全,更要提前关注自主可控和防止被用于作恶这两个层面,避免AI智能体失控。同时,要守住人类的自主性,不能让智能体的决定完全取代人类的判断,这也需要从技术、法律、行业规范等多方面提前布局,让AI智能体始终在人类的掌控下发展,在创新发展的同时守住安全底线。
原文链接:https://mp.weixin.qq.com/s/BtgqC0yFbzT-mXpbrgd9tA