会议主题:智能体时代的授权理论消解与责任重构
主讲嘉宾:李文龙(浙江大学光华法学院)
与谈嘉宾:梅夏英(对外经济贸易大学法学院)、张吉豫(中国人民大学法学院)、李振华(蚂蚁集团研究院)
区分“AI Agent”(单个系统,侧重行为链)与“Agentic AI”(多智能体协同系统,侧重系统性目标)。
法律属性:智能体并非类人或超人主体,而是从信息处理走向行动赋能的“准自主工具”。它既非纯粹被动工具(如计算器),也非完全独立主体,具有移动自主性。
技术原理:以豆包手机助手为例,通过视觉语言模型解析屏幕内容,并调用底层权限(如Accessibility Service)打破应用间的“围墙花园”,实现跨应用操作。
超越自然语言授权:建立结构化表达机制,避免形式主义。
强化模型/平台责任:设定默认权限边界,区分高低风险场景。
过程正当性与溯源:确保授权过程的正当性,并通过日志披露、责任映射实现事后溯源。
质疑代理关系的适用:智能体不具备民事主体资格,与传统民法中的“代理”无涉。将其视为代理会导致责任归属混乱。
人际关系本质:智能体本质是高级自动化工具,属于人机交互范畴。其核心矛盾在于高自主性带来的高风险与控制需求之间的平衡。
责任承担路径:
私法层面:在相对确定的场景下,可依据过错责任或合同法追究开发者/运营者责任。
公法层面:针对算法黑箱导致的不可控风险,应视为公共安全问题,依靠技术规制和算法规制(如透明度、可解释性)而非传统侵权法解决。
小结:警惕冒进,在高频交易、自动驾驶等高危领域,配套法律措施未完善前,不应过度依赖智能体。
批判现有理论:反对将智能体拟制为独立主体,也批判抽象的“人在回路”原则缺乏实操性。
三重授权结构建议:
人类理解层:提炼核心关切(如支付行为),以直观方式呈现,避免认知过载。
机器理解层:采用符号化、精准的表达,便于智能体间交互识别权限。
法律表达层:保留格式化的法律文本作为纠纷解决依据。
小结:架构治理审慎论,支持“通过设计保护隐私”理念,但鉴于技术迭代迅速,法律介入系统设计应保持审慎,宜采用推荐性标准而非强制性规范,以免阻碍创新。
3. 李振华院长:行业视角下的中间层构建与责任细分
第一层:用户对智能体的授权(自然语言交互,存在模糊性)。
第二层:APP/商户对智能体的数据授权(传统协议授权,界限清晰,不应混淆)。
构建“中间层”机制:
意图确认与结构化:通过多轮对话确认核心要素(金额、对象等),转化为机器可读的结构化指令。
1. 关于行动者网络理论(ANT)的适用性(提问:肖远航)
梅夏英老师回应:ANT强调去中心化和网络化思维,有助于打破传统主客体二分法,正确看待人机关系。但其平等化思路在法律责任认定上存在局限,法律仍需通过预防措施防止人被技术表象迷惑,坚持技术的非人化属性以明确责任。
张吉豫老师回应:各部门法授权目的不同,但在智能体语境下,统一性的核心目标是“约束智能体行为不偏离用户意图”及“公平分配损害责任”。这种功能主义导向使得跨部门法的统筹考量成为可能。
3. 资产交易中如何认定偏离用户预期(提问:郭玉洁)
李振华院长回应:借鉴金融领域的“信义义务”,从六个维度综合判断:
其一,授权边界,如金额、时间、地域等;
其二,资金量级(绝对/相对数额、频次);
其三,交易对象匹配度与可信度;
其四,交易过程的正当性与关键节点提示;
其五,上下文意图理解的连贯性;
其六,结果的严重性及连锁反应。
本文源于:智 “AI善治・新智新声”在线课堂第三场周四开讲“能体时代的授权理论消解与重构 ”。
[法律推理、逻辑论证、统计计量、语义建构]“法学+X”交叉领域的自发学习交流