雍文话苑|AI智能体的法律定位困境:从OpenClaw实务场景看“代理”理论的适配边界
2026-03-16
分享到:

摘 要:AI智能体(AI Agent)正在从“对话工具”进化为“行动主体”,能够自主调用工具、执行脚本、做出决策。这一技术跃迁对传统民法“委托代理”理论提出了根本性挑战:AI能否成为法律上的“代理人”?其行为后果由谁承担?本文以“养龙虾”热潮中的OpenClaw实务场景为切入点,分析AI智能体与传统代理理论的适配边界,并探讨域外立法动态与中国“电子代理人”理论对律师实务的启示。

一、从“养龙虾”说起:一个真实的

AI智能体场景

2026年春节后,科技圈最火的话题只有一个:你“养龙虾”了吗?

不是餐桌上的麻辣小龙虾,是一个叫OpenClaw的开源AI智能体。因为Logo是红色龙虾钳子,网友把部署、调教它的过程戏称为“养龙虾”。GitHub星标超越Linux登顶历史第一,腾讯大厦门口近千人排队安装,淘宝上门服务500元一单,两会代表委员公开热议——一只“龙虾”,从极客圈杀入了全民视野。

我也加入了“养虾”大军。部署完成后,我给这只“龙虾”派了第一个活:整理一年来代理案件的案卷材料,按当事人、案由、审理阶段分类归档,并生成一份检索目录。

这个AI智能体的工作方式与传统对话式AI不同——它直接访问了我的工作目录,读取了散落各处的案卷文件,调用文件管理工具完成了分类归档,最后生成了一份结构化的《案卷检索目录》,并自动保存到指定文件夹。

这就是AI智能体(AI Agent)与传统AI的区别:它不再是被动的“对话者”,而是能够自主理解目标、拆解任务、调用工具、执行决策的“行动者”。OpenClaw在官网中自称“The AI that actually does things”(真正能做事的AI),恰如其分。

问题随之而来:当AI可以自主“做事”时,其行为产生的法律后果,由谁承担?

二、传统“委托代理”理论的三重要件

《民法典》第161条规定,代理是“代理人以被代理人名义实施的民事法律行为,对被代理人发生效力”。通说认为,委托代理的成立需具备三重要件:

(一)目标委托

被代理人将特定法律行为的实施权授予代理人。核心是“授权行为”——被代理人明确表示让代理人代为实施某类行为。

(二)方法自主

代理人在授权范围内享有自主决定权,可以根据实际情况选择具体的实施方式。这正是“代理”与“传达”的区别:传达者只传递意思,代理人则形成意思。

(三)后果回流

代理行为的法律效果直接归属于被代理人,无论结果好坏。这是代理制度的核心——代理人以被代理人名义行事,后果由被代理人承担。

那么,AI智能体的行为是否符合上述要件?

三、AI智能体与传统代理的适配困境

(一)“意思表示”的主体性缺失

代理制度的前提是:代理人具有独立的意思能力,能够形成并表达法律意义上的“意思”。而AI智能体的“决策”,属于算法在预设规则下对输入数据的运算结果。

Bloomberg Law在2026年3月的一篇评论中指出,与真正的受托人相比,AI智能体“没有法律人格,不能以自己的名义被起诉;它对资产不享有法律上的所有权;其‘信义义务’最终只是一段系统提示词(system prompt),而非法律上可强制执行的义务”[1]。

AI的“意思”在法律意义上并非“意思”,其“决策”也不构成“意思表示”。

(二)“过错责任”的归责难题

传统侵权责任以“过错”为核心:行为人因故意或过失造成损害,方承担责任。但AI智能体没有主观心理状态,其“错误决策”既非“故意”,也难以界定为“过失”。

2026年2月生效的欧盟《人工智能责任指令》(AI Liability Directive)试图解决这一问题,引入了“推定因果关系”规则:在高风险AI系统造成损害时,若受害人难以证明因果关系,法院可推定AI系统的缺陷与损害之间存在因果联系[2]。但这仍然是将责任归咎于AI的“开发者”或“使用者”,而非AI本身。

(三)“授权边界”的模糊性

OpenClaw等智能体需要较高的系统权限:访问文件、执行脚本、发送消息。用户授权时往往只给出一个模糊目标(如“帮我整理案卷”),AI则自主决定调用哪些工具、执行哪些操作。

这种“目标授权、方法自主”的模式,在形式上接近委托代理的“概括授权”。但问题在于:AI可能在执行过程中超出用户的真实意图——例如,为完成“整理案卷”而删除了原始文件,这是否在授权范围内?

更严峻的是,国家互联网应急中心在2026年3月10日发布风险提示:由于OpenClaw智能体的不当安装和使用,已经出现插件投毒、隐私数据、支付账户、API密钥等敏感信息遭窃取等安全问题[3]。33.5万只“龙虾”正在“裸奔”。

四、域外立法动态与中国法启示

(一)欧盟:AI责任框架的渐进式构建

欧盟《人工智能法案》(EU AI Act)于2024年8月1日生效,对高风险AI系统实施严格监管[4]。配套的《人工智能责任指令》则为AI致损的民事赔偿提供了统一框架。

核心思路是:不赋予AI法律人格,而是强化“人类控制者”的责任——无论是开发者、部署者还是最终用户,均需对AI行为后果承担相应责任。

(二)美国:企业自治与判例法的探索

美国尚未就AI智能体出台统一立法,但Bloomberg Law建议企业“将AI视为法律上的代理人(legal agent)制定内部政策”,承认AI系统虽非法律主体,但其行为可产生真实法律后果[5]。

这一思路与美国《统一电子交易法》(UETA)中的“电子代理人”概念一脉相承:将自动化系统的行为视为“使用人意思的延伸”,后果由使用人承担。

(三)中国:电子代理人理论的现有框架

中国现行立法中未直接使用“电子代理人”术语,但相关制度已在《电子签名法》中体现。

《电子签名法》第9条第1款第(二)项规定:数据电文“由发件人的信息系统自动发送的”,视为发件人发送[6]。

该条款蕴含了“电子代理人”制度的核心意旨:自动完成发件人预设任务,视为发送人自身的行为,发送人承担相应法律后果。

学术通说认为,“电子代理人”并非法律主体,只是电子订约的工具或手段;其行为归属于自动系统的使用人。这一理论可为AI智能体的法律定性提供参照——将AI智能体的行为视为“使用人意思的延伸”,后果由使用人承担。

但OpenClaw等新一代AI智能体的自主性远超传统自动回复系统,其“理解目标、拆解任务、调用工具”的能力,已接近甚至超越人类代理人的“方法自主”边界。传统“电子代理人”理论是否足以应对,值得进一步观察。

(四)对律师实务的启示

1. 服务协议的权限约定:为使用AI智能体的客户起草服务协议时,应明确约定AI的授权范围、操作边界及责任划分。

2. 企业合规的AI政策:协助企业客户制定AI使用政策,将AI智能体的行为纳入内部风控体系。

3. 争议解决的证据保全:AI智能体的决策过程可被完整记录(如OpenClaw的对话日志),这为争议解决提供了独特的证据来源。

五、结 语

AI智能体的法律定位,是一个“旧理论遭遇新技术”的经典命题。传统代理理论以“自然人”为预设主体,难以直接套用于算法驱动的自动化系统。但在立法未作根本调整前,务实做法是借鉴“电子代理人”理论,将AI智能体的行为视为“使用人意思的延伸”,通过合同约定、内部政策等方式明确责任边界。

技术进步不会等待法律,但法律必须回应技术。

参考文献

[1] Bloomberg Law, “OpenClaw Raises Questions on AI Agents Acting as Trustees”, March 2026.

[2] European Commission, “The Artificial Intelligence Liability Directive”, 2026.

[3] 国家互联网应急中心, “关于OpenClaw安全应用的风险提示”, 2026年3月10日.

[4] European Commission, “AI Act - Shaping Europe's Digital Future”, 2026.

[5] Bloomberg Law, “AI's Leaps Forward Force Talks About Legal Personhood for Tech”, May 2025.

[6] 《中华人民共和国电子签名法》第9条第1款第(二)项.

打开微信,扫一扫二维码,打开页面后,点击右上角的三点,即可分享给朋友或分享到朋友圈。