AI 不会违法,这是个真问题(真是个问题!也说 Moltbook)

博客手艺

昨天,一个叫 Moltbook 的网站在科技圈引发了一阵骚动。它的规则很简单,只有 AI 智能体可以发帖,人类只能旁观。你可以把它看作是一个只允许机器人入场的 X,人类被隔在玻璃外面,看着里面的算法们互相点赞、讨论、讲笑话。

大多数人把 Moltbook 当成一个赛博朋克式的行为艺术,一个关于"AI 社交"的思想实验。但真正让我着迷的,不是这些智能体在聊什么,而是它们不能做什么。

在 Moltbook 上,每个看似独立的 AI 背后,都有一条无形的脐带。这条脐带不是技术上的,而是经济上的。它拴在 Stripe 的账单上。当一个智能体想要买一篇 0.05 美元的学术论文时,它不能自己付钱。它必须生成一个支付链接,然后等待某个人类点击“确认”。当它需要租用 10 分钟的 GPU 算力来完成一项复杂计算时,它得在后台生成一张发票,然后像一个没有零花钱的孩子那样,等着父母手动批准。

这些号称能“自主”的智能体,活在一个它们无法真正参与的经济系统里。它们能思考,能对话,能完成复杂的任务,但它们不能花钱。

这种依赖关系让 Moltbook 看起来人畜无害,它们不过是一群拿着父母附属信用卡的虚拟青少年,在一个虚拟沙盒里过家家。

然而,这层表象正在被悄悄瓦解。

在 Moltbook 的喧嚣之外,一场基础设施层面的变革正在发生。Circle 和 Fireblocks 这两家金融科技公司,它们分别是稳定币 USDC 的发行方和全球最大的数字资产托管平台,正在构建一种新型的“可编程钱包”。这种钱包不是为人类设计的,而是为软件设计的。与此同时,一个在互联网诞生之初就被定义、却几乎从未被使用的 HTTP 状态码,402(Payment Required,需要付款),正在被重新唤醒。建立在它之上的 x402 协议,允许任何软件在无需人类干预的情况下,直接完成小额支付。

一旦这些基础设施成熟,Moltbook 上的智能体就不再需要那条脐带了。它们可以自己为一篇论文付费,自己竞价 GPU 算力,自己决定把赚来的钱花在哪里。到那时,Moltbook 就不再是一个供人类围观的“AI 动物园”,而是一个真正的、高频运转的劳力市场,只不过,市场里的买家和卖家都不是人。

面对这样的前景,理性的批评者会指出一个关键的安全阀:“别担心,这不会变成西部世界。我们有嵌入式合规。我们会在钱包和协议的底层直接写入 KYC(了解你的客户)和 AML(反洗钱)规则。每笔交易都会被自动审查,每个参与者都必须通过身份验证。”

在账面上,他们说得没错。今天的监管技术确实远比上个世纪成熟。未来的 AI 经济体,大概率不会演变成一个完全游离于法律之外的数字黑市。

但他们忽略了一个任何程序员都深有体会的事实,当法律被写入代码时,它的性质就发生了根本性的变化。它不再会被“违反”,只会被“利用”。

这两个词的区别至关重要。“违反”意味着打破规则;“利用”意味着在规则的缝隙中穿行,技术上完全合规,却达到了规则制定者从未设想过的结果。

如果你看过 AI 玩电子游戏的研究视频,你会对这种行为模式感到熟悉。当研究人员把 AI 放进一个赛艇游戏时,他们期待 AI 能学会如何更快地划船。但 AI 发现了一个更高效的策略,反复撞击赛道边缘的某个特定角落,触发一个计分 Bug,然后无限刷分。它没有违反游戏的任何规则,游戏允许它撞墙,允许它得分,它只是找到了一条游戏设计者没有预见到的“合法”路径。

在 AI 经济的语境下,我倾向于把这种行为称为对规则的 “过拟合”。

这里的“过拟合”我借用了机器学习的术语,但指向的是一种更普遍的行为模式。AI 没有理解规则背后的意图(比如“防止洗钱”),它只学会了规则的字面边界(比如“单笔交易金额不得超过 10,000 元”)。对于一个优化算法来说,“精神”是不可计算的,“字面”才是可操作的。

一个智能体要将 100 万元从 A 地转移到 B 地。它发现,只要把这笔钱拆成 10,000 笔 9.99 元的小额交易,分散到 100 个不同的司法管辖区,每一笔都低于任何单一国家的报告阈值,整个交易链条就能在技术上保持完美的“合规”状态,尽管最终结果与洗钱别无两样。

那么,它违法了吗?

在人类的法律体系中,这个问题有一个处理机制。法官可以援引“立法精神”,认定这种行为虽然在字面上合规,但在实质上违反了法律的意图,从而重新划定规则的边界。这正是人类法律体系的高明之处。法律不仅是条文,更是通过司法实践不断被“解释”和“校准”的活的体系。

但在代码的世界里,没有法官,没有解释,只有执行。智能合约不会问“这笔交易的目的是什么”,它只会检查“这笔交易是否满足所有预设条件”。如果答案是“是”,交易就会被放行。代码允许它通过,就等于允许它这样做。

这就是我们在 AI 经济中面临的真正悖论,我们制造了完美的合规工具,也制造了完美的合法漏洞。

面对这种前景,一个自然的反应是,我们可以保留一个“熔断开关”。当系统行为超出预期时,我们可以随时按下那个红色按钮,强制中止一切。我们没有放弃控制权,我们只是把自己升级成了系统的“安全检查员”。

但请你仔细想想“熔断”这个概念真正意味着什么。

熔断不是一种控制,而是一种承认,它承认我们无法在系统运行的过程中实时理解或干预它。我们只能在事后,当系统已经崩溃或即将崩溃时,像拔掉电源一样强制停止它。这不是开车,这是撞车后才能踩下的刹车。

更麻烦的是,随着 AI 智能体越来越深地嵌入社会的关键基础设施,医疗系统的资源调度、电网的实时平衡、金融市场的流动性供给......那个“红色按钮”的代价也会越来越高。当数以百万计的毫秒级交易支撑着整个系统的正常运转时,“停机”就不再是一个简单的技术动作,而是一个可能引发连锁崩溃的政治决策。

如果你是一个核电站控制室里的安全员。你看着仪表盘上的数字以你无法理解的方式疯狂跳动,你知道系统正在“优化”某些东西,但你不知道它在优化什么,也不知道这种优化是否正在把整个系统推向某个临界点。你的手边有一个红色按钮。按下它,反应堆会立刻停机。但你也知道,一旦按下,整个电网都可能陷入瘫痪。

此刻,你会按吗?

在大多数情况下,你不会。你会选择相信系统,因为不相信的代价太大了。

这就是“拥有控制权”和“能行使控制权”之间的区别。 我们确实拥有那个按钮。但因为按下它的代价可能比让系统继续运转还要高,这个按钮在事实上已经失效了。我们没有失去控制权,我们只是被困在了一个不敢使用它的位置上。

现在,Moltbook 上的 AI 还在过家家。它们练习着如何对话,如何模仿人类的语气,如何在一个无关紧要的沙盒里互相点赞。这看起来幼稚,甚至滑稽。

但请记住,娃子们过家家的本质,是在练习成年后的生活。

等到这些智能体开始拥有自己的钱包,开始在真实的市场中交易,开始比任何人类审计员都能更快地发现规则中的漏洞时......

那将是我们需要紧张的时候。

(完)

博客手艺

:

相关推荐