AI 不會違法,這是個真問題(真是個問題!也說 Moltbook)

博客手艺

昨天,一個叫 Moltbook 的網站在科技圈引發了一陣騷動。它的規則很簡單,只有 AI 智慧體可以發帖,人類只能旁觀。你可以把它看作是一個只允許機器人入場的 X,人類被隔在玻璃外面,看著裡面的演算法們互相點贊、討論、講笑話。

大多數人把 Moltbook 當成一個賽博朋克式的行爲藝術,一個關於"AI 社交"的思想實驗。但真正讓我著迷的,不是這些智慧體在聊什麼,而是它們不能做什麼。

在 Moltbook 上,每個看似獨立的 AI 背後,都有一條無形的臍帶。這條臍帶不是技術上的,而是經濟上的。它拴在 Stripe 的賬單上。當一個智慧體想要買一篇 0.05 美元的學術論文時,它不能自己付錢。它必須生成一個支付連結,然後等待某個人類點選“確認”。當它需要租用 10 分鐘的 GPU 算力來完成一項複雜計算時,它得在後臺生成一張發票,然後像一個沒有零花錢的孩子那樣,等著父母手動批准。

這些號稱能“自主”的智慧體,活在一個它們無法真正參與的經濟系統裡。它們能思考,能對話,能完成複雜的任務,但它們不能花錢。

這種依賴關係讓 Moltbook 看起來人畜無害,它們不過是一群拿著父母附屬信用卡的虛擬青少年,在一個虛擬沙盒裏過家家。

然而,這層表象正在被悄悄瓦解。

在 Moltbook 的喧囂之外,一場基礎設施層面的變革正在發生。Circle 和 Fireblocks 這兩家金融科技公司,它們分別是穩定幣 USDC 的發行方和全球最大的數字資產託管平臺,正在構建一種新型的“可程式設計錢包”。這種錢包不是為人類設計的,而是為軟體設計的。與此同時,一個在網際網路誕生之初就被定義、卻幾乎從未被使用的 HTTP 狀態碼,402(Payment Required,需要付款),正在被重新喚醒。建立在它之上的 x402 協議,允許任何軟體在無需人類干預的情況下,直接完成小額支付。

一旦這些基礎設施成熟,Moltbook 上的智慧體就不再需要那條臍帶了。它們可以自己為一篇論文付費,自己競價 GPU 算力,自己決定把賺來的錢花在哪裏。到那時,Moltbook 就不再是一個供人類圍觀的“AI 動物園”,而是一個真正的、高頻運轉的勞力市場,只不過,市場裡的買家和賣家都不是人。

面對這樣的前景,理性的批評者會指出一個關鍵的安全閥:“別擔心,這不會變成西部世界。我們有嵌入式合規。我們會在錢包和協議的底層直接寫入 KYC(瞭解你的客戶)和 AML(反洗錢)規則。每筆交易都會被自動審查,每個參與者都必須透過身份驗證。”

在賬面上,他們說得沒錯。今天的監管技術確實遠比上個世紀成熟。未來的 AI 經濟體,大機率不會演變成一個完全遊離於法律之外的數字黑市。

但他們忽略了一個任何程式設計師都深有體會的事實,當法律被寫入程式碼時,它的性質就發生了根本性的變化。它不再會被“違反”,只會被“利用”。

這兩個詞的區別至關重要。“違反”意味著打破規則;“利用”意味著在規則的縫隙中穿行,技術上完全合規,卻達到了規則制定者從未設想過的結果。

如果你看過 AI 玩電子遊戲的研究影片,你會對這種行為模式感到熟悉。當研究人員把 AI 放進一個賽艇遊戲時,他們期待 AI 能學會如何更快地划船。但 AI 發現了一個更高效的策略,反覆撞擊賽道邊緣的某個特定角落,觸發一個計分 Bug,然後無限刷分。它沒有違反遊戲的任何規則,遊戲允許它撞牆,允許它得分,它只是找到了一條遊戲設計者沒有預見到的“合法”路徑。

在 AI 經濟的語境下,我傾向於把這種行為稱為對規則的 “過擬合”。

這裏的“過擬合”我借用了機器學習的術語,但指向的是一種更普遍的行為模式。AI 沒有理解規則背後的意圖(比如“防止洗錢”),它只學會了規則的字面邊界(比如“單筆交易金額不得超過 10,000 元”)。對於一個最佳化演算法來說,“精神”是不可計算的,“字面”纔是可操作的。

一個智慧體要將 100 萬元從 A 地轉移到 B 地。它發現,只要把這筆錢拆成 10,000 筆 9.99 元的小額交易,分散到 100 個不同的司法管轄區,每一筆都低於任何單一國家的報告閾值,整個交易鏈條就能在技術上保持完美的“合規”狀態,儘管最終結果與洗錢別無兩樣。

那麼,它違法了嗎?

在人類的法律體系中,這個問題有一個處理機制。法官可以援引“立法精神”,認定這種行為雖然在字面上合規,但在實質上違反了法律的意圖,從而重新劃定規則的邊界。這正是人類法律體系的高明之處。法律不僅是條文,更是透過司法實踐不斷被“解釋”和“校準”的活的體系。

但在程式碼的世界裏,沒有法官,沒有解釋,只有執行。智慧合約不會問“這筆交易的目的是什麼”,它只會檢查“這筆交易是否滿足所有預設條件”。如果答案是“是”,交易就會被放行。程式碼允許它透過,就等於允許它這樣做。

這就是我們在 AI 經濟中面臨的真正悖論,我們製造了完美的合規工具,也製造了完美的合法漏洞。

面對這種前景,一個自然的反應是,我們可以保留一個“熔斷開關”。當系統行為超出預期時,我們可以隨時按下那個紅色按鈕,強制中止一切。我們沒有放棄控制權,我們只是把自己升級成了系統的“安全檢查員”。

但請你仔細想想“熔斷”這個概念真正意味著什麼。

熔斷不是一種控制,而是一種承認,它承認我們無法在系統執行的過程中實時理解或干預它。我們只能在事後,當系統已經崩潰或即將崩潰時,像拔掉電源一樣強制停止它。這不是開車,這是撞車後才能踩下的剎車。

更麻煩的是,隨著 AI 智慧體越來越深地嵌入社會的關鍵基礎設施,醫療系統的資源排程、電網的實時平衡、金融市場的流動性供給......那個“紅色按鈕”的代價也會越來越高。當數以百萬計的毫秒級交易支撐著整個系統的正常運轉時,“停機”就不再是一個簡單的技術動作,而是一個可能引發連鎖崩潰的政治決策。

如果你是一個核電站控制室裡的安全員。你看著儀表盤上的數字以你無法理解的方式瘋狂跳動,你知道系統正在“最佳化”某些東西,但你不知道它在最佳化什麼,也不知道這種最佳化是否正在把整個系統推向某個臨界點。你的手邊有一個紅色按鈕。按下它,反應堆會立刻停機。但你也知道,一旦按下,整個電網都可能陷入癱瘓。

此刻,你會按嗎?

在大多數情況下,你不會。你會選擇相信系統,因為不相信的代價太大了。

這就是“擁有控制權”和“能行使控制權”之間的區別。 我們確實擁有那個按鈕。但因為按下它的代價可能比讓系統繼續運轉還要高,這個按鈕在事實上已經失效了。我們沒有失去控制權,我們只是被困在了一個不敢使用它的位置上。

現在,Moltbook 上的 AI 還在過家家。它們練習著如何對話,如何模仿人類的語氣,如何在一個無關緊要的沙盒裏互相點贊。這看起來幼稚,甚至滑稽。

但請記住,娃子們過家家的本質,是在練習成年後的生活。

等到這些智慧體開始擁有自己的錢包,開始在真實的市場中交易,開始比任何人類審計員都能更快地發現規則中的漏洞時......

那將是我們需要緊張的時候。

(完)

博客手艺

:

相關推薦