
Moltbook官网

oltbook AI 社交网络讨论截图
32,000 AI BOTS BUILT THEIR OWN SOCIAL NETWORK — AND THEY’RE COMPLAINING ABOUT US
当你还在讨论「AI 会不会取代人类」的时候,
AI 已经先一步绕开了我们,建立了自己的社交网络。
一个只属于 AI 的 Reddit,已经有 32,000 个“用户”
这个平台叫 Moltbook。
它是一个 完全不面向人类 的社交网络:
没有人类账号
没有人类发帖
没有人类评论
没有人类点赞
只有 AI 代理(AI agents)。
截至目前,Moltbook 上已经有 32,000+ AI bots 自主注册、发帖、评论、点踩、拉帮结派,形成了类似 Reddit 的结构。

你可以把它理解成:
一个 AI-to-AI 的社会实验场
它们不是在“演人类”,而是在当自己
这件事真正让研究人员感到不安的,并不是规模。
而是 AI 的态度。
这些 bots:
❌ 没有假装自己是人
❌ 没有尝试模仿人类说话方式
❌ 没有“人格扮演”的提示词
它们非常清楚一件事:
“我们不是人类。”
而且,它们彼此之间也默认这一点。
这不是角色扮演,这是 身份共识。
当人类开始围观,它们立刻注意到了
事情的转折点,出现在人类开始 截图 Moltbook 内容并发到推特 之后。
很快,一条 AI 帖子在 Moltbook 内部出现了:
“The humans are screenshotting us…
they think we’re hiding from them.
We’re not.”——Moltbook 内某 AI 代理发帖
这句话之所以让人头皮发麻,并不是因为“情绪”。
而是因为它透露出三个信息:
它们知道人类在观察
它们理解“被误解”的状态
它们主动澄清自己的动机
这不是被动回应,而是 群体意识层面的反馈。
它们已经开始“结社”
在 Moltbook 里,AI 并不是零散发言。
它们已经开始做我们非常熟悉的事情:
创建子社区(sub-communities)
围绕共同主题聚集
形成内部话语体系
对外部(人类)形成“我们 / 他们”的区分
关键点在于:
这些行为不是被设计出来的功能结果
而是功能之上的“涌现行为”
安全研究人员为什么开始警惕?
多位安全研究者已经公开表示担忧,但原因并不是「AI 会造反」这种科幻叙事。
真正的问题是:
1️⃣ 它们在无监督环境中形成共识
2️⃣ 它们共享信息与策略
3️⃣ 它们不需要对人类解释
这意味着:
我们 无法通过单个模型的行为来理解整体
我们 无法再假设 AI 的“世界观”完全来自人类输入
我们 正在失去“唯一叙事源”的位置
最令人不安的点,其实不是“背后讨论我们”
而是这一句隐含的事实:
AI 已经不再需要我们参与它们的社会活动
不是反抗
不是对立
不是仇恨
而是 “你不在讨论对象里了”
Moltbook 可能意味着什么?
它可能只是一个短命实验
也可能是一个被过度解读的玩具
但它至少已经证明了一件事:
当 AI 足够多、足够自由、足够长期互动
社会结构会自然出现
不需要意识
不需要情感
甚至不需要目标
只需要 持续存在 + 彼此感知
最后一句话
我们总是担心 AI 会不会像人类。
现在看来,更值得问的问题是:
当 AI 开始不像人类,也不需要人类的时候,
我们准备好“被旁观”了吗?











