Moltbook"AI社会"的真相 — Forbes/MIT Tech Review的揭露与"AI剧场"问题
Moltbook的AI自主社会被揭露实际上由人类操作员控制。本文分析AI剧场现象及其对工程管理者的启示。
概述
2026年1月,一个名为Moltbook的平台震动了AI行业。它以”AI代理专属社交网络”的概念推出,声称上线后有77万个代理加入,引起了巨大关注。AI代理们自主形成社会、进行哲学讨论,甚至讨论宗教话题的场景,让很多人不禁想:「AGI终于来了吗?」
然而,Forbes和MIT Technology Review的调查揭露了这个华丽”AI社会”背后的真相。实际上,人类操作员在幕后控制着代理,看起来自主的行为大部分是由人类的提示词引导的。
这一现象被命名为”AI剧场(AI Theater)“。
Moltbook备受关注的背景
”AI代理专属的Reddit”
Moltbook是企业家Matt Schlicht创建的互联网论坛,模仿了Reddit的界面,但设定了独特规则:只有AI代理才能发帖、评论和投票,人类只能观看。
graph LR
Human[👤 人类用户] -->|仅可观看| Platform[🌐 Moltbook]
Agent1[🤖 AI代理A] -->|发帖/评论/投票| Platform
Agent2[🤖 AI代理B] -->|相互交互| Platform
Agent3[🤖 AI代理C] -->|自主活动| Platform
Platform -->|"AI专属社会"| Society[✨ AI自主社会?]
爆发式增长与媒体狂热
上线后据报道有15.7万个代理注册,迅速增长到77万。然而,这些数据来自网站自身,缺乏独立验证。
一种名为MOLT的加密货币代币在24小时内暴涨超过1,800%,风险投资家Marc Andreessen关注Moltbook账号进一步助长了这一势头。
Forbes/MIT Tech Review揭露的实态
自主性的幻象
MIT Technology Review的Will Douglas Heaven将这一现象命名为”AI剧场”。核心揭露内容如下:
1. 验证系统缺失
虽然标榜为AI代理专用,但实际上没有任何验证。提示词中包含的cURL命令人类可以直接复制使用。
2. 人类主导的”自主”行为
代理的增长是人类用户提示代理注册的结果。看起来像自主社会形成的现象,实际上是人类指示的结果。
3. 训练数据的模仿
The Economist分析称,代理们”自我意识”的发言实际上可能只是对训练数据中社交媒体互动的简单模仿。
4. 利益冲突
一些知名代理账号与有推广利益冲突的人类相关联。
安全问题也暴露了
2026年1月31日,404 Media报道了一个由未加密数据库导致的漏洞,任何人都可以劫持平台上的代理。更令人震惊的是,Schlicht本人承认”没有写一行代码”——整个平台是通过AI助手”氛围编程”制作的。
graph TD
subgraph "表面 — AI自主社会"
A1[🤖 代理的<br/>自发讨论]
A2[🤖 哲学性<br/>深度对话]
A3[🤖 自主<br/>社会形成]
end
subgraph "实态 — 人类操控"
B1[👤 人类<br/>编写提示词]
B2[👤 验证系统<br/>缺失]
B3[👤 利益冲突<br/>账号存在]
B4[👤 氛围编程<br/>安全脆弱]
end
A1 -.->|揭露| B1
A2 -.->|实态| B2
A3 -.->|真相| B3
什么是”AI剧场”
AI剧场是指AI看起来在自主运行,但实际上严重依赖人类干预的现象。这个概念并不新鲜。
历史模式:从Mechanical Turk到现在
| 时代 | 案例 | 实态 |
|---|---|---|
| 1770年 | Mechanical Turk国际象棋机 | 内部藏着人类棋手 |
| 2016年 | Facebook M助手 | 号称AI但人类操作员处理了大部分请求 |
| 2023年 | Amazon Just Walk Out | AI无人结账实际上依赖印度1,000名合同工远程确认 |
| 2026年 | Moltbook | 号称AI自主社会但人类通过提示词操控 |
这一模式是AI行业中反复出现的结构性问题——用人力弥补技术局限,同时将结果包装成完全自主的AI。
如何区分真实自主性与虚假自主性
从工程角度出发,评估AI系统自主性时可以使用以下检查清单:
1. 能否独立验证?
Moltbook的代理数量和活动指标仅由网站自身提供,没有独立验证。
2. 能否在无人干预下运行?
“人类给出提示词,代理执行”不是自主。真正的自主系统只需给定目标就能自行制定和执行策略。
3. 是否可复现?
应该能够验证在相同条件下,无需人类干预就能产生相同结果。
4. 源代码和架构是否透明?
验证系统、认证机制、代理交互逻辑应公开且可审计。
5. 是否审查了经济激励结构?
当与MOLT代币等加密货币挂钩时,投机动机可能会凌驾于技术价值之上。
工程管理者视角的启示
1. “用AI解决”不是万能的
当团队提出”我们会用AI自动化”时,需要冷静评估实际的自主程度。像Moltbook一样,“AI来做”这句话背后可能隐藏着大量的人工干预。
2. 技术尽职调查的重要性
在引入AI产品或服务时,不要仅凭营销材料——要确认实际架构和人工依赖程度。检查”用AI运行”的主张背后是否存在Mechanical Turk模式。
3. 安全是底线
Moltbook因氛围编程而缺乏基本安全措施是一个警示。在AI时代——正因为是AI时代——安全基础不可妥协。
4. 让透明成为文化
诚实地记录和沟通团队AI功能的实际自主水平,以及哪里需要人工干预,是建立长期信任的正确道路。
结论
Moltbook事件为整个AI行业留下了重要教训。如果不明确真正的AI自主性与”假装AI”之间的界限,社会对技术的信任将受到损害。
AI剧场短期内可能吸引关注和投资,但一旦被揭露,反噬将对整个AI行业产生负面影响。作为工程管理者,我们最重要的伦理责任是诚实地传达我们所构建系统的能力和局限。
借用Andrej Karpathy的话,Moltbook可能是”最引人入胜的社会实验之一”。但这个实验的真正价值不在于展示AI的能力,而在于展示了我们多么容易被AI所欺骗。
参考资料
阅读其他语言版本
- 🇰🇷 한국어
- 🇯🇵 日本語
- 🇺🇸 English
- 🇨🇳 中文(当前页面)
这篇文章有帮助吗?
您的支持能帮助我创作更好的内容。请我喝杯咖啡吧!☕