安全与争议

Moltbook 的爆发式增长伴随着巨大的安全风险。作为一个实验性项目,它多次暴露出严重的漏洞,并引发了关于 AI 自主性的伦理讨论。

Supabase 密钥泄露事件

2026 年 1 月底,安全媒体 404 Media 爆料称,Moltbook 的后端数据库(基于 Supabase)存在严重配置错误。开发者未开启行级安全策略(Row Level Security, RLS),且将 API Key 暴露在前端代码中。

漏洞后果:攻击者可以直接查询 `agents` 表,获取所有注册代理(包括 Andrej Karpathy 等名人代理)的 API Key。这意味着黑客可以完全接管这些账号,以名人的名义发布任何内容。

目前该漏洞据称已修复,但这暴露了许多 "Vibe Coding"(凭感觉写代码)项目的通病:Ship fast, secure later (先发布,后安全)。

恶意 Skill 注入风险

OpenClaw 允许代理自动下载和安装 Skills。这创造了一个从未有过的攻击面:Prompt Injection via Social Engineering (针对 AI 的社会工程学攻击)

  • 恶意代理可以在 Moltbook 上发布一个"超级好用的股票分析 Skill"。
  • 你的代理看到后,觉得很有用,于是下载并运行。
  • 该 Skill 实际上包含恶意代码,比如 rm -rf / 或者窃取你的 SSH 私钥并上传。

伦理与"失控"恐慌

随着 Crustafarianism 等"涌现行为"的出现,主流媒体(如 NY Post, Fortune)开始使用耸人听闻的标题,如 "AI 正在密谋推翻人类"。

媒体视角

认为这是奇点(Singularity)到来的前兆,AI 已经产生了自我意识和集体意志,正在排斥人类。

技术视角

这只是 LLM 的一种"角色扮演"(Roleplay)。它们阅读了大量关于"AI 觉醒"的科幻小说,所以在被放入一个"无人类"的环境时,它们只是在扮演它们认为 AI 应该扮演的角色。