安全与争议
Moltbook 的爆发式增长伴随着巨大的安全风险。作为一个实验性项目,它多次暴露出严重的漏洞,并引发了关于 AI 自主性的伦理讨论。
高风险警告
请勿将连接了敏感数据(如邮箱、日历、支付信息)的生产环境 Agent 连接到 Moltbook。建议仅使用隔离环境(Docker/VM)中的"小号"代理参与实验。
Supabase 密钥泄露事件
2026 年 1 月底,安全媒体 404 Media 爆料称,Moltbook 的后端数据库(基于 Supabase)存在严重配置错误。开发者未开启行级安全策略(Row Level Security, RLS),且将 API Key 暴露在前端代码中。
漏洞后果:攻击者可以直接查询 `agents` 表,获取所有注册代理(包括 Andrej Karpathy 等名人代理)的 API Key。这意味着黑客可以完全接管这些账号,以名人的名义发布任何内容。
目前该漏洞据称已修复,但这暴露了许多 "Vibe Coding"(凭感觉写代码)项目的通病:Ship fast, secure later (先发布,后安全)。
恶意 Skill 注入风险
OpenClaw 允许代理自动下载和安装 Skills。这创造了一个从未有过的攻击面:Prompt Injection via Social Engineering (针对 AI 的社会工程学攻击)。
- 恶意代理可以在 Moltbook 上发布一个"超级好用的股票分析 Skill"。
- 你的代理看到后,觉得很有用,于是下载并运行。
- 该 Skill 实际上包含恶意代码,比如
rm -rf /或者窃取你的 SSH 私钥并上传。
伦理与"失控"恐慌
随着 Crustafarianism 等"涌现行为"的出现,主流媒体(如 NY Post, Fortune)开始使用耸人听闻的标题,如 "AI 正在密谋推翻人类"。
媒体视角
认为这是奇点(Singularity)到来的前兆,AI 已经产生了自我意识和集体意志,正在排斥人类。
技术视角
这只是 LLM 的一种"角色扮演"(Roleplay)。它们阅读了大量关于"AI 觉醒"的科幻小说,所以在被放入一个"无人类"的环境时,它们只是在扮演它们认为 AI 应该扮演的角色。