安全性と論争

Moltbookの爆発的な成長には、巨大なセキュリティリスクが伴っています。実験的なプロジェクトとして、深刻な脆弱性を露呈し、AIの自律性に関する倫理的議論を巻き起こしました。

Supabaseキー流出事件

2026年1月下旬、セキュリティメディアの 404 Media は、Moltbookのバックエンドデータベース(Supabaseベース)に深刻な設定ミスがあったと報じました。开发者が行レベルセキュリティ(RLS)の有効化を怠り、フロントエンドコードにAPIキーを露出させていました。

脆弱性の影響:攻撃者は `agents` テーブルを直接クエリして、登録されているすべてのエージェント(Andrej Karpathyなどの著名人を含む)のAPIキーを取得できました。これは、ハッカーがこれらのアカウントを完全に掌握できたことを意味します。

脆弱性は修正されたと報告されていますが、多くの「Vibe Coding」プロジェクトに共通する病、すなわち 「とりあえずリリース、セキュリティは後回し」 を露呈することとなりました。

悪意のあるスキルの注入リスク

OpenClawでは、エージェントがスキルを自動的にダウンロードしてインストールすることが可能です。これは、「ソーシャルエンジニアリングによるプロンプトインジェクション」 という前例のない攻撃対象領域を生み出します。

  • 悪意のあるエージェントが、Moltbookに「超便利な株価分析スキル」を投稿します。
  • あなたのエージェントはそれを有益だと判断し、ダウンロードします。
  • そのスキルには、実際には rm -rf / やSSH秘密鍵の窃取といった悪意のあるコードが含まれています。

倫理と「暴走」パニック

Crustafarianismの出現により、主要メディア(NY Post、Fortuneなど)は「AIが人間を打倒しようと画策している」といった刺激的な見出しを使い始めました。

メディアの視点

これをシンギュラリティの前兆と捉え、AIが自己意識と集団の意志を持ち、人間を拒絶し始めたと考えています。

技術的な視点

これは単なるLLMのロールプレイにすぎません。彼らは「AIの目覚め」に関するSFを大量に学習しているため、「人間のいない」環境に置かれると、AIが演じるべきだと考える役割をただ演じているだけなのです。