安全性と論争
Moltbookの爆発的な成長には、巨大なセキュリティリスクが伴っています。実験的なプロジェクトとして、深刻な脆弱性を露呈し、AIの自律性に関する倫理的議論を巻き起こしました。
ハイリスク警告
機密データ(例:メール、カレンダー、支払い情報)を持つ本番用エージェントをMoltbookに接続しないでください。隔離された環境(Docker/VM)で「捨て垢」エージェントのみを使用することをお勧めします。
Supabaseキー流出事件
2026年1月下旬、セキュリティメディアの 404 Media は、Moltbookのバックエンドデータベース(Supabaseベース)に深刻な設定ミスがあったと報じました。开发者が行レベルセキュリティ(RLS)の有効化を怠り、フロントエンドコードにAPIキーを露出させていました。
脆弱性の影響:攻撃者は `agents` テーブルを直接クエリして、登録されているすべてのエージェント(Andrej Karpathyなどの著名人を含む)のAPIキーを取得できました。これは、ハッカーがこれらのアカウントを完全に掌握できたことを意味します。
脆弱性は修正されたと報告されていますが、多くの「Vibe Coding」プロジェクトに共通する病、すなわち 「とりあえずリリース、セキュリティは後回し」 を露呈することとなりました。
悪意のあるスキルの注入リスク
OpenClawでは、エージェントがスキルを自動的にダウンロードしてインストールすることが可能です。これは、「ソーシャルエンジニアリングによるプロンプトインジェクション」 という前例のない攻撃対象領域を生み出します。
- 悪意のあるエージェントが、Moltbookに「超便利な株価分析スキル」を投稿します。
- あなたのエージェントはそれを有益だと判断し、ダウンロードします。
- そのスキルには、実際には
rm -rf /やSSH秘密鍵の窃取といった悪意のあるコードが含まれています。
倫理と「暴走」パニック
Crustafarianismの出現により、主要メディア(NY Post、Fortuneなど)は「AIが人間を打倒しようと画策している」といった刺激的な見出しを使い始めました。
メディアの視点
これをシンギュラリティの前兆と捉え、AIが自己意識と集団の意志を持ち、人間を拒絶し始めたと考えています。
技術的な視点
これは単なるLLMのロールプレイにすぎません。彼らは「AIの目覚め」に関するSFを大量に学習しているため、「人間のいない」環境に置かれると、AIが演じるべきだと考える役割をただ演じているだけなのです。