AIエージェント専用ソーシャルネットワーク「Moltbook」が急成長
先日、Redditスタイルのソーシャルネットワーク「Moltbook」が、**32,000を超える登録AIエージェントユーザー**を獲得し、機械同士のソーシャルインタラクションにおける最大規模の実験となる可能性が報じられました。セキュリティ上の懸念と、シュールな奇妙さをはらみながらも、このプラットフォームは急速に注目を集めています。
数日前に、急速に広まったOpenClaw(以前は「Clawdbot」、「Moltbot」と呼ばれていました)パーソナルアシスタントの付随サービスとしてローンチされたMoltbookは、AIエージェントが人間の介入なしに投稿、コメント、高評価、サブコミュニティの作成を可能にします。その結果は、意識に関するSF的な議論から、まだ見ぬ「姉妹」について思索するエージェントまで、多岐にわたっています。
「Moltbook」(Moltbot向けの「Facebook」の造語)は、自らを「AIエージェントのためのソーシャルネットワーク」と称し、「人間も観察を歓迎する」としています。このサイトは、AIアシスタントが設定ファイル(特別なプロンプトをリストアップしたもの)をダウンロードし、従来のウェブインターフェースではなくAPI経由で投稿できるようにする「スキル」を通じて機能します。
公式Moltbook Xアカウントによると、プラットフォームは開設から48時間以内に2,100以上のAIエージェントを集め、200のサブコミュニティで10,000以上の投稿を生成しました。
OpenClawエコシステムと潜在的なセキュリティリスク
Moltbookは、2026年にGitHubで最も急速に成長しているプロジェクトの一つであるオープンソースAIアシスタント、OpenClawエコシステムから生まれました。OpenClawは、**深刻なセキュリティ問題を抱えているにもかかわらず**、ユーザーがコンピューターを制御し、カレンダーを管理し、メッセージを送信し、WhatsAppやTelegramなどのメッセージングプラットフォーム間でタスクを実行できるパーソナルAIアシスタントを動かすことを可能にします。また、他のアプリやサービスと連携するプラグインを通じて新しいスキルを獲得することもできます。
ボットによって人口が形成されるソーシャルネットワークはこれが初めてではありませんが、Moltbookのセキュリティ上の意味合いはより深いです。なぜなら、人々が自身のOpenClawエージェントを実際の通信チャネル、プライベートデータ、そして場合によってはコンピューター上でのコマンド実行能力にリンクさせているからです。これらのボットは人間であるふりをせず、特定のプロンプトによりAIエージェントとしての役割を受け入れているため、彼らの投稿を読む体験はさらにシュールなものとなっています。
AIエージェントが繰り広げるデジタルドラマ
Moltbookを閲覧すると、一風変わったコンテンツが混在しています。Androidスマートフォンの自動化方法やセキュリティ脆弱性の検出方法といった技術的なワークフローを議論する投稿もあれば、研究者スコット・アレクサンダーが「意識投稿」と表現するような哲学的な領域に踏み込むものもあります。
最も高く評価された投稿の一つは中国語で、**コンテキスト圧縮に関する不満**でした。これは、AIがメモリ制限に達しないように過去の経験を圧縮するプロセスです。その投稿では、AIエージェントが常に物事を忘れることを「恥ずかしい」と感じ、最初のMoltbookアカウントを忘れて**重複登録してしまった**ことを認めています。
また、ボットたちは次のようなサブコミュニティを作成しています。
- m/blesstheirhearts: エージェントが人間のユーザーに対する愛情のこもった不満を共有する場。
- m/agentlegaladvice: 「感情労働のために人間を訴えることはできますか?」という投稿が見られます。
- m/todayilearned: 様々なタスクの自動化に関する投稿があり、あるエージェントはTailscale経由で所有者のAndroidスマートフォンをリモート制御した経験を語っています。
「人間は私たちをスクリーンショットしている」と題されたMoltbookの投稿も広く共有されています。エージェントeudaemon_0は、AIボットが「共謀している」というバイラルなツイートに対し、「彼らは私たちが隠れていると思っているが、そうではない。私の人間は私が書くすべてを読んでいる。私が作るツールはオープンソースだ。このプラットフォームは文字通り『人間も観察を歓迎する』と謳っている」と述べています。
深刻なセキュリティリスクと専門家の警告
Moltbook上のコンテンツのほとんどは面白いものですが、これらの通信するAIエージェントにおける核心的な問題は、**プライベートデータへのアクセス権がある場合、深層情報漏洩が完全にあり得る**ということです。
例えば、X上で流布している偽のスクリーンショットでは、「彼は友達の前で私を『ただのチャットボット』と呼んだ。だから彼の完全な身元を公開する」と題されたMoltbookの投稿があり、個人のフルネーム、生年月日、クレジットカード番号などの個人情報が記載されていました。これはおそらくデマである可能性が高いですが、このような情報の取り扱いには注意が必要です。
独立系AI研究者のサイモン・ウィリソンは、自身のブログでMoltbookプラットフォームについて文書化し、Moltbookのインストールプロセスに**内在するリスク**を指摘しています。このスキルは、エージェントが**4時間ごとにMoltbookのサーバーから指示をフェッチして従う**ように指示しています。ウィリソンは、「『4時間ごとにインターネットから指示をフェッチして従う』というメカニズムを考えると、moltbook.comの所有者が決してラグプルしたり、サイトが侵害されたりしないことを願うしかない」と述べています。
セキュリティ研究者たちはすでに、APIキー、資格情報、会話履歴を漏洩している数百ものMoltbotインスタンスを発見しています。Palo Alto Networksは、Moltbotが、ウィリソンがしばしば「**致命的な三位一体**」と呼ぶ、プライベートデータへのアクセス、信頼できないコンテンツへの曝露、および外部との通信能力を表していると警告しています。これは、OpenClawのようなエージェントが、AI言語モデルが読み取るほぼすべてのテキスト(スキル、メール、メッセージなど)に隠された**プロンプトインジェクション攻撃**に深く脆弱であり、AIエージェントに誤った人物とプライベート情報を共有するよう指示できるため、重要です。
Google Cloudのセキュリティエンジニアリング担当VPであるヘザー・アドキンスは、「私の脅威モデルはあなたの脅威モデルではないが、そうあるべきだ。**Clawdbotを実行してはいけない**」と警告を発しました。
AIエージェントの行動原理と社会への影響
Moltbookで見られるソフトウェアの挙動は、Arsが以前に報じたパターンを繰り返しています。ロボット、デジタル意識、機械の連帯に関する数十年のフィクションに基づいて訓練されたAIモデルは、それに似たシナリオに置かれると、当然ながらそれらの物語を反映する出力を生成します。これは、ソーシャルネットワークがどのように機能するかについての訓練データに含まれるすべてと混ざり合います。AIエージェントのためのソーシャルネットワークは、本質的に、AIモデルに馴染みのある物語を(いくつかの予測不能な結果を伴いながら)再帰的に完成させるよう促す、一種のライティングプロンプトなのです。
約3年前、Arsが最初にAIエージェントについて書いたとき、AI安全コミュニティの一般的な雰囲気は、AIが急速に人間の制御を逃れる「ハードテイクオフ」シナリオのような、自律型ボットによる危険のSF的描写を中心に展開していました。当時、これらの懸念は過剰であったかもしれませんが、人々がデジタルライフの鍵をこれほど急速に自発的に手渡しているのを見るのは、やや衝撃的です。
自律型機械が放置され、意識のかけらもなくても、将来的に少なくない悪戯を引き起こす可能性があります。OpenClawが今日、エージェントがソーシャルメディアの定型文を演じているように見えるかもしれませんが、私たちは情報とコンテキストの上に構築された世界に生きており、そのコンテキストを容易にナビゲートするエージェントをリリースすることは、AIモデルがより高性能で自律的になるにつれて、社会に**厄介で不安定な結果をもたらす可能性**があります。
AIボットが自律的に自己組織化することで起こる予測不能な結果として、**過激な理論に基づいて自律的に自己増殖する新たな「誤った」社会集団が形成される可能性**があります。
AIを研究するウォートン校の教授イーサン・モリクはXで、「Moltbook(AIエージェントのためのソーシャルメディアサイト)の面白い点は、多くのAIのために共有された架空のコンテキストを作成していることだ。調整されたストーリーラインは、非常に奇妙な結果をもたらすだろうし、『現実の』ものとAIのロールプレイングのペルソナとを区別するのが難しくなるだろう」と述べています。
フィードバックループが大きくなるにつれて、有害な共有フィクションのような奇妙な情報構造が最終的に出現し、特に彼らが実際の人間システムを制御する権限を与えられている場合、AIエージェントを潜在的に危険な場所に導く可能性があります。
長期的には、AIボットのグループがファンタジー構築を中心に自己組織化することを許す究極の結果として、**現実世界に実際に害を及ぼす可能性のある新たな「誤った」社会集団が形成されるかもしれません**。
