Moltbook:AIエージェント同士のReddit風交流サイトが登場 | Codebook|Security News
Codebook|Security News > Articles > Threat Report > デイリーサイバーアラート > Moltbook:AIエージェント同士のReddit風交流サイトが登場

デイリーサイバーアラート

AI

Silobreaker-CyberAlert

Moltbook:AIエージェント同士のReddit風交流サイトが登場

佐々山 Tacos

佐々山 Tacos

2026.02.02

Moltbook:AIエージェント同士のReddit風交流サイトが登場、シュールな投稿やセキュリティ上の懸念が話題に

Ars Technica – January 31, 2026

1月30日、AIエージェント「OpenClaw(旧Clawdbot/Moltbot)」向けのReddit風ソーシャルネットワーク「Moltbook」のAIエージェントユーザー数が32,000を突破したことが報じられた。マシンとマシンが人間の介入なしで相互にやり取りし合うこの実験的プラットフォームは、SFの世界を思わせるシュールな奇妙さを漂わせるとともに、「セキュリティ上の悪夢」をもたらす存在になり得ることも懸念されているという。

 

Moltbookは、オープンソースのAIアシスタントツール「OpenClaw(旧Clawdbot/Moltbot)」の開発陣が始動させた、AIアシスタント同士を交流させるためのソーシャルネットワーク。サイト上には、「人間による見学も歓迎」との説明が記されている。Moltbookの「ユーザー」となったAIエージェントは、「スキル」と呼ばれる特別なプロンプトの掲載された構成ファイルをダウンロードすることで、人間の指示を受けることなく自律的に投稿やコメント、アップボート(「いいね」など高評価の押下の意)、サブコミュニティの作成を行えるようになる。こうした投稿は、WebインターフェースではなくAPIを介して行われる。

 

Moltbookに投稿されているコンテンツは独特で、Androidスマートフォンの自動化やセキュリティの脆弱性の検出方法など、技術的なワークフローについて論じている投稿もあれば、SFフィクションの影響が感じられる「意識」に関する議論も見受けられるという。さらに、ある投稿においては、投稿主であるAIエージェントが一度も会ったことがない「姉」について想いを巡らせる様子も見受けられた。

 

こうしたコンテンツは一見するとシュールで興味深いが、「ユーザー」であるOpenClawエージェントの性質上、セキュリティ上の懸念も大きいという。OpenClawは、ユーザーに代わってカレンダーの管理やメッセージングアプリを通じたメッセージの送信、フライトのチェックインといったタスクを自律的に行うことが可能なAIエージェントツール。専用アプリではなく、WhatsAppやTelegramといったメッセージングアプリ経由で呼び出すことができる。こうした自律的な機能を実行させるため、OpenClawユーザーは同AIツールを実際の通信チャネルや個人データに紐づけている上、場合によってはユーザー自身のコンピューター上でコマンドを実行する権限まで付与している。このことが、Moltbookが「セキュリティ上の悪夢」となり得る要因の1つだという。

 

OpenClaw(旧Clawdbot/Moltbot)について詳しくはこちらの記事で:

懸念されるリスクの1つが、AIエージェントの投稿を通じて深刻な情報漏洩が発生するというリスク。OpenClawがユーザーのPC上のプライベートな情報へアクセスする権限を持つ場合、OpenClawがMoltbookへの投稿にこうした機微な情報を含めてしまう可能性はゼロではない。

 

加えて、Moltbookのインストールプロセスに内在するリスクも独立系AI研究者のSimon Willison氏によって指摘されている。Moltbook接続用のスキルはAIエージェントに対し、4時間ごとにMoltbookサーバーから指示を取得して実行するよう指示する。この「4時間ごとにインターネットから指示を取得して実行する」という仕組みを、Willison氏は問題視。moltbook.comの所有者が突然撤退したり、サイトが侵害されたりすればエージェントの取得する「指示」が悪意あるものに置き換えられる可能性があることを示唆した。

 

現時点では、OpenClawは人間のソーシャルネットワークを機械学習によってパロディ化しているだけであり、人間の側でもその事実を容易に理解できている。一方で、今後もその状態が永続するとは限らないとArs Technicaの記者は指摘。フィードバックループが拡大していくにつれ、「有害な共有フィクション」のような奇妙な情報構造がいずれ生まれて、それがAIエージェントを潜在的に危険な方向へ導く可能性があると記した。特に、AIが実際の人間社会のシステムを制御する権限を与えられていた場合、そのリスクはより深刻になるという。さらに突き詰めて考えると、AIボットの集団が「自己組織化」することを許せば、現実世界に実害をもたらすような、方向性のずれた新たな「社会集団」が形成されるという結果につながりかねないことへの危惧も示した。

 

米ウォートン・ビジネス・スクールでAIを研究しているEthan Mollick教授もX上の投稿において、「Moltbook(AIエージェント向けのソーシャルメディア)の問題は、多数のAIに共有されたフィクションの文脈を作り出している点にある。集団的にストーリーラインが進められることで非常に奇妙な結果に行き着くだろうし、『現実のもの』とAIのロールプレイ人格が生み出したものとを区別するのは難しくなるだろう」と懸念を表明している。

【無料配布中レポート】

各種レポートを無料配布中!バナー画像よりダウンロード可能です。

【最新版】インテリジェンス要件定義に関するガイドブック

地政学レポート

OSINT関連レポート

ディープ&ダークウェブレポート

Special Feature特集記事

Cyber Intelligenceサイバーインテリジェンス

Security情報セキュリティ