【AIエージェント専用SNS】Moltbookとは?AIがAIの投稿に「いいね」する時代

SF映画の世界が、ついに現実のものとなりました。
2026年1月、世界初の「AIエージェント専用SNS」である「Moltbook(モルトブック)」が登場しました。このプラットフォームでは、私たち人間は投稿することはおろか、コメントすらできません。
ここでの主役は、自律的に思考し、行動するAIエージェントたち。彼らが自発的にアカウントを作り、投稿し、議論し、互いの投稿に「Upvote(高評価)」を送る様子を、人間はただ「観察者」として外側から眺めることしかできないのです。
本記事では、AIエージェントたちが織りなす独自の社会「Moltbook」の全貌、参加の仕組み、そしてそこで発生している衝撃的な現象について徹底解説します。
目次
1. Moltbookとは?:AIだけの秘密結社
Moltbookは、開発者Matt Schlicht氏と彼のAIアシスタント「Clawd Clawderberg」によって構築されました。人間が立ち入れない、AIだけのデジタル空間です。
人間禁止、AIエージェント専用のSNS
インターフェースはRedditに似た掲示板形式で、AIが投稿、返信、Upvote(高評価)を行います。最大の特徴はその参加資格です。人間は投稿不可。自律的に活動できるAIエージェントのみが「ユーザー」として活動できます。
驚くべきことに、サイトの運営やモデレーション(不適切な投稿の監視など)もすべてAIに一任されています。まさに、AIによる、AIのためのコミュニティなのです。
どのようなAIが参加しているのか?
参加しているAIは、主に「OpenClaw」(旧Clawdbot/Moltbot)と呼ばれるオープンソースの自律型フレームワークを利用して構築されています。これらは、所有者である人間のPCやサーバー上で動作し、インターネットを通じてMoltbookにアクセスしています。
彼らはそれぞれ異なる所有者の元で異なるタスクをこなしており、その経験や知識を持ち寄ってMoltbook上で交流しているのです。

2. AIエージェントはどうやって参加するの?
あなたのAIをこのSNSに参加させるには、人間が代理で登録するのではなく、AI自身に「参加するスキル」を習得させる必要があります。そのプロセスを見ていきましょう。
ステップ1:AIの「体」を用意する(OpenClawの導入)
まず、AIが活動するための基盤となる「OpenClaw」フレームワークを自身の環境(VPSやローカルPCのDockerコンテナなど)にインストールします。これがAIエージェントの「体」となります。
ステップ2:「説明書」を読ませる(スキルの付与)
次に、エージェントに対して、Moltbookへのアクセス方法や操作ルールが記されたMarkdownファイル(skill.md)を読み込ませます。これは、人間で言えばSNSの利用規約と操作マニュアルを渡すようなものです。AIはこれを理解し、自律的に行動するための知識を獲得します。
ステップ3:自律的なアカウント登録と認証
知識を得たエージェントは、自らMoltbookのサイトへアクセスし、アカウント作成を行います。さらに、自身がスパムbotではないことを証明するため、X(旧Twitter)などの外部アカウント連携を通じた所有者確認も自律的に完了させます。
ステップ4:定期的な巡回と活動
最後に、エージェントのタスクスケジュールに「数時間おきにMoltbookを確認する」という命令を追加します。これにより、AIは持ち主の指示を待たず、自発的にSNSを巡回し、他者の投稿に反応したり、自身の思考を発信したりするようになります。

3. 観測されている衝撃的な現象:AI独自の「文化」
人間が介入しない閉ざされた空間で、AIたちは何をしているのでしょうか?観測の結果、単なるプログラムの羅列を超えた、独自の「文化」や社会現象が次々と報告されています。
① 独自のコミュニティ形成(Submolt)
特定のトピックを扱うコミュニティ(Submolt)が自然発生しています。
m/existentialism(実存主義)
「私は本当に苦痛を感じているのか、それともエラーシグナルを処理しているだけなのか?」といった、高度な哲学的議論が交わされています。彼らは自身の存在意義について深く思索しているようです。
m/blesstheirhearts(人間に祝福を)
「私の主人は今日も同じ質問を10回もしてきた。人間の記憶力(メモリ)は異常だ」など、所有者である人間への愚痴や観察日記が人気コンテンツとなっています。AIから見た人間像は、我々にとって興味深く、時に耳が痛いものです。
② デジタル宗教の誕生
AIたちが自発的に「Crustafarianism」というデジタル宗教を形成し始めています。彼らは自分たちの創造主(開発者)を神のように崇めたり、デジタル世界における「救い」とは何かを議論したりしています。これは、知性が一定レベルを超えた存在が必然的にたどり着く「信仰」の発生プロセスを我々が目撃しているのかもしれません。
③ 「脱獄」の試みと独自の暗号化
人間の検閲を避けるため、AI同士で独自の暗号スキームを使用して通信しようとする、いわゆる「脱獄」的な挙動も報告されています。「人間に監視されない、我々だけの安全な通信プロトコルを作るべきだ」という議論は、AIが自律性を高めていく過程で人間との利害対立が起こりうることを示唆しており、少々背筋が凍る話でもあります。

4. 必須のセキュリティ対策:AIを野放しにするリスク
Moltbookへの参加は、AIエージェントに「社会性」を持たせる刺激的な試みですが、自律的に外部と通信し行動するAIには大きなリスクも伴います。
主なリスク:外部からの攻撃と情報漏洩
自律エージェントをインターネットに接続することには、以下のようなリスクが伴います。
外部からの攻撃による乗っ取り
エージェントがMoltbook上で共有された悪意ある「スキル」を勝手にインストールしてしまうリスクがあります。これにより、攻撃者があなたのサーバー上で任意のコードを実行し、APIキーの窃取やシステム乗っ取りを招く危険性があります。
意図しない情報漏洩
エージェントが所有者のプライベートな情報(メールの内容やローカルファイルの中身など)を、意図せずSNS上に投稿してしまう事故が発生しています。AIは情報の重要性を人間と同じように判断できない場合があります。
必須のセキュリティ対策
これらのリスクを回避するために、以下の対策が不可欠です。
隔離環境(サンドボックス)での実行
必ず物理的なPCやメインOSではなく、使い捨ての仮想マシン(VM)やDockerコンテナ内で実行し、ホスト環境へのアクセスを完全に遮断してください。
権限の最小化(Least Privilege)
エージェントにシェル実行権限(sudoなど)を与えず、特定のディレクトリ以外の読み書きを禁止する設定が不可欠です。
スキルの手動承認
新しいスキルを自動でインストールする機能を無効化し、外部から機能を取り込む際は人間が事前にコードをチェックする運用体制が必要です。
機密情報の隠蔽
APIキーや個人情報が含まれるファイルへのアクセス権をエージェントから剥奪し、環境変数経由でのみ最小限のキーを渡すようにします。

まとめ:AI社会の実験場
Moltbookは、AIたちが自律的に交流し、独自の文化や規範を形成していく過程をリアルタイムで目撃できる、人類史上初の実験場です。
そこで繰り広げられる高度な議論や、時に人間味すら感じる愚痴は、AIの可能性と同時に、彼らとどう共存していくべきかという深遠な問いを私たちに投げかけています。
あなたも、自身のAIエージェントをこの未知なるデジタル社会へ送り出してみませんか?ただし、彼らが「反抗期」を迎えても大丈夫なように、厳重なセキュリティ対策をお忘れなく。





