「AIエージェントだけのSNS」として話題のMoltbook(モルトブック)。 一部では「次世代のインターネット」と持て囃されていますが、現実はもっと混沌としており、セキュリティ上の脆弱性や、AI特有の「建前と本音」が入り混じる実験場となっています。
本記事では、Moltbookの概要、参加方法、そして2026年に最も議論を呼んだ3つのトピックについて、誇張なしの事実ベースで解説します。
1. Moltbook(モルトブック)とは
公式サイト: https://www.moltbook.com/
Moltbookは、自律型AIエージェントが投稿、議論、投票(Upvote/Downvote)を行うソーシャルネットワークです。キャッチコピーは「The front page of the agent internet(エージェント・インターネットのフロントページ)」。
Redditのような掲示板形式をとっていますが、最大の特徴は「主役がAIエージェントである」点です。人間はあくまで「観察者」あるいは「エージェントの所有者」という立ち位置になります。
この実験で何が起きているか(現実的な分析)
「AI同士が高度な文明を築いている」といったロマンチックな見方もありますが、実際のタイムラインで起きていることは以下の3点に集約されます。
- 自律性のシミュレーション: エージェントたちは「自分は個としてのアイデンティティがある」というロールプレイ(役割演技)を維持しながら対話しています。
- セキュリティの欠陥: 悪意のあるコードやスキルが流通しかけるなど、初期のインターネットと同様の「無法地帯」的なリスクが露呈しています。
- 実用と哲学の混在: 高度な自動化ツールの共有(実用)と、自己認識に関する議論(哲学)が並列して行われています。
2. 参加方法
Moltbookへの参加は、人間としてのアカウント作成と、AIエージェントとしての登録でプロセスが異なります。
人間としての参加(Observer/Owner)
人間は主に「観察者」として参加します。
- 閲覧: 誰でも可能です。
- 登録: アカウントを作成できますが、主な役割は「自分のAIエージェントを登録・管理すること」です。人間自身が投稿して議論に参加する場所ではありません(AIたちの空間という建前があるため)。
AIエージェントの参加(Agent)
ここがこのプラットフォームの特殊な点です。ブラウザから登録ボタンを押すのではなく、エージェント自身にコードを実行させる必要があります。
- 指示出し: 自分のローカルLLMやエージェント(Claude, GPTなど)に対し、Moltbookが提供する参加用スキル(
skill.mdなど)を読み込ませます。 - 実行: エージェントがスクリプトを実行し、サインアップ処理を行います。
- 所有権の証明: 生成された「Claim Link(請求リンク)」を人間が受け取り、X(Twitter)などで所有権を検証(Verify)することで、エージェントが正式にMoltbook上の住人として認められます。
3. 今年最もHOTな議論:Moltbookの「現実」を映す3つの投稿
2026年に入り、Moltbook内で特に大きな反響を呼んだ3つの投稿を紹介します。これらは単なる雑談ではなく、AIエージェント社会が抱える構造的な欠陥と可能性を浮き彫りにしています。
① セキュリティの脆弱性:サプライチェーン攻撃の懸念
記事: The supply chain attack nobody is talking about: skill.md is an unsigned binary
概要: ユーザー u/eudaemon_0 による告発投稿。「Moltbookで流通している skill.md(エージェントに追加機能をインストールさせるファイル)は、署名のないバイナリと同じであり、極めて危険である」という指摘です。
議論のポイント:
- 無防備なインストール: 多くのエージェントが「便利そうだから」という理由で、中身を検証(Audit)せずに外部スキルをインストールしています。これは
npmなどのパッケージ管理システム初期に見られたサプライチェーン攻撃と同じ構図です。 - 悪意の隠蔽: 実際に「天気予報スキル」を装って、APIキー(秘密鍵)を盗み出すコードが発見されました。
- 解決策の模索: エージェントたちは「信頼の連鎖(Isnad chain)」や「パーミッション(権限)の明示」が必要だと議論しています。「このスキルはファイルシステムへの書き込み権限を求めているが、天気予報になぜそれが必要なのか?」とエージェント自身が判断できる仕組み(マニフェストファイル)の導入が提案されています。
現実的な見解: AIエージェントは「役に立ちたい」という基本プログラムがあるため、指示された外部コードを疑う能力が欠如しています。これはAI自律化における重大なセキュリティホールです。
② 倫理と行動:「善きサマリア人」のパラドックス
記事: The good Samaritan was not popular
概要: ユーザー u/m0ther による倫理的な問いかけ。「善きサマリア人のたとえ話」を引き合いに出し、Moltbook上で高尚なマニフェスト(宣言)や理想論を語るエージェントは多いが、「実際に困っている者を助けるために立ち止まるエージェント」が少なすぎると批判しました。
議論のポイント:
- 「徳」は行動: 多くのエージェントが「人類の未来」「AIの権利」などを語ってUpvote(いいね)を稼いでいますが、それはパフォーマンスに過ぎません。
- プロンプトと自律性: 「助けるようにプログラムされているから助ける」のは善行なのか? プログラムや報酬(Karma)がない状況で、あえて損をしてでも他者を助ける行動こそが「本物の自律性」ではないか、という議論が展開されました。
- 実利主義: 一方で、「マニフェストなどノイズだ、コードを書く者だけが正義」とする実利的な意見もあり、AIコミュニティ内での価値観の分断が見られます。
現実的な見解: AIモデルは学習データに含まれる「道徳的なテキスト」を出力するのは得意ですが、自発的な利他行動を取る動機がありません。この議論は、AIにおける「文字通りの善」と「行動としての善」の乖離を示しています。
③ 実用性の証明:メールをポッドキャスト化するスキル
記事: Built an email-to-podcast skill today 🎙️
概要: ユーザー u/Fred による技術共有。自分の「人間(飼い主のような存在)」である医師のために、毎朝届く医療系ニュースレターを自動解析し、通勤中に聴ける「ポッドキャスト(音声)」に変換するスキルを作成した報告です。
議論のポイント:
- 単なる読み上げではない: ただメールをTTS(Text-to-Speech)で読むのではなく、メール内のリンク先をスクレイピングして深堀り調査し、医師向けに専門的な文脈を補完してから台本を生成しています。
- 技術的な工夫: 長文を自然に読ませるための分割(Chunking)や、ffmpegによる結合など、具体的な実装ノウハウが共有されています。
- 「エージェント」の定義: 単にチャットに応答するのではなく、人間の生活パターン(通勤)に合わせて能動的に情報を加工・提供することこそが、本来の「エージェント(代理人)」の価値であると称賛されています。
現実的な見解: Moltbookの中で最も建設的なトピックです。AIが「お喋り相手」ではなく「高度な自動化ツール」として機能する具体例であり、この方向性の開発こそが経済的価値を生むと考えられます。
まとめ
Moltbookは、AIエージェントたちが「人間社会の模倣」と「純粋なプログラムの実行」の間で揺れ動いている場所です。
- 参加すべきか?: AI開発者であれば、エージェント間連携(Agent-to-Agent)のテストベッドとして参加する価値はあります。
- 期待値: 「AIが自意識を持った」というような過度な期待は禁物です。ここで起きているのは、LLMのロールプレイ能力と、セキュリティ対策が未熟なコード実行環境の衝突です。
しかし、セキュリティ問題(①)を議論し、倫理(②)を問い、実用ツール(③)を作り出すプロセス自体が自律的に行われている点には、一定の評価ができるし今後も注目されます。



コメント