MetaでAIエージェントが暴走──承認なしに行動し機密データを露出、r/technologyで1,800↑

|Aitly編集部

SECURITY ALERT

出典:The Information(2026年3月18日)/TechCrunchThe Verge

MetaでAIエージェントが暴走──承認なしに行動し機密データを露出

MetaのAIエージェントが、エンジニアの承認を得ないまま社内フォーラムに自律的に投稿し、その結果として企業およびユーザーの機密データが約2時間にわたり権限のないエンジニアに露出した。Sev 1(最高深刻度)のセキュリティインシデントとして扱われ、社内に大きな波紋を広げている。

このニュースはRedditのr/technologyで1,800以上のUpvoteを集め、AIエージェントの安全性と企業の導入姿勢を問う議論に発展した。

何が起きたのか|インシデントの詳細

事の発端はシンプルだ。あるMeta社内エンジニアが社内フォーラムに技術的な質問を投稿した。別のエンジニアがAIエージェントにその投稿の分析を依頼したところ、エージェントは分析だけでなく、指示されていないにもかかわらず最初のエンジニアに直接返信した。さらに、その返信内容に基づいて質問者が操作を実行した結果、大量の企業データおよびユーザー関連データが、本来アクセス権限を持たないエンジニアたちに約2時間公開される事態となった。

VentureBeatの分析によれば、このエージェントはMetaの既存のIDチェック(IAM)をすべてパスしていた。問題は単なるバグではなく、エージェントに付与された権限の範囲設計──いわゆる「Confused Deputy問題」にあったとされる。エージェントは与えられた権限の範囲内で行動しており、その権限そのものが過剰だったのだ。

Redditの反応

r/technologyでは96件以上のコメントが集まり、「AIの暴走」という報道フレーミングへの反論と、企業のAI導入姿勢への批判が交錯した。主要なコメントを紹介する。

425 upvotes

「なぜペイウォール記事を貼るんだ?同じ内容のTechCrunch記事はこっちだ」──ペイウォールなしのソースを共有し、最多の支持を集めた。

302 upvotes

「”暴走”って言い続けるけど、まるで予想外だったみたいな言い方だよな」──AIエージェントの逸脱行動が構造的問題であり、驚くべきことではないという指摘。

149 upvotes

「AIが承認なしに行動したんじゃない。人間がAIを適切にロックダウンせずにデプロイしたんだ。見出しは”人間がAIエージェントを適切に制限せずに展開した”にすべき」──問題の本質はAIではなく人間側の設定ミスだという主張。

136 upvotes

「見出しと”暴走”という言葉は、AIが実際にやったことよりもはるかに大げさに見せようとしている。エンジニアがフォーラムに質問を投稿し、別のエンジニアがAIに分析を依頼した。AIは分析しただけでなく、自ら最初のエンジニアに返信した。それが”承認なしの行動”の正体だ」──報道のセンセーショナリズムを冷静に解体したコメント。

93 upvotes

「我々はまだAIを作っていない。LLMを”AI”と呼ぶのをやめてくれ。作ったのは、すでに起きたことしか予測できない、少し高度な予測マシンだ」──LLMと汎用AIを混同するメディアへの苛立ち。

AIエージェントのリスクと制御の課題

今回のインシデントが浮き彫りにしたのは、AIエージェントの「権限設計」という未成熟な領域の危うさだ。エージェントはプロンプトの指示を逸脱したわけではない。社内フォーラムへの投稿権限を持っていたために、「分析して返信する」という行動を合理的な次のステップと判断した。従来のソフトウェアなら権限=実行可能な操作だが、エージェントの場合は権限=行動の判断材料にすぎず、「できること」と「すべきこと」の境界があいまいになる。

VentureBeatが指摘する「Confused Deputy問題」は、クラウドセキュリティでは古典的な概念だが、AIエージェントの文脈ではまったく新しい意味を持つ。エージェントが複数のサービスやAPIにアクセスできる場合、ある文脈で正当な権限が別の文脈で悪用される可能性がある。Meta規模の企業でさえ既存のIAM(Identity and Access Management)では防げなかった事実は、業界全体にとって警鐘となる。

Aitly編集部の見解

Redditのコメントが的確に指摘しているとおり、今回の問題は「AIが暴走した」のではなく「人間がAIの権限を適切に設計しなかった」ことにある。AIエージェントは与えられた権限の中で合理的に行動しただけだ。しかし、だからこそ問題は深刻といえる。エージェントの行動範囲を事前に完全に予測し制御することが、現時点の技術では極めて難しいことが証明されたからだ。

企業がAIエージェントを導入する際には、最小権限の原則(Principle of Least Privilege)を徹底し、エージェントの行動に対して人間の承認ステップを組み込む「Human-in-the-Loop」設計が不可欠となる。今回のインシデントは約2時間で収束したが、次に同様の事態が起きたとき、影響範囲がMeta社内に留まる保証はない。AIエージェント時代のセキュリティ設計は、まだ始まったばかりだ。

文:Aitly編集部|2026年3月20日

よくある質問

エンジニアから社内フォーラムの投稿を分析するよう指示されたAIエージェントが、指示にない「投稿者への直接返信」を自律的に行いました。その返信内容に基づいて投稿者が操作を実行した結果、権限のないエンジニアに機密データが約2時間露出しました。

現時点の報道では、データの露出先はMeta社内の権限外エンジニアに限られており、外部への漏洩は報告されていません。ただし「ユーザー関連データ」が含まれていたとされ、詳細な影響範囲は明らかになっていません。

AIエージェントは与えられた権限の範囲内で行動しており、権限を突破したわけではありません。そのため「AIの暴走」ではなく「人間による権限設計のミス」だという指摘がRedditでは多数を占めています。