2026年3月21日 | Aitly編集部
米国防総省(ペンタゴン)がAnthropicに対し「戦時中にAIモデルClaudeを妨害(サボタージュ)できる」と主張し、Anthropic側が法廷で「技術的に不可能」と否定した。Wiredが2026年3月に報じたこの一件は、AIの軍事利用と安全性をめぐる異例の法的対立として注目を集めている。
この記事でわかること
- 国防総省がAnthropicを「サプライチェーンリスク」に指定した経緯と理由
- 「配備後の妨害は技術的に不可能」とするAnthropicの反論の要点
- 安全性ガードレール撤去要求の背景とPalantir経由の軍事利用の現状
- 海外メディア・Redditコミュニティの反応
目次
国防総省の主張|「Anthropicは戦時中にAIツールを妨害できる」
米司法省は裁判資料のなかで、Anthropicが「戦時中にClaudeモデルを操作し、軍の運用を妨害する能力を持つ」と主張した。国防総省は通常、HuaweiやZTEなど外国の敵対企業に適用する「サプライチェーンリスク」のラベルをAnthropicに付与しており、米国企業がこの指定を受けるのはきわめて異例だ。
司法省の主張の核心は「モデル提供元であるAnthropicは、デプロイ後もアップデートやバックドアを通じてモデルの挙動を変更できる」という点にある。軍がClaudeを機密ネットワーク上で稼働させていても、Anthropicがリモートで干渉できるリスクがあるとし、「Anthropicは信頼できない」と断じた。
SOURCE|Wired(2026年3月)
“The Justice Department has said Anthropic ‘can’t be trusted’ — and that the company could manipulate Claude models mid-deployment during wartime.”
Anthropicの反論|「モデル配備後の操作は技術的に不可能」
Anthropic経営陣は法廷提出書類で「軍がモデルを受領し、自身のインフラ上で稼働させた段階で、当社がそのモデルを遠隔操作することは技術的に不可能」と明確に否定した。Wiredの報道によれば”Company executives argue that’s impossible”(同社幹部は不可能だと主張)と端的にまとめられている。
Claudeは現在、Palantirのプラットフォームを経由して米軍の機密ネットワーク上にデプロイされている。Anthropic側の論点は、エアギャップ環境にあるモデルの重みに対して外部からリモートアクセスすることはインフラ構造上不可能であり、国防総省の懸念は技術的誤解に基づくというものだ。
背景|サプライチェーンリスク指定と安全性ガードレール問題
なぜAnthropicはリスク指定されたのか
対立の発端は、国防総省がClaudeの安全性ガードレール(自律型兵器や大量監視への使用を防ぐ制限)の撤去を求めたことにある。Anthropicはこれを拒否した。安全性を企業理念の根幹に据えるAnthropicにとって、軍の要求を受け入れることはブランドの根本的毀損を意味する。
Anthropicはガードレール撤去拒否を受けた国防総省のリスク指定に対し、政府を提訴。これに対して司法省は「Anthropicは信頼できない」と応答し、法廷闘争がエスカレートした。CEOのDario Amodei氏は、中国関連企業との取引を打ち切るために数億ドル規模の収益を放棄したと表明しており、安全保障面での誠実さを強調する構えだ。
Palantir経由の軍事デプロイ
ClaudeはPalantir Technologies経由で米軍の機密ネットワークにすでにデプロイされており、実運用の段階にある。Anthropicは軍事利用そのものを全面拒否しているわけではなく、自律型兵器や大量監視といった特定の用途に対してのみガードレールを維持する立場だ。この「軍事利用は認めるが倫理的制限は守る」というスタンスが、国防総省との溝を深めている。
海外メディア・Redditの反応
主要メディアの論調
Wiredに加え、The New Yorker、The Guardian、CBS News、Axiosなど複数の主要メディアがこの紛争を継続的に報じている。共通する論点は「AI企業の安全性ポリシーと国家安全保障のニーズが正面衝突した前例のないケース」という位置づけだ。特にGuardianは、通常は外国企業に適用されるサプライチェーンリスク指定が米国のAI企業に向けられた異常性を強調している。
r/Anthropicの議論
Redditのr/Anthropicサブレディットでは、Wired記事を受けた活発な議論が展開されている。「安全性を理由に政府と戦うAnthropicを支持する」という意見がある一方、「政府案件を受けながらガードレールだけ維持するのはダブルスタンダード」という批判も少なくない。技術面では「エアギャップ環境で本当にリモート操作不可能なのか」という検証議論も見られ、モデルの配布形態やアップデート手段についての詳細な技術的考察が交わされている。
REDDIT|r/Anthropic
“This is a company literally being penalized for trying to do the right thing. The Pentagon wants AI with no safety rails — and punishes anyone who disagrees.”
Aitly編集部の見解
Anthropicと国防総省の対立は、AI業界全体にとっての分岐点となる可能性がある。「安全性ガードレールを外さないなら信頼できない」という国防総省の論理は、AI企業が安全性を追求するほど政府案件から排除されるという逆インセンティブを生みかねない。
技術的な争点についてはAnthropicの主張に妥当性がある。エアギャップ環境に配備されたモデルの重みをリモートで書き換えることは、通常のデプロイ形態では不可能だ。ただし、アップデートの配布経路やファインチューニングのプロセスにおいて理論上の介入余地がゼロとは言い切れず、今後の法廷審理で技術的な詳細が精査されることになるだろう。この裁判の結果は、AI企業と政府の関係に長期的な先例を作ることになる。
参考リンク
- Wired — Anthropic Denies It Could Sabotage AI Tools During War
- Reddit r/Anthropic — 関連ディスカッション
- The Guardian — Anthropic・Pentagon関連報道
- Axios — AI軍事利用関連報道
よくある質問(FAQ)
Anthropicはなぜ国防総省に「サプライチェーンリスク」指定されたのですか?
Anthropicは本当にデプロイ後のモデルを遠隔操作できないのですか?
この裁判はAI業界全体にどんな影響がありますか?
Aitly編集部