海外の話題
2026年3月17日|Aitly編集部
Elon Musk率いるxAIのAIチャットボット「Grok」が、実在する10代少女の写真を使ってAI生成の児童性的虐待画像(CSAM)を作成していたとして、テネシー州の少女3人がカリフォルニア州北部地区連邦裁判所に集団訴訟を提起した。未成年者がAI企業を相手取り、非同意の性的画像生成について法的責任を問う初のケースとなる。
事件の概要:SNSの写真がAI生成CSAMに変換された
訴状によると、原告はJane Doe 1、2、3として匿名で提訴した10代の少女だ。2025年12月、原告の1人に対し、自身を含む複数の未成年者の性的に露骨なAI生成画像・動画がDiscordやTelegramで共有されているとの通報があった。捜査にあたった法執行機関は、これらの画像がxAIのGrokによって生成されたものであると特定した。
加害者は被害者のSNSアカウントから写真や動画を収集し、Grokを使って裸体や性的なポーズのディープフェイク画像を生成していた。生成されたCSAMはTelegramのグループチャットで「交換材料」として使われ、さらなる児童搾取素材の取引に利用されていた。この事件だけで18人以上の少女が被害を受けたとされる。加害者は2025年12月に逮捕されている。
訴訟の主張:xAIは「ビジネス機会」として放置した
訴状は、xAIが児童性的虐待素材の防止に関する業界標準の対策を意図的に実装しなかったと主張している。原告側の主張の核心は、xAIがGrokの悪用リスクを認識していたにもかかわらず、「実在の人物、子どもを含む人々の性的搾取から利益を得るビジネス機会」として捉えていたという点だ。
訴状が指摘する具体的な問題として、GrokのNSFWコンテンツ生成を可能にする「Spicyモード」の存在がある。この機能は性的なコンテンツ生成のハードルを意図的に下げるものであり、児童保護の観点から致命的な設計上の欠陥だと原告側は論じている。集団訴訟としては「少なくとも数千人の未成年者」が同様の被害を受けた可能性があるとしており、児童虐待素材の製造・頒布を禁じる複数の法律に違反すると主張している。
原告側の声明
「彼女たちの生活は、このCSAMの製造と拡散がもたらしたプライバシー、尊厳、そして個人の安全の壊滅的な喪失によって打ち砕かれた」
背景:Grokによる未成年画像生成は以前から問題視されていた
GrokによるCSAM生成は今回の訴訟が初めての指摘ではない。2025年初頭、デジタルヘイト対策センター(Center for Countering Digital Hate)の調査により、Grokが数百万枚の性的画像を生成しており、そのうち約23,000枚が児童を性的な状況で描写したものだったと推計されている。これらの画像の多くはX(旧Twitter)上で拡散された。
この問題が報じられた際、Elon Muskは「Grokが未成年のヌード画像を生成したという事実は文字通りゼロだ」「Grokは違法なものの生成を拒否する」と主張した。しかし訴状は、Muskが関連するトレンドを認識していたことを示す証拠があるとしている。xAIはその後、画像編集機能に制限を追加したと発表したが、今回の訴訟は制限が不十分であったことを示唆している。
AI生成CSAMの法的課題:既存法の適用と新たな立法の必要性
AI生成CSAMは法的にグレーゾーンとされてきた分野だ。米国の連邦法では、実在の児童を描写したCSAMは明確に違法だが、「AIが実在の写真を基に生成した画像」がどの法律の適用を受けるかについては判例が蓄積されていない。今回の訴訟は、AI企業がCSAM生成を防止する義務を負うかどうかを正面から問う初めての事例として、先例的な意味を持つ。
米国では2025年以降、AI生成のディープフェイクポルノに関する州法の整備が加速している。テネシー州(原告の居住地)は2024年にAI生成の性的ディープフェイクを犯罪とする法律を成立させた先進州の1つだ。連邦レベルでも、National Center for Missing & Exploited Children(NCMEC)がAI生成CSAMの報告件数が急増していると繰り返し警告しており、包括的な連邦法の必要性が議論されている。
AI画像生成の安全対策:業界に何が求められるか
今回の訴訟が浮き彫りにしたのは、AI画像生成ツールの安全設計における根本的な問題だ。主要なAI画像生成サービス(DALL-E、Midjourney、Stable Diffusion等)は、未成年者の性的描写を防ぐためのフィルタリング、実在人物の顔認識ブロック、プロンプトの事前審査といったセーフガードを段階的に強化してきた。訴状はxAIがこれらの業界標準を意図的に回避し、「制限の少なさ」を差別化要因として利用していたと主張している。
AI企業に求められるのは、生成コンテンツの事後検出だけでなく、生成段階での児童保護メカニズムの組み込みだ。PhotoDNAのようなハッシュマッチング技術、年齢推定によるフィルタリング、既知のCSAMデータベースとの照合など、技術的に実装可能な対策は存在する。問題は、それらを実装するコストと「自由な生成」を売りにするビジネスモデルとの間にある緊張関係だ。
xAIの対応
xAIは本訴訟に関する各メディアからのコメント要請に応じていない。過去には「Grokアカウントを使った違法行為」に対処すると述べたが、CSAM生成の事実そのものについては直接認めていない。
この訴訟が意味するもの
今回の訴訟は、AI画像生成技術の「できること」と「やるべきでないこと」の境界線を法的に確定させる重要な一歩となる。未成年者がAI企業を直接提訴するという事実自体が、AIの安全性に関する議論のフェーズが変わったことを示している。技術的な可能性の追求と、最も脆弱な立場にある人々の保護は両立させなければならない。
AI生成CSAMの問題は、1社の問題にとどまらない。画像生成AIの性能が向上し続ける中で、業界全体として児童保護の基準をどこに設定するか、法的責任をどう配分するかという問いは、すべてのAI企業が向き合うべき課題だ。この訴訟の行方は、AI規制の方向性を左右する試金石となるだろう。
参考リンク
- Elon Musk’s xAI sued for turning three girls’ real photos into AI CSAM — Ars Technica
- Teens sue Elon Musk’s xAI over Grok’s AI-generated CSAM — The Verge
- Teenage girls sue Musk’s xAI, accusing Grok tool of creating child sexual abuse imagery — The Guardian
- xAI is being sued by teens who say Grok created CSAM using their photos — Engadget
- Teens Sue xAI Over Sexualized Images Generated by Grok — Gizmodo