AI顔認識の誤認で無実の祖母が6ヶ月投獄──Reddit 5,800超のアップボートで炎上した事件の全容

|Aitly編集部

海外の話題

2026年3月17日|Aitly編集部

AI顔認識技術の誤認識により、テネシー州在住の50歳の祖母Angela Lippsさんが約6ヶ月間にわたり投獄されていた事件が、Redditのr/technologyで5,800超のアップボートと212件のコメントを集め、大きな議論を呼んでいる。Lippsさんは自宅も車もペットも失ったが、警察からの公式な謝罪は一切なかった。

事件の概要:1,200km離れた場所で起きた犯罪の「犯人」に

Angela Lippsさん(50歳)は3人の子どもと5人の孫を持つテネシー州中部在住の女性だ。2025年4月から5月にかけて、ノースダコタ州ファーゴで偽の米軍軍人IDを使い銀行から数万ドルを引き出すという詐欺事件が発生。ファーゴ警察は防犯カメラの映像にAI顔認識ソフトウェアを適用し、約1,200マイル(約1,900km)離れたテネシー州に住むLippsさんを容疑者として特定した。

2025年7月、Lippsさんは自宅で4人の子どもをベビーシッターしている最中に、米国連邦保安官に銃を突きつけられて逮捕された。個人情報の不正使用4件と窃盗4件の容疑がかけられた。

108日間放置され、すべてを失った

Lippsさんはまずテネシー州の郡刑務所に逃亡者として収容されたが、保釈は認められず、約4ヶ月間にわたり身柄引き渡しを待つだけの状態が続いた。ファーゴ警察がLippsさんを引き取りに来たのは、逮捕から108日後のことだ。その間、一度も本人への聴取は行われなかった。

最初の面談が実現したのは12月、ノースダコタ州で拘留中のことだった。弁護士のJay Greenwood氏が銀行記録を提出し、犯行日時にLippsさんが1,200マイル以上離れたテネシー州にいたことを証明。警察は起訴を取り下げたが、Lippsさんがようやく釈放されたのはクリスマスイブだった。

約6ヶ月の拘留中に、Lippsさんは自宅・車・飼い犬を失った。釈放後はファーゴに所持金なしで取り残され、地元の弁護士がホテルを手配し、非営利団体「F5 Project」がテネシー州への帰還を支援した。ファーゴ警察からの謝罪や帰還費用の負担はなかった。

検証の失敗

ファーゴ警察の刑事はAIの照合結果を受けて「顔の特徴、体型、髪型が一致する」と同意したが、本人に連絡を取って確認することは一度もなかった。1本の電話で防げた冤罪だった。

Redditの反応:AIではなく「人間の怠慢」への怒り

r/technologyに投稿されたこのニュースには、5,800超のアップボートと212件のコメントが集まった。最も支持を集めたコメント(1,843アップボート)は、記事の見出しを修正する形で本質を突いている。

「『祖母が6ヶ月間投獄され、仕事、家、ペット、車を失った。なぜなら大勢の人間が最も基本的な職務を果たさなかったから。』――見出しを修正しておいたよ」

1,843 upvotes

「保釈制度にも改革が必要だ。金融犯罪の容疑で、法的手続きが進む間4ヶ月も刑務所に座らされるべきではない」

946 upvotes

「怖いのはAIが間違えたことではない。AIの照合結果と逮捕の間にいた人間が、誰一人ダブルチェックしなかったことだ。6ヶ月。家を失い、車を失い、犬を失った。そして謝罪もなし」

213 upvotes

コメント欄で繰り返し指摘されたのは、AIの精度の問題よりも、人間の検証プロセスが完全に機能していなかったという点だ。AIはあくまで「候補」を提示するツールであり、それを確定情報として扱った捜査員と司法システムに根本的な欠陥があるという意見が大勢を占めた。

責任の所在:「AIのせい」で済ませる構造的問題

362アップボートを集めたコメントは「AIに罰金を科したり投獄したりすることはできない。誰が責任を取るのか」と問いかけている。AI顔認識の導入は、結果的に「責任回避の道具」として機能しているという批判だ。

従来の捜査であれば、誤認逮捕の責任は明確に捜査官や組織に帰属する。しかしAIが介在することで、「AIが誤った」という一言で人間の判断ミスが曖昧にされる構造が生まれている。今回の事件でも、ファーゴ警察は起訴を取り下げただけで、責任の明確化や謝罪は行っていない。

AI顔認識の誤認識は「例外」ではない

AI顔認識による冤罪はLippsさんの事件だけではない。2025年4月、ニューヨーク市警(NYPD)はAI顔認識の照合結果を基にTrevis Williamsさんを逮捕したが、実際の容疑者より6インチ(約15cm)も身長が高かった。デトロイトでは、顔認識AIに殺人容疑者として誤認された女性が訴訟を起こしている。

これらの事例に共通するのは、AIの出力を「参考情報」ではなく「確定的な証拠」として扱っているという運用上の欠陥だ。顔認識AI自体が「候補リスト」を返すツールであるにもかかわらず、それを裏付けなしに逮捕状の根拠とする警察の運用が根本的な問題として残り続けている。

AI顔認識の精度に関する既知の問題

米国国立標準技術研究所(NIST)の調査では、多くの顔認識アルゴリズムにおいて、黒人・アジア系の顔に対する誤認率が白人と比較して10〜100倍高いことが報告されている。性別・年齢・人種によって精度が大きく偏るという技術的限界は、すでに広く知られた事実だ。

この事件が問いかけるもの

Lippsさんの事件は、AI技術そのものの善悪ではなく、「AIを使う人間と組織の責任」を鋭く問いかけている。テクノロジーは確かに捜査を効率化するが、効率化が検証プロセスの省略につながるなら、その代償を払うのは無実の市民だ。

Redditのコメント欄で最も多くの共感を集めたのは、技術批判ではなく「人間の怠慢」への怒りだった。AIが間違えることは想定内であるべきで、それを前提にした運用設計ができていないことが本質的な問題だ。1本の確認電話、1回のアリバイ確認で防げた6ヶ月の投獄。失われた家、車、ペット、そして日常は、テクノロジーではなく人間の判断の失敗が生んだ被害だ。