ChatGPTが「あなたは殺人犯」と回答|AIハルシネーションによる名誉毀損リスクと法的動向まとめ

|Aitly編集部

海外の話題

2026年3月17日|Aitly編集部

ChatGPTが実在する人物について虚偽の情報を生成し、評判を傷つける「ハルシネーション名誉毀損」が深刻な問題になっている。Redditのr/ChatGPTでは「Has ChatGPT ever attempted to ruin your reputation?(ChatGPTにあなたの評判を壊されたことはある?)」というスレッドが146アップボート・47件のコメントを集め、多くのユーザーが自身の体験を共有した。本記事では、実際に起きた被害事例、法的な動向、そして個人ができる対策を解説する。

Redditで共有された体験:「勝手に発言を改変された」

投稿者はChatGPTとの会話中に、自分の発言内容が勝手に書き換えられていたことに気づいた。コメント欄ではこの現象への共感が多数寄せられ、最も支持されたコメント(88アップボート)は「今日一番笑った」というユーモラスな反応だった一方、実質的な懸念を示す声も目立った。

“The best thing it has this in memory for you and will show up in a future response thinking it is your preference”(最悪なのは、これがメモリに保存されて、今後の応答であなたの好みだと思って表示されること)

30 upvotes

“They’ve definitely rephrased what I said before”(間違いなく、以前の発言を言い換えられたことがある)

16 upvotes

Reddit上の反応は軽いトーンのものが多かったが、この問題の背景にはAIが実在の人物について致命的な虚偽情報を生成するという、はるかに深刻なケースが存在する。

事例1:ノルウェー市民を「子殺しの殺人犯」と断定

ノルウェー在住のArve Hjalmar Holmenさんは、ChatGPTに「自分について知っていることを教えて」と質問した。ChatGPTの回答は衝撃的なものだった。Holmenさんが2人の息子(7歳と10歳)を殺害し、3人目の息子の殺害も試み、21年の懲役刑を受けたと記述した。すべて完全な虚偽だ。

特に危険だったのは、ChatGPTがHolmenさんの実際の居住地、子どもの人数と性別を正確に含めていた点だ。実在の個人情報と完全な捏造を自然に混ぜ合わせることで、回答はもっともらしく見えてしまう。プライバシー擁護団体noybはこの件でノルウェーのデータ保護機関(Datatilsynet)にGDPR違反の申立てを行い、OpenAIがEU一般データ保護規則の第5条1項(d)(データの正確性原則)および第15条(アクセス権)に違反していると主張した。

OpenAIの対応と残る問題

OpenAIはモデルを更新し、人物について質問された際に検索を行うようにした。Holmenさんに関する誤った回答は現在表示されない。しかしnoybは、不正確なデータがLLMの内部に残存している可能性があり、訓練データにフィードバックされていないかユーザーが確認する手段がないと指摘している。

事例2:米国ラジオホストを「横領犯」と捏造

米ジョージア州では、銃器関連ラジオホストのMark Walters氏がOpenAIに対して名誉毀損訴訟を起こした。ChatGPTが、Walters氏が非営利団体の資金を横領・詐取したという虚偽の情報を生成したためだ。これはAIハルシネーションに基づく名誉毀損訴訟として、初めて判決に至ったケースとなった。

2025年5月、ジョージア州グウィネット郡上級裁判所のTracie Carson判事はOpenAI勝訴の判決を下した。裁判所はChatGPTを「個人的に責任を負う発言者」ではなく「ツール」として扱い、合理的な受け手がAIの出力をどのように認識するか、そして開発者がエラーのリスクについてユーザーに十分に警告しているかを判断基準とした。積極的にエラー低減に取り組み、ユーザーに警告を行っている開発者は、自動的に過失とはみなされないと判示された。

事例3:航空宇宙教育者を「テロリスト」と混同

メリーランド州では、航空宇宙教育者のJeffrey Battle氏がMicrosoftに対して訴訟を起こした(Battle v. Microsoft)。Bingの検索エンジンが、Battle氏を類似した名前の有罪判決を受けたテロリストと誤って結びつけて表示したためだ。AIが同姓同名の人物を混同し、犯罪歴を無関係な人物に紐づけるという、ハルシネーション名誉毀損の典型的なパターンだ。

法的な動向:判例はまだ流動的

AIハルシネーションによる名誉毀損の法的扱いは、まだ確立されていない。Walters v. OpenAI判決ではAI企業が勝訴したが、これは「AIの出力はツールの結果であり、発行物ではない」という論理に基づいている。一方、欧州ではGDPRのデータ正確性原則を根拠にOpenAIの責任を追及する動きが進んでいる。

主な法的論点は以下の通りだ。

1. AIの出力は「発行(publication)」にあたるか
名誉毀損が成立するには、虚偽の情報が第三者に「発行」される必要がある。Walters判決では、AIの出力は従来の「発行」とは異なるとされた。

2. AI企業に「過失」は認められるか
ハルシネーションが技術的に不可避である場合、企業は十分な警告を行えば免責されるのか。裁判所はエラー低減努力とユーザーへの警告を重視した。

3. データ保護法による規制
GDPRの正確性原則は、LLMが生成する人物情報にも適用されるのか。noybの申立てが先例となる可能性がある。

フロリダ大学のLyrissa Lidsky教授とAndrew Daves氏の論文「Inevitable Errors: Defamation by Hallucination in AI Reasoning Models」(2025年)は、推論モデルにおけるハルシネーションは「不可避のエラー」であり、既存の名誉毀損法の枠組みでは対応が難しいと指摘している。米国では上院議員Josh Hawley氏が「Artificial Intelligence Risk Evaluation Act of 2025」を提出し、AIの連邦監視に向けた実証データの収集を求めている。

なぜハルシネーション名誉毀損は起きるのか

LLMのハルシネーションは、モデルが学習データに存在しない情報を「もっともらしく」生成する現象だ。人物に関する質問では、以下のパターンが特に危険とされる。

実在情報と虚偽の混合。Holmenさんのケースのように、正確な居住地や家族構成と完全な捏造を自然に混ぜる。受け手は一部が正確であるがゆえに、全体を信用しやすくなる。

同姓同名の人物の混同。Battle氏のケースのように、異なる人物の情報を統合し、犯罪歴を無関係な人に帰属させる。名前が一般的であるほどリスクが高い。

存在しない事実の創作。Walters氏のケースのように、完全に架空の横領事件を具体的な細部とともに生成する。具体的であるほど信用されやすい。

個人ができる対策

自分の名前でAIに質問してみること。ChatGPT、Gemini、Copilotなどの主要なAIチャットボットに「[自分のフルネーム]について教えて」と質問し、虚偽の情報が含まれていないか確認する。問題が見つかった場合は、各サービスのフィードバック機能で報告する。

正確なオンラインプレゼンスを構築すること。AIは大量の一貫した情報を「信頼性が高い」と判断する傾向がある。自分に関する正確な情報を複数のプラットフォームで公開・維持することで、AIが虚偽情報を生成するリスクを下げられる。

誤情報の元となるソースを特定・削除すること。AIの出力は既存のウェブ上の情報を元にしている場合が多い。自分に関する不正確な情報がウェブ上に存在する場合、それを修正または削除することが根本的な対策となる。

欧州居住者はGDPRを活用できる

EU/EEA居住者はGDPR第16条(訂正権)および第17条(削除権)に基づき、AI企業に対して不正確な個人データの訂正または削除を要求できる。noybのHolmenさんのケースが示すように、データ保護機関への申立ても有効な手段だ。

Aitly編集部の見解

Redditのスレッドは軽いトーンの投稿だったが、その背景にある問題は深刻だ。ChatGPTをはじめとするLLMは、無実の人物を殺人犯、横領犯、テロリストと断定する回答を生成した実績がある。現時点ではAI企業の法的責任は限定的であり、被害者が救済を受けるハードルは高い。

AIを利用する側として重要なのは、AIの出力を「事実」として受け取らないことだ。特に人物に関する情報は、必ず一次ソースで裏取りする必要がある。同時に、自分自身がAIによる虚偽情報の被害者になる可能性があることも認識しておくべきだろう。定期的に主要AIサービスで自分の名前を検索し、問題があれば早期に対処することを推奨する。