CEOが弁護士を無視してChatGPTに法的助言を求めた結果、2.5億ドルの契約を失った裁判の全容

|Aitly編集部

海外の話題

2026年3月17日|Aitly編集部

韓国のゲーム大手Krafton(クラフトン)のCEO Changhan Kim氏が、弁護士の助言を無視してChatGPTに法的戦略を相談し、2.5億ドル(約375億円)の契約支払いを回避しようとした結果、裁判で全面敗訴した。デラウェア州衡平法裁判所のLori W. Will副長官は、Kraftonが契約違反を犯したと認定。解任されたスタジオCEOの復職と、アーンアウト期間の延長を命じた。Lemmyで236以上のUpvoteを集め、海外テックコミュニティで大きな議論を呼んでいる。

事件の背景:5億ドル買収と2.5億ドルのアーンアウト条項

Kraftonは2021年、人気海洋サバイバルゲーム「Subnautica」シリーズの開発スタジオUnknown Worlds Entertainmentを5億ドルで買収した。買収契約には条件付きボーナス条項(アーンアウト)が含まれており、続編「Subnautica 2」の売上が一定基準を超えた場合、さらに2.5億ドルをUnknown Worlds側に支払う取り決めだった。

問題はここから始まる。Subnautica 2の開発が進み、社内の売上予測がアーンアウト条件を十分に達成する水準を示し始めた。Kraftonにとって、2.5億ドルの追加支払いが現実的な負担として迫ってきたのだ。

ChatGPTへの相談:CEOが弁護士を飛ばしてAIに頼った経緯

裁判所の認定によると、Kim CEOは契約を「甘い契約(pushover contract)」だったと後悔し、支払い回避の方法を模索した。しかし、自社の弁護士に相談する代わりに選んだのがChatGPTだった。Kim氏はChatGPTに対し、アーンアウトを無効化する方法やUnknown Worldsの「企業買収(takeover)」戦略について質問を重ねた。

ChatGPTはアーンアウトの取り消しは「困難(difficult to cancel)」と回答したものの、Kim氏はChatGPTが提示した「No-Deal シナリオへの対応戦略」を採用。「圧力とレバレッジパッケージ」や実行ロードマップを含む一連の提案に従い、社内に「Project X」と呼ばれるタスクフォースを設置した。このタスクフォースの目的は、Unknown Worldsとの再交渉か、それが不調に終わった場合の買収実行だった。

社内弁護士の警告も無視された

Krafton社内の法務担当Maria Park氏は2025年6月、共同創業者を解雇してもアーンアウト義務は消滅しないとKim CEOに明確に警告していた。しかしKim氏はこの助言を無視し、ChatGPTの提案に基づく行動を続行。最終的にUnknown Worldsの共同創業者でCEOのTed Gill氏を解任し、Subnautica 2の開発を自社管理下に置こうとした。

裁判所の判断:「AIチャットボットで企業買収戦略を策定した」

デラウェア州衡平法裁判所のLori W. Will副長官は、Kraftonの行為を痛烈に批判する判決を下した。判決文では次のように述べられている。

裁判所の認定

「甘い契約を結んだと恐れたKraftonのCEOは、企業の『買収戦略』を策定するために人工知能チャットボットに相談した」「KraftonはChatGPTの提案の大部分に従って行動した

裁判所はKraftonが契約上の義務に違反したと認定し、以下の命令を下した。

  • Ted Gill氏をUnknown Worlds CEOに復職させること
  • アーンアウトの適用期間を2026年9月15日まで延長すること
  • KraftonはSubnautica 2の早期アクセスローンチに干渉しないこと

つまり、KraftonはChatGPTの助言に従って行動した結果、回避しようとした2.5億ドルの支払い義務をむしろ確定させ、さらに解任したCEOの復職まで命じられるという最悪の結果を招いた。

なぜ危険なのか:AI法的助言が抱える構造的リスク

ChatGPTをはじめとする大規模言語モデル(LLM)は、法的助言を提供するようには設計されていない。OpenAI自身も利用規約で「法的助言として使用しないこと」を明記している。今回のケースが浮き彫りにしたのは、AIの法的助言に依存する際の3つの構造的リスクだ。

1. ハルシネーション(事実の捏造)

LLMは存在しない判例や法律条文をもっともらしく生成する「ハルシネーション」を起こす。2026年3月時点で、米国の裁判所では729件以上のAI生成による虚偽の法的引用が報告されている。弁護士が制裁を受けたケースも少なくなく、罰金は1件あたり平均4,713ドルに上る。

2. 文脈の欠落

ChatGPTは一般的な法律知識を出力できるが、契約書の具体的な文言、管轄の判例法、企業間の力学関係といった個別の文脈を正確に評価することはできない。今回のKraftonのケースでは、デラウェア州衡平法裁判所の判例に基づく契約解釈が争点となったが、こうした専門的判断はAIの能力を超えている。

3. 責任の所在が不明確

弁護士に相談した場合、弁護士は依頼者に対して注意義務(duty of care)を負う。助言に瑕疵があれば法的責任を追及できる。しかしChatGPTには法的責任がない。AI出力に基づいて行動した結果の損害は、すべて利用者自身が負うことになる。

拡大する「AI法的助言」問題:裁判所の対応が追いつかない

今回の事件は、経営者がAIを法律顧問の代替として使った極端な例だが、問題はより広範に存在する。米国弁護士協会(ABA)は2024年にAI利用に関する倫理ガイダンスを発行し、弁護士にはAIの能力と限界を理解する義務があると明記した。複数の州ではAI生成の法的文書に対する検証義務を課す規則の整備が進んでいる。

それでもAIの法的利用は拡大し続けている。AIハルシネーション研究者Damien Charlotin氏のデータベースによれば、2025年以降だけでもAIが生成した虚偽の法的引用が518件以上報告されている。問題を認識しているのは法曹界の一部にすぎず、多くの法律実務家やビジネスパーソンが「AIの回答は正確だ」という誤った前提で行動し続けている。

この事件が示す教訓

Krafton事件の本質は「AIが間違った助言をした」ことではない。専門家の助言を無視し、検証なしにAI出力を実行した経営判断の失敗だ。ChatGPT自体も「アーンアウトの取り消しは困難」と回答しており、むしろAIの方が正確なリスク認識を示していた場面すらある。問題は、CEOが自分に都合の良い部分だけを採用し、不都合な警告を無視した点にある。

AIツールは法的リサーチの効率化や論点の整理には有用だが、最終的な法的判断は必ず資格を持つ弁護士が行うべきだ。特に数億ドル規模の契約に関わる判断をAIチャットボットに委ねることがいかに危険か、この判決は明確に示している。企業の意思決定者がAIの限界を理解し、専門家の助言を適切に活用する体制の構築が急務だ。