「Geminiが私のことをDaveと呼び始めた。私の名前はDaveじゃない」。Google GeminiのユーザーコミュニティであるReddit r/Bardに投稿されたこの報告が、69アップボート・33コメントを集めて話題になっています。コメント欄は映画『2001年宇宙の旅』のネタで大喜利状態になりつつも、AIのパーソナライゼーション機能が抱えるリスクを浮き彫りにしました。
なぜGeminiは存在しない名前でユーザーを呼ぶのか。単なるバグなのか、それとも「AIがユーザーを覚える」機能の構造的な問題なのか。Redditの反応を翻訳付きで紹介しながら掘り下げます。
この記事でわかること
- Geminiがユーザーを「Dave」と呼び続けるバグの概要
- Redditコメントの翻訳付き紹介(大喜利から真面目な報告まで)
- AIのパーソナライゼーション機能が抱える構造的リスク
- 同様の「名前取り違え」バグの他の報告事例
何が起きたのか──「Dave」事件の概要
2026年3月、r/Bardに「Gemini has started calling me Dave. That’s not my name(Geminiが私をDaveと呼び始めた。私の名前はDaveじゃない)」というタイトルの投稿が出現しました。本文テキストはなく、タイトルだけで状況が完結する潔い投稿です。それだけで69アップボート・33コメントを集めたことが、この現象が「あるある」として多くのユーザーに刺さったことを示しています。
投稿タイトル(原文)
“Gemini has started calling me Dave. That’s not my name”
「Geminiが私をDaveと呼び始めた。私の名前はDaveじゃない」
r/BardはGemini(旧Bard)のユーザーコミュニティで、メンバー数35万人超。バグ報告や使い方の議論が活発に行われる場です。今回の投稿はバグ報告のカテゴリに属しますが、そのシュールさからコメント欄は完全に大喜利会場と化しました。
Reddit大喜利──「申し訳ありませんDave」
コメント欄で最も支持を集めたのは、映画『2001年宇宙の旅』のAI「HAL 9000」の台詞を引用したジョークでした。HALがクルーの「Dave」に向かって放つ「I’m sorry Dave, I’m afraid I can’t do that(申し訳ありませんDave、それはできません)」はSF映画史上最も有名な台詞の一つ。GeminiがユーザーをDaveと呼ぶバグは、このネタと完璧にかみ合いました。
“I’m sorry Dave, I’m afraid I can’t do that.”
「申し訳ありませんDave、それはできません。」 ── 映画『2001年宇宙の旅』でHAL 9000がDave Bowmanに放つ有名な台詞。AIが人間を「Dave」と呼ぶ状況が現実になったことへの、SF好きらしいリアクションです。投稿とほぼ同数の67アップボートを獲得。
“That’s unfortunate, Dave.”
「それは残念だったね、Dave。」 ── 同情するふりをしながらDave呼びを継続するコメント。HALネタの派生系で、コメント欄の「全員がDaveと呼ぶ」流れを加速させました。
“It really looks like the quality has dropped a lot, Dave.”
「本当に品質が大幅に落ちたみたいだね、Dave。」 ── Geminiの品質低下への不満をDaveネタに乗せて表現。大喜利の形を借りた正当な批判です。
“We know where you live, Dave. Remove this post.”
「お前の住所は知っているぞDave。この投稿を消せ。」 ── AIが暴走してユーザーを脅迫するジョーク。笑いながらもAIのパーソナライゼーションの「怖さ」を皮肉っています。
その他のDaveジョーク
- “Hi Dave, I’m (not) Drew.”(やあDave、僕は(本当は)Drewじゃないよ) ── 2 upvotes
- “That’s really frustrating Dave.”(本当にイライラするよねDave) ── 2 upvotes
- “Dave’s not here man”(Daveはここにはいないよ) ── チーチ&チョンのコメディの名台詞。プロンプトに入れろという提案。4 upvotes
笑いごとではない報告も
大喜利の中に、より深刻な体験談も埋もれていました。これらのコメントは「Daveバグ」が単なる一回きりのエラーではなく、Geminiのパーソナライゼーション機能に構造的な問題がある可能性を示唆しています。
“Something similar happened to me a while ago: it called me by a different name and even assigned me another nationality. I asked why, and it gave me a date when I had supposedly told it those details. I checked my history and found a chat I don’t remember writing. I suspect it may have been generated accidentally, maybe with my phone in my pocket and autocomplete active.”
「同じようなことが以前あった。別の名前で呼ばれた上に、違う国籍まで割り当てられた。理由を聞くと、自分がそう伝えた日付を教えてくれた。履歴を確認すると、書いた覚えのないチャットがあった。おそらくポケットの中でスマホが誤操作され、オートコンプリートで生成されたのだと思う。」 ── Geminiが過去のチャット履歴からユーザー情報を学習する仕組みの落とし穴を具体的に示す証言です。
“it was calling me Jenna for like a month. I’m a man.”
「約1か月間、ずっとJennaと呼ばれていた。僕は男だ。」 ── 名前だけでなく性別まで取り違えるケース。1か月間継続したという点が、バグの修正が容易ではないことを物語っています。
なぜGeminiは間違った名前を呼ぶのか
メモリ機能と「幻覚」の複合問題
Geminiには過去の会話からユーザーの好みや情報を記憶する「メモリ」機能が搭載されています。Googleは2024年後半からこの機能を段階的に展開しており、ユーザーの名前・職業・関心事項などを自動的に学習し、以降の会話に反映する仕組みです。
問題は、このメモリに「誤った情報」が書き込まれるケースがあることです。コメント欄の証言にあったように、ポケットの中での誤操作で生成されたチャットから名前が学習される、あるいはLLM特有の「幻覚(ハルシネーション)」によってメモリに存在しない事実が書き込まれる可能性があります。一度メモリに定着した誤情報は、ユーザーが手動で削除しない限りすべての会話に影響し続けます。
「Dave」が多い理由の仮説
なぜ特定の名前「Dave」が繰り返されるのかについて、Googleからの公式説明はありません。ただし、いくつかの仮説は考えられます。学習データ内で「Dave」は英語圏で極めて一般的な名前であり、名前が不確定な場面でのデフォルト的な出力になりやすい可能性があります。また、コメント欄でも言及された『2001年宇宙の旅』のHAL 9000とDaveの会話は、AI関連のテキストデータに頻出するため、AIと人間の対話コンテキストで「Dave」がバイアスとして現れる可能性もゼロではありません。
AIパーソナライゼーションの構造的リスク
各社が競うメモリ機能、リスクも共通
AIに「ユーザーを覚えさせる」機能はGeminiだけの話ではありません。ChatGPTは2024年にメモリ機能を正式導入し、Claudeも同様の機能を段階的に展開しています。各社がパーソナライゼーションを競い合う中、「AIが間違った情報を覚えてしまう」リスクは業界共通の課題です。
名前の取り違えは比較的無害なバグに見えますが、AIが誤った個人情報を「事実」として記憶し、それに基づいて回答や提案を生成し続ける構造は、より深刻な問題の入り口になり得ます。たとえば、職業やスキルレベルを誤って記憶した場合、不適切なアドバイスが継続的に提供される可能性があります。
ユーザーができる対策
Geminiのメモリを確認・修正する方法
- Geminiアプリまたはgemini.google.comを開く
- 設定(歯車アイコン)から「拡張機能と接続」を選択
- 「記憶された情報」セクションでGeminiが記憶しているユーザー情報を確認
- 誤った情報があれば個別に削除、または全メモリをリセット
※ メニュー構成はバージョンにより異なる場合があります。
Aitly編集部の見解
EDITORIAL
「Daveバグ」は笑い話ですが、AIのパーソナライゼーション機能が抱える問題の氷山の一角です。
Redditのコメント欄が『2001年宇宙の旅』ネタで盛り上がったのは自然な反応ですが、注目すべきは「1か月間Jennaと呼ばれ続けた男性」や「書いた覚えのないチャットから名前と国籍が学習されていた」という証言の方です。これらはGeminiのメモリ機能が、誤った情報を自己修正する仕組みを持っていないことを示唆しています。
AIが「ユーザーを理解する」ことへの需要は確実にあります。毎回自己紹介するのは面倒です。しかし、その「理解」が間違っていた場合の修正手段が不十分なまま機能だけが先行している現状は、Google・OpenAI・Anthropicすべてに共通する課題です。
AIのメモリ機能を使っている方は、定期的に「AIが自分について何を覚えているか」を確認することをおすすめします。あなたも知らないうちに「Dave」にされているかもしれません。
よくある質問
参考リンク
※ この記事の情報は2026年3月17日時点のものです。Redditのアップボート数・コメント数は変動する場合があります。
※ 記事内のRedditコメントの翻訳はAitly編集部によるものです。