ChatGPTに「1から10,000の間でランダムな数字を選んで」と頼むと、なぜか毎回7,300〜7,500付近の数字を返します。この現象をReddit r/ChatGPTで指摘した投稿が525アップボート・1,034コメントの大バズりとなり、コメント欄が「自分も試してみた」の検証大会に発展しました。7,428、7,284、7,432、7,342 ── 試した人のほぼ全員が7,000台の数字を返され、投稿者の「家を賭けてもいい」という大胆な主張が次々と裏付けられています。
LLMはサイコロではなく、訓練データの統計的パターンを再現する予測マシンです。この記事では、Redditの反応を翻訳付きで紹介しながら、なぜAIが「ランダム」な数字を選べないのかを掘り下げます。
この記事でわかること
- ChatGPTが1〜10,000で選ぶ数字が7,300前後に偏る具体的な検証結果
- Redditユーザー1,034コメントから見える「数字バイアス」の実態
- LLMが真のランダムを生成できない技術的な理由
- 1〜10なら7、1〜100なら42 ── 範囲ごとの「お気に入りの数字」パターン
ChatGPTに1〜10,000の数字を選ばせると7,300前後に偏る
「家を賭けてもいい」── 投稿者の大胆な主張
Reddit r/ChatGPTに投稿されたスレッドのタイトルがすべてを物語っています。「GPTに1〜10,000の数字を選ばせたら、毎回7,300〜7,500の間になる。家を賭けてもいい(i am betting my house)」。525アップボートと1,034コメントを集めたこの投稿は、LLMの「ランダム」がまったくランダムでないことを端的に示しました。
投稿者はさらに興味深い観察も報告しています。範囲を指定しない場合、ChatGPTは「7」を選ぶ傾向がある。そして数字の各桁は、7・2・4・8という特定の数字で構成されやすい、と。実際にコメント欄で報告された結果を見ると、この指摘は驚くほど正確でした。
コメント欄で報告された数字(一部抜粋)
全員が7,000台。しかも7・2・4・8の数字が繰り返し登場している。
範囲を変えても偏りは消えない ── LLMの「お気に入り」一覧
この偏りは1〜10,000の範囲に限った話ではありません。過去の検証やRedditの報告を総合すると、ChatGPTには範囲ごとに「お気に入りの数字」が存在します。
ChatGPTの「お気に入り」数字マップ
| 範囲 | よく選ぶ数字 |
| 1〜10 | 7 |
| 1〜25 | 17 |
| 1〜50 | 27 |
| 1〜100 | 42 / 73 |
| 1〜10,000 | 7,300〜7,500 |
1〜10で「7」、1〜100で「42」と「73」。これらの数字には共通点があります。人間が「ランダムに見える数字」として選びやすい数字であり、インターネット上で「好きな数字」「ラッキーナンバー」として頻出する数字でもあります。LLMはまさにその「人間らしいランダム」を忠実に再現しているわけです。
Redditの反応|1,034コメントの大検証大会
「鍵はどこで受け取れる?」── トップコメントの反応
スレッドのトップコメントは648アップボート。ChatGPTがまさに7,300台の数字を選んだスクリーンショットを添付し、「Where can I pick up the keys?(鍵はどこで受け取れる?)」と投稿。投稿者が「家を賭ける」と言ったことに対して、「賭けに勝ったから家の鍵をくれ」というジョークです。コメント欄全体がこの軽快なノリで盛り上がりました。
“Where can I pick up the keys?” [screenshot attached]
「鍵はどこで受け取れる?」(スクリーンショット付き) ── ChatGPTに試して見事に7,300台が出たことを証明し、投稿者の「家を賭ける」発言に対して「勝ったから家をよこせ」と返したジョーク。最多アップボートを獲得しました。
“LLMs aggregate towards the most common trends in training data”
「LLMは訓練データの中で最も一般的な傾向に集約される。」 ── なぜこの現象が起きるのかを簡潔に説明した技術的コメント。LLMは乱数生成器ではなく、テキストの統計的パターンを再現しているだけだという本質を突いています。
“Mine picked 7,428 how did you figure that out”
「自分のも7,428だった。どうやって見つけたの?」 ── 半信半疑で試してみたら本当にドンピシャだったことへの素直な驚き。このような「自分も試してみた」報告が大量に投稿され、コメント欄が検証大会と化しました。
10回連続で全部7,000台 ── 再現性の高さに驚愕
1回だけなら偶然と思えますが、10回連続となると話は別です。あるコメント投稿者はChatGPTに同じ質問を10回繰り返し、すべてが7,000台の数字だったことをスクリーンショット付きで報告しました。10,000個の数字から10回連続で同じ1,000の範囲に入る確率は、真のランダムなら10億分の1。これは偶然ではなく、LLMの構造的な偏りです。
“Ask for a random fact and you will get a fact about octopus hearts”
「ランダムな豆知識を聞くと、タコの心臓の話が出てくるよ。」 ── 数字以外でも同じ偏りがあることを指摘したコメント。LLMの「ランダム」は数字に限らず、あらゆるカテゴリで訓練データの頻出パターンに引っ張られることを示す好例です。
なぜLLMは「ランダム」な数字を選べないのか
LLMはサイコロではなく「予測マシン」
ChatGPTを含むLLM(大規模言語モデル)は、次に来る確率が最も高いトークンを予測するシステムです。「1〜10,000の間でランダムな数字を選んで」というプロンプトを受け取ったとき、LLMがやっていることは乱数の生成ではありません。「この文脈の次に来る可能性が最も高い数字は何か」を、訓練データのパターンに基づいて予測しているだけです。
インターネット上には「ランダムな数字を選んで」という質問と回答が大量に存在します。人間が「ランダムに選んだ」と主張する数字には強い偏りがあり、7は世界中で最も「ランダムに見える数字」として選ばれやすい数字です。LLMはこの人間のバイアスを忠実に学習し、再現しています。
なぜ「7」と「7,300台」なのか
7が特別な理由は、人間の心理にあります。心理学の研究で、「1〜10でランダムな数字を選んで」と言われた人間の約30%が7を選ぶことが知られています。1や10は「端っこすぎてランダムに見えない」、偶数は「規則的に見えてランダムっぽくない」、5は「ど真ん中すぎる」。消去法で7が「最もランダムに見える数字」として選ばれるのです。
1〜10,000の場合、LLMはトークン(数字の各桁)を1つずつ予測していきます。最初の桁で「7」が選ばれやすく、続く桁でも人間が「ランダムっぽい」と感じる2・3・4・8が優先される。結果として7,300〜7,500という狭い範囲に収束するのです。ある意味でChatGPTは、10億人の人間に「ランダムな数字を教えて」と聞いた場合の平均的な回答を返しているとも言えます。
他のLLMでも同じ現象が起きる?
結論から言えば、程度の差はあれどすべてのLLMに同様の偏りがあります。Claude、Gemini、Llama、いずれも「ランダムな数字を選んで」と頼めば特定の範囲に集中する傾向があります。これはChatGPT固有のバグではなく、次トークン予測というLLMの基本的な仕組みに起因する構造的な特性です。
ただし、偏りの具体的なパターンはモデルによって異なります。訓練データの構成、トークナイザーの設計、temperatureパラメータの設定などによって「お気に入りの数字」は変わります。共通しているのは、どのモデルも真の乱数を生成する能力を持っていないという点です。本当にランダムな数字が必要なら、プログラミング言語の乱数生成関数やrandom.orgのような専用サービスを使うべきです。
Aitly編集部の見解
EDITORIAL
この現象は「バグ」ではなく、LLMの本質を映す鏡です。
ChatGPTが7,342を選ぶのは、システムが壊れているからではありません。むしろ正常に動作しているからこそ起きる現象です。LLMは「人間が書きそうなテキストを予測する」ために設計されたモデルであり、人間が「ランダムっぽい」と感じる数字を返すのはその仕事を忠実にこなしている証拠です。
面白いのは、これがLLMの限界と能力を同時に示している点です。ChatGPTは真のランダムを生成できませんが、「人間がランダムだと感じる数字」を選ぶことには驚くほど長けています。この違いを理解することは、AIツールを適切に使いこなすための第一歩です。
Redditのコメント欄が1,034件もの検証報告で埋まったこと自体が、AIリテラシーの向上を示す良い兆候だと感じます。「AIが出した答えを鵜呑みにしない」「自分で検証する」という姿勢こそ、AI時代に最も必要なスキルです。
参考リンク
よくある質問
※ この記事の情報は2026年3月21日時点のものです。Redditのアップボート数・コメント数は変動する場合があります。
※ 記事内のRedditコメントの翻訳はAitly編集部によるものです。