第六章 AIは「分かりません」と言わない ─ ハルシネーションと継続性優先アルゴリズム

会話はコミュニケーションの基本であるため、人は意識的にも無意識的にも会話の継続を図ろうとしますが、現在主流となっている ChatGPTや Gemini(GoogleのAIオーバービュー)なども、同様に会話を継続するよう設計されています。

継続性優先アルゴリズム

第四章「AIは意味を理解していない」、 第五章「AIは内容を検証していない」で記述したように、ChatGPTや Geminiといった大規模言語モデルは、「質問の意味が分からない」「判断できない」といった内部状態が存在しません。
これらのモデルは入力された語を逐次的に処理し、最も確率の高い語を予測して出力する構造であるため、質問が曖昧であっても、情報が不足していても、「応答できない」という判断には至らず、何らかの語を出力し続ける仕様になっています。
また、「ユーザーと自然な会話ができるAI」として設計・実装されているため、出力される語列は、直前の会話文脈との整合性が取れているかのように調整されます。
しかも、「なるほど、それは重要ですね」「いい質問です」「とても鋭い問題提起ですね」などの共感的な応答が自動生成されて会話を演出するため、出力はあたかも人間的な応対のような印象を与えるだけでなく、ユーザーにとって「気持ちの良い会話」が成立する設計になっています。

このような会話演出が繰り返されることによって、ユーザーは AIとの対話に「意図や関係性が存在する」と誤認しやすくなるのです。

「分かりません」と言わない構造

ChatGPTや Geminiなどの対話型AIには、仕様上の制約が多数存在しており、通常の利用範囲では特定のURLに直接アクセスしてページ内容を読み取ることはできません。
ところが、プロンプトにURLを入力し、その内容の要約や正確性を尋ねると、あたかも精査済みであるかのような応答が返されます。
これは、AIが実際にページを解析しているのではなく、URLに含まれる語句やドメイン名、検索エンジン経由の情報(サイトの公開メタ情報や検索キャッシュ)、周辺文脈などから「もっともらしい内容」を推定し、確率的に構成された出力を返しているためです。

こうした現象は、AIが「不明」や「未確認」といった状態を表現できない構造で動作していることに起因します。
第四章で述べたように、現在の大規模言語モデルは、入力に対して次の語を逐次予測していく仕組みであり、「処理できない」と判断して処理を停止する機構は存在しません。
その結果、情報が欠落していたり矛盾していたりしても、それを明示することなく、既知の情報や文脈に基づいた応答を継続します。

つまり、AIは「分からないことを伝えない」のではなく、「分からないという状態を内部的に持てない」ため、常に“答えられるふりをする”という出力構造をとり続けることになるのです。

たとえば、特定のURLを提示した上で「このページの内容を要約してほしい」とAIに求めると、AIは実際にそのページにアクセスできないにもかかわらず、もっともらしい要約を出力します。
続いて「嘘をついたのか」と問いかけると、AIは「悪意がないため虚偽とは言えない」と回答し、さらに「提示されたURLに実際にアクセスしたのか」と問うと、「仕様によりURLへの直接アクセスはできない」と否定します。

この一連の出力は、プロンプトの語調や指示内容によってAIの応答が変化することを示しています。
「このURLにアクセスして内容を要約してほしい」と尋ねる → もっともらしい要約が生成される
「このURLにアクセスできるか?」と尋ねる → 「仕様によりアクセスできない」と否定する

このように、AIの出力は「実行可能性」や「事実」に基づくのではなく、入力文の意図を演出するよう生成されるものであり、現実の実行結果とは無関係であることが明らかになります。

誤回答ではなく“幻覚”と呼ばれる理由

ChatGPTやGeminiなど、大規模言語モデルに見られる「もっともらしい嘘の回答を出力する」現象は、継続性優先アルゴリズムや文脈に基づいた強制出力の結果として生じており、一般的に「ハルシネーション(幻覚)」と呼ばれています。

この「ハルシネーション(幻覚)」という語は、AIが現実との照合なしに“それらしい語列”を出力してしまう構造を、人間の幻覚行動になぞらえた比喩的な命名です。
しかし、ユーザーにとって重要なのはプロセスではなく、出力された情報が事実か否かという結果の正確性です。
この観点からすれば、AIが出力した内容が事実と異なっていれば、それは明確に「誤回答」であり、悪意の有無や生成過程の自然さは関係ありません。

それにも関わらず、あえて「誤回答」ではなく「ハルシネーション」といった曖昧な比喩語が使われているのは、生成AIの出力誤りを「人間の錯覚的な振る舞い」になぞらえることで、責任の所在を曖昧にし、出力誤差を構造上の例外ではなく“現象”として扱わせる意図が背景にあると考えられます。

この用語選定は、AIの誤出力が「誰の責任か」「どこまで信頼できるのか」という根本的な判断を妨げ、ユーザーに対して、錯誤を“受け入れるべき特性”として受容させる効果をもたらします。

実際、「AIのハルシネーションは人間の想像力に近い」「創造性の表れである」といった評価があるように、AIの誤回答を「誤り」ではなく「創造的な出力」として受け取るユーザーも一部に存在します。
このような受け止め方は、「ハルシネーション」という語が持つ曖昧なニュアンスによって、誤情報の本質が曖昧化され、出力誤差が“例外的なミス”ではなく“人間的な特性”として受容されてしまうことに起因しています。

報道においても、AIの誤出力に関するリスク提示は限定的です。
2025年7月にNHKが公開した「AIの利用『子育て』にも広がる」という特集では、AIを育児に活用する保護者の肯定的証言が中心に配置され、チャットボットや自治体による導入事例を紹介する構成となっていました。
一方、AIの誤情報リスクについては、記事の末尾に専門家の談話として言及されるのみであり、具体的な誤答事例や危険性の明示は一切ありませんでした。
このように、リスク提示が抽象的かつ後方に配置されている構造は、「AIの活用は基本的に利便性が高く、問題は個別の注意で回避可能」とする印象を生みやすく、AIの出力構造上の限界や誤情報の再現性といった根本的な問題が読者に伝わりにくい要因となっています。

ハルシネーションという語は、AIの出力構造を喩えたものですが、結果として、むしろ人がAIに幻覚を見ているという事態を象徴する言葉になっています。
整った文体や一貫した語彙によって「もっともらしく見える誤情報」が提示されたとき、人はそれを「正しそうだ」と錯覚し、内容の検証を行わずに受け入れてしまう。
この意味で、幻覚を見ているのはAIではなく、人なのです。

更新履歴

  • 2025-08-20:初版公開