幻覚の正体:知らないときに「空欄を埋める」癖が出る
LLMは、質問に対して正解を検索して答えるのではなく、与えられた文脈から次に来そうな文章を生成する。つまり、空欄があると埋めたくなる。情報が足りないときでも、データの中でよく見た“それっぽい続き方”に沿って文章を作ってしまう。このとき、文体は整っているので自信があるように見えるが、裏付けがあるとは限らない。
幻覚の種類:同じ“嘘”でも壊れ方が違う
幻覚にはいくつかのパターンがある。事実関係が違うもの、存在しない論文やURLを捏造するもの、引用元を取り違えるもの、数字や単位の整合が崩れるもの、話題の主語がすり替わるものなどだ。対策を考えるときは、まずどのタイプの幻覚が問題なのかを切り分けるのが重要になる。たとえば計算ミス系には外部計算や検算が効くが、引用捏造には参照の強制や検証が必要になる。
起きる理由その1:学習データが矛盾していても損失は下がる
学習データは完全ではない。Webには誤りがあり、古い情報があり、意見が混ざり、矛盾が共存する。次トークン予測は、その矛盾を解消するのではなく、矛盾したまま「もっともらしい続き」を学ぶ。さらに、ある話題が断片的にしか存在しないと、モデルは“雰囲気”だけを学び、細部の事実を取り違えやすくなる。専門用語の定義が揺れていたり、同名の人物がいたりすると、混線が起きやすい。
起きる理由その2:推論時のランダム性と誘導が嘘を強化する
生成時の設定も幻覚に効く。温度が高い、top-pが広いと、多様性は増えるが破綻もしやすい。また、プロンプトが強く断定を求めると、モデルは不確実でも断定文を作りやすい。逆に「根拠がない場合は不明と言う」「確信度を述べる」といった指示は、幻覚の表面化を抑えることがある。ただしそれは「嘘を減らす」というより「不確実性を言語化させる」効果に近い。
減らし方の基本:モデルに“外部の根拠”を持ち込む
幻覚を減らす王道は、根拠となる情報を文脈として与えることだ。社内文書や信頼できる資料を検索して提示し、その範囲内で回答させる。いわゆるRAGは、この発想の実装である。重要なのは、検索結果を貼るだけでは足りず、回答が参照した根拠と結びつくように、引用や要約の形で構造化することだ。根拠が提示されれば、モデルは“空欄を埋める”必要が減り、幻覚は減りやすい。
減らし方の実務:検証可能な形に回答を分解する
高リスク領域では、回答を一発で出させない方がよい。まず前提を列挙し、次に必要な情報を特定し、最後に結論を出すように分解する。さらに、引用が必要なら引用箇所を必ず示させる。数値が絡むなら、途中計算を明示し、別手段で検算する。こうした分解は、モデルの内部推論を完全に信用するのではなく、検証可能な外形に落とす工学である。
まとめ:幻覚は必然として起きるが、設計で大きく減らせる
LLMは確率的に文章を生成するため、情報が不足すると空欄を埋める方向に働く。学習データの矛盾や断片性、推論時のランダム性や誘導が重なると、もっともらしい嘘が出る。対策は、根拠を与える、回答を検証可能な形に分解する、生成設定を保守的にする、引用を強制する、といった設計である。幻覚をゼロにするというより、問題の種類に応じて“許容できる形”に抑え込むのが実務的なゴールになる。
Read More from This Article: LLMはなぜ自信満々に間違えるのか:ハルシネーションの原因と減らし方
Source: News

