Vol.042025年8月6日
AI

ハルシネーション対策としての出典強制

「正確に書いて」よりも「出典の URL がない情報は書くな」の方が効く。プロンプト 1 行で 80% の幻覚は消える。

SoSoraEndo2025年8月6日1 min332

「正確に」は効かない

LLM に「正確に書いて」と言っても、何が正確かを LLM は知らない。代わりに「出典がない情報は書くな」と指示すると、行動の制約として機能する。

プロンプトの差

❌ 正確に書いてください
✅ 各事実に対して、参照した URL を `[出典: URL]` の形で必ず付けてください。出典がない情報は書かないでください。

RAG と組み合わせる

RAG で参照した chunk に source URL を含めておけば、LLM は出典の URL を再構成して付ける。これだけで、出典のない文が出力されなくなる。

副作用

  • 出力が短くなる(書けないことが増えるから)
  • 「不明です」「該当する情報が見つかりませんでした」が増える

これは劣化ではなく、改善です。「不明」と書ける LLM は信頼できる。

まとめ

ハルシネーションは「不確実なことを断言する」状態。出典を強制すれば、不確実なときには沈黙する。それで十分。

Tags

Reaction

Share

X (Twitter)