大規模言語モデル(LLM)のハルシネーションを抑制するため、自己チェックを用いたデコーディング手法「Token-Guard」が提案された。これは各推論ステップで内部検証を行い、ハルシネーションのリスクがあるトークンを検出・修正する。実験ではハルシネーションの大幅な削減と生成精度の向上が確認された。
全文は有料プランで閲覧できます。
Unlock
Pro
Proなら長文回答とスレッド保存で、論文ごとの知識DBを作れます。
Related