大規模言語モデル(LLM)によるコードレビュー自動化において、実際のコードに基づかない「幻覚(ハルシネーション)」が課題となっている。本研究では、参照データなしで生成コメントの根拠を評価する「HalluJudge」を提案。Atlassianの大規模プロジェクトでの評価により、低コストかつ高い精度で幻覚を検出し、開発者の好みを反映できることを示した。
全文は有料プランで閲覧できます。
Unlock
Pro
Proなら長文回答とスレッド保存で、論文ごとの知識DBを作れます。
Related