大規模言語モデル(LLM)において、指示に従う能力がタスク解決能力を阻害する逆説的な現象が明らかになった。研究チームは、モデルが自然に満たしている自明な制約を指示に追加するだけで、数学やコード生成などのタスク性能が大幅に低下することを発見した。この干渉を定量化する指標SUSTAINSCOREを提案し、失敗事例では制約への注意配分が過剰になる傾向を確認した。
全文は有料プランで閲覧できます。
Unlock
Pro
Proなら長文回答とスレッド保存で、論文ごとの知識DBを作れます。
Related