命令チューニング用データを表面的な品質指標ではなく、モデル内部のニューロン活性パターンで選ぶ枠組み NAIT を提案しています。狙いは、特定能力を伸ばすのに本当に効くデータだけを、小さく安く選び抜くことです。
命令チューニングは、大規模言語モデルの能力を実用レベルまで引き出すための中核手法ですが、近年は「どんなデータを使うか」の方が「どれだけ大量に使うか」より重要ではないか、という流れが強くなっています。実際、少量でもよく選ばれたデータが大きな効果を持つ一方で、冗長なデータや目的に合わないデータを大量投入すると、むしろ性能を落とすことがあると報告されてきました。
著者らが提案する NAIT は、Neuronal Activation-based efficient Instruction Tuning data selection framework の略で、命令チューニング用データが目標能力にどれだけ効くかを、ニューロン活性パターンの整合度で測る手法です。ポイントは、対象能力の少量のインドメインデータを通したときに現れる活性の方向をまず抽出し、それを「この能力らしさ」の特徴として再利用することです。
続きはログイン/プランで閲覧できます。
続きを読む
無料プランで全文は月 2 本まで読めます。
Related