共有ランダム部分空間で更新を表現し、連合学習でのLLM全パラメータ微調整を通信・メモリの両面から軽くする提案です。PEFTより高性能で、FFTに近い精度を狙える点が核心です。
大規模言語モデルを実運用に合わせて調整するには、最終的にはそれなりに強いファインチューニングが必要になります。ところが、実データは単一の安全な場所に集められるとは限りません。医療、企業内文書、個人端末、IoT機器のように、データをローカルに保持したまま学習したい場面では、連合学習が現実的な選択肢になります。
FedKRSOの中心は、モデル更新をフルのパラメータ空間で自由に動かすのではなく、サーバーが生成した複数のランダム低次元部分空間の中に制限して行う点にあります。各クライアントは、その共有部分空間の上で更新を進めます。つまり、見かけ上は全パラメータ微調整を目指しつつ、実際の最適化はずっと小さい表現の中で回す、という構造です。
続きはログイン/プランで閲覧できます。
続きを読む
無料プランで全文は月 2 本まで読めます。
Related