LLMを用いた大規模マルチエージェントシミュレーションでは、各エージェントが保持する状態によるGPUメモリの枯渇が課題です。本研究は、エージェントの起動順序を予測する「呼び出し距離」という概念を導入したScaleSimを提案します。これにより、効率的なプリフェッチとメモリ解放を実現し、従来手法と比較して最大1.74倍の高速化を達成しました。
全文は有料プランで閲覧できます。
Unlock
Pro
Proなら長文回答とスレッド保存で、論文ごとの知識DBを作れます。
Related