LLMを用いた大規模マルチエージェント・シミュレーションでは、各エージェントが保持する個別の状態によりGPUメモリが枯渇する課題があります。本研究は、エージェントの呼び出し順序を予測する「呼び出し距離」という概念を導入したScaleSimを提案しました。これにより、効率的なメモリ管理と最大1.74倍の高速化を実現しています。
全文は有料プランで閲覧できます。
Unlock
Pro
Proなら長文回答とスレッド保存で、論文ごとの知識DBを作れます。
Related