費用対効果の向上:Reset and Discard (ReD) を用いた固定予算における大規模言語モデルの推論の向上
TL;DR大規模言語モデルの推論効率を向上させる手法「Reset and Discard (ReD)」が提案されました。従来のpass@k指標に伴う収穫逓減を解決し、限られた予算内でより多くの質問に正解することを目指します。実験ではHumanEvalを用い、計算コストやトークン消費を大幅に削減できることが実証されました。
Cog AI Archive
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
TL;DR大規模言語モデルの推論効率を向上させる手法「Reset and Discard (ReD)」が提案されました。従来のpass@k指標に伴う収穫逓減を解決し、限られた予算内でより多くの質問に正解することを目指します。実験ではHumanEvalを用い、計算コストやトークン消費を大幅に削減できることが実証されました。
TL;DRLLMの性能指標であるpass@kは、試行回数が増えるほど収益が減少する性質を持つ。本研究は、限られた予算内で正答数を最大化する手法「Reset and Discard (ReD)」を提案した。
Pricing