継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

$V_0$: 状態ゼロにおけるあらゆる方策のための汎用価値モデル

大規模言語モデルの強化学習において、従来のアクター・クリティック法が抱えていた「方策の進化に伴う価値モデルの頻繁な再学習コスト」と、GRPO等の手法における「サンプリングの不安定性」という二律背反の課題を解決するため、方策の能力をパラメータではなく「過去の行動履歴」という文脈情報として読み取る汎用価値モデル「V0」を提案しました。 V0は、意味理解を担う埋め込みバックボーンと統計的推論に特化したTabPFNを組み合わせたハイブリッド構造を採用しており、特定のプロンプトに対する各モデルの成功確率を、追加の勾配更新なしに単一のフォワードパスで予測することが可能です。 実験の結果、V0は学習過程における方策の性能変化を極めて正確に追跡できるだけでなく、未知のモデルやタスクに対しても高い汎化性能を示し、学習時の計算資源配分の最適化や推論時のコスト効率的なルーティングにおいてパレート最適な制御を実現することを実証しました。

6171 字
読む →

CL-bench: 実世界の複雑な文脈から学習する能力を測定する新たなベンチマーク

言語モデルが事前学習済みの知識に頼るのではなく、与えられた複雑な文脈から未知の知識をその場で学び取り、課題を解決する能力を「コンテキスト学習」と定義し、これを評価するための新たなベンチマークであるCL-benchが提案されました。

6598 字
読む →

SAGE-5GC:5Gコアネットワークにおける異常検知評価のためのセキュリティを考慮したガイドライン

5Gコアネットワーク(5GC)の異常検知において、従来の評価手法が前提としていた「データが独立同一分布(IID)に従う」という仮定や「攻撃者が防御側に適応しない」という静的な脅威モデルが、実際の運用環境(in the wild)では成立せず、検知性能が過大評価されているリスクを指摘した。

5740 字
読む →

LLMベースの検索エンジンにおける出力ランキングの制御手法「CORE」の提案

大規模言語モデル(LLM)を用いた検索エンジンにおいて、特定の製品の推奨順位を意図的に最上位へ引き上げる最適化手法「CORE」が開発されました。 この手法は、検索エンジンが取得したコンテンツに戦略的なテキストを付加することで、モデル内部がブラックボックスであっても出力順位を自在に操作することに成功しています。

5654 字
読む →

DeepResearchレポート生成のための人間の嗜好からのクエリ固有のルーブリックの学習

DeepResearchにおける長文レポートの評価と学習は、検証可能な報酬信号の不足により困難であったが、本研究では人間の好みに基づいてクエリごとに最適な評価基準を自動生成する「ルーブリック生成器」を提案している。

5900 字
読む →

LLMはロケット科学ができるか?GTOC 12を用いた複雑な推論の限界の探究

本研究は、大規模言語モデル(LLM)が「ロケット科学のワールドカップ」と称される極めて複雑な宇宙力学競技会「GTOC 12」において、自律的なミッション設計が可能かを検証しました。 最新の推論モデルは過去2年間で戦略的妥当性のスコアを9.3から17.

7883 字
読む →

TRE: 信頼領域内での探索を促進する手法の提案

大規模言語モデル(LLM)の強化学習において、全語彙を対象とする従来のエントロピー正則化は、膨大な無効トークンに確率を分散させ推理の整合性を損なう「累積的なテイルリスク」を引き起こすことが判明した。

5715 字
読む →

情報検索のための推論と推論のための情報検索に関するチュートリアル

従来の情報検索(IR)は意味的な類似性に基づく文書ランキングに特化してきましたが、否定や排他、多段階の推論を伴う複雑な要求に応えるため、検索プロセスそのものを推論システムの中核に据えるパラダイムシフトが求められています。

5922 字
読む →

RAGTurk: トルコ語における検索拡張生成(RAG)のベストプラクティス

トルコ語のような形態論的に豊かな言語における検索拡張生成(RAG)の挙動を解明するため、WikipediaとCulturaXから構築された20,459個の質問回答ペアを含む初の包括的データセット「RAGTurk」が提案されました。

5676 字
読む →

マルチターンエージェントにおける対話の慣性の軽減

大規模言語モデル(LLM)をマルチターンエージェントとして利用する際、過去の自身の回答を過度に模倣して探索を阻害する「会話の慣性(Conversational Inertia)」という現象が特定されました。

6480 字
読む →