JADE: 動的なAgentic RAGにおける戦略と実行のギャップを埋める
TL;DRJADEは、動的なAgentic RAGにおける計画と実行の不一致を解消する統合フレームワークである。計画担当と実行担当を単一のバックボーン下で協力的なマルチエージェントとしてモデル化し、結果に基づく報酬でエンドツーエンドの共同最適化を行う。
AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。
運営: Cognitive Research Labs(CRL) / crl.co.jp
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
Cog AI Archive
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
TL;DRJADEは、動的なAgentic RAGにおける計画と実行の不一致を解消する統合フレームワークである。計画担当と実行担当を単一のバックボーン下で協力的なマルチエージェントとしてモデル化し、結果に基づく報酬でエンドツーエンドの共同最適化を行う。
TL;DRProRAGは、複雑な推論タスクにおける検索拡張生成(RAG)を最適化するための新しい強化学習フレームワークである。従来の手法が抱える報酬の希薄さや誤った推論過程の問題を解決するため、ステップごとのプロセス報酬モデル(PRM)を導入し、中間的な推論の質を評価する。
TL;DRGPTやClaudeなどのLLMが生成する人間らしいテキストの悪用を防ぐため、新しい検出アルゴリズムが提案された。本研究では、リライトベースの検出手法を幾何学的に解明し、適応的に距離を学習する新手法を導入した。
TL;DR大規模言語モデルを身体的エージェントとして用いる際の長期的な計画立案の課題に対し、Graph-in-Graph(GiG)という新フレームワークが提案されました。環境状態をグラフで符号化し、過去の経験を構造的に検索・利用することで、論理的な行動生成を実現します。
TL;DRYouTubeの主要ニュースチャンネルにおいて、道徳的な怒りを煽る表現が視聴者の行動にどう影響するかを、韓国と米国で調査した研究である。サムネイルとタイトルを組み合わせたマルチモーダル分類器を開発し、約40万本の動画を分析した結果、他者を道徳的に非難する表現は、単なる視聴だけでなく「いいね」
TL;DR大規模言語モデル(LLM)のテスト時強化学習(TTRL)において、従来の多数決による報酬推定の脆弱性を指摘し、新たな手法「DARE」を提案した研究である。DAREは単一の結果ではなく生成分布全体から報酬を推定し、探索ボーナスや枝刈りを組み合わせることで、AIME 2024などの推論タスクで大幅な性能向上を達成した。
TL;DRRAG-Eは、RAGシステムにおける検索器と生成器の相互作用を定量化する説明可能性フレームワークです。数学的根拠に基づく属性手法を用いて、生成器が検索結果をどの程度活用しているかを測定する指標WARGを導入しました。分析の結果、多くのケースで生成器が上位文書を無視するなどの不整合が明らかになりました。
TL;DR会話エージェントの長期記憶における課題に対し、タスク指向の敵対的メモリアダプテーション(AMA)を提案する手法である。AMAは、チャレンジャー、評価者、アダプターの各エージェントを用いてタスク実行をシミュレーションし、オフライン段階で記憶の構築と更新を最適化する。
TL;DRインターネット上のミームに含まれる有害性を検出するため、外部知識を活用する新手法「KID」が提案された。KIDは、画像証拠や背景知識を推論連鎖として構造化し、生成と分類を同時に行うデュアルヘッド構造を採用している。英語、中国語、ベンガル語を含む5つのデータセットで実験を行い、従来手法を大幅に上回る性能を達成した。
TL;DR従来のLLMが抱える固定的なトークナイザーの制約を解消するため、生の文字から文書表現までをエンドツーエンドで学習可能な階層型拡散モデル「Zonkey」が提案されました。微分可能なトークン化と確率的アテンションにより、明示的な教師なしで言語的な境界を学習し、ノイズに強く適応性の高いテキスト生成を実現します。
Pricing