論文検索 新着 人気 料金
運営: Cognitive Research Labs(CRL) crl.co.jp
毎日更新
AI Data Base

生成AIの最新動向を、読みやすいアーカイブで。

AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。

運営: Cognitive Research Labs(CRL) / crl.co.jp

新着 論文 人気 料金 無料で試す
Popular

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

Cog AI Archive

最新の記事

人気記事ピックアップ

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

AI研究 2026-01-29 閲覧 36 クリック 16

JADE: 動的なAgentic RAGにおける戦略と実行のギャップを埋める

TL;DRJADEは、動的なAgentic RAGにおける計画と実行の不一致を解消する統合フレームワークである。計画担当と実行担当を単一のバックボーン下で協力的なマルチエージェントとしてモデル化し、結果に基づく報酬でエンドツーエンドの共同最適化を行う。

読了 0 分 1455 字
読む →

ProRAG: 検索拡張生成のためのプロセス監視型強化学習

TL;DRProRAGは、複雑な推論タスクにおける検索拡張生成(RAG)を最適化するための新しい強化学習フレームワークである。従来の手法が抱える報酬の希薄さや誤った推論過程の問題を解決するため、ステップごとのプロセス報酬モデル(PRM)を導入し、中間的な推論の質を評価する。

読了 0 分 1435 字
読む →

Learn-to-Distance:LLM生成テキスト検出のための距離学習

TL;DRGPTやClaudeなどのLLMが生成する人間らしいテキストの悪用を防ぐため、新しい検出アルゴリズムが提案された。本研究では、リライトベースの検出手法を幾何学的に解明し、適応的に距離を学習する新手法を導入した。

読了 0 分 1251 字
読む →

グラフ情報を活用したLLMによる身体的タスクプランニング:GiGフレームワークの提案

TL;DR大規模言語モデルを身体的エージェントとして用いる際の長期的な計画立案の課題に対し、Graph-in-Graph(GiG)という新フレームワークが提案されました。環境状態をグラフで符号化し、過去の経験を構造的に検索・利用することで、論理的な行動生成を実現します。

読了 0 分 1187 字
読む →

道徳的怒りは注目だけでなく積極的な関与も引き出す:YouTubeにおける日米のマルチモーダルな道徳感情分析

TL;DRYouTubeの主要ニュースチャンネルにおいて、道徳的な怒りを煽る表現が視聴者の行動にどう影響するかを、韓国と米国で調査した研究である。サムネイルとタイトルを組み合わせたマルチモーダル分類器を開発し、約40万本の動画を分析した結果、他者を道徳的に非難する表現は、単なる視聴だけでなく「いいね」

読了 0 分 1341 字
読む →

テスト時の強化学習における分布を考慮した報酬推定手法「DARE」

TL;DR大規模言語モデル(LLM)のテスト時強化学習(TTRL)において、従来の多数決による報酬推定の脆弱性を指摘し、新たな手法「DARE」を提案した研究である。DAREは単一の結果ではなく生成分布全体から報酬を推定し、探索ボーナスや枝刈りを組み合わせることで、AIME 2024などの推論タスクで大幅な性能向上を達成した。

読了 0 分 1380 字
読む →

RAG-E: 検索器と生成器の整合性を定量化する説明可能性フレームワーク

TL;DRRAG-Eは、RAGシステムにおける検索器と生成器の相互作用を定量化する説明可能性フレームワークです。数学的根拠に基づく属性手法を用いて、生成器が検索結果をどの程度活用しているかを測定する指標WARGを導入しました。分析の結果、多くのケースで生成器が上位文書を無視するなどの不整合が明らかになりました。

読了 0 分 1228 字
読む →

タスク指向の敵対的メモリアダプテーションによる会話エージェントの強化

TL;DR会話エージェントの長期記憶における課題に対し、タスク指向の敵対的メモリアダプテーション(AMA)を提案する手法である。AMAは、チャレンジャー、評価者、アダプターの各エージェントを用いてタスク実行をシミュレーションし、オフライン段階で記憶の構築と更新を最適化する。

読了 0 分 1448 字
読む →

KID: 知識注入とデュアルヘッド学習による有害ミーム検出の最先端フレームワーク

TL;DRインターネット上のミームに含まれる有害性を検出するため、外部知識を活用する新手法「KID」が提案された。KIDは、画像証拠や背景知識を推論連鎖として構造化し、生成と分類を同時に行うデュアルヘッド構造を採用している。英語、中国語、ベンガル語を含む5つのデータセットで実験を行い、従来手法を大幅に上回る性能を達成した。

読了 0 分 1217 字
読む →

Zonkey: 微分可能なトークン化と確率的アテンションを備えた階層型拡散言語モデル

TL;DR従来のLLMが抱える固定的なトークナイザーの制約を解消するため、生の文字から文書表現までをエンドツーエンドで学習可能な階層型拡散モデル「Zonkey」が提案されました。微分可能なトークン化と確率的アテンションにより、明示的な教師なしで言語的な境界を学習し、ノイズに強く適応性の高いテキスト生成を実現します。

読了 0 分 1292 字
読む →
保存済みの記事がまだありません。
読み込み中…

Pricing

論文×チャット×知識DBを続けるなら

Free

¥0
  • 要約閲覧
  • 全文は月 2 本まで
  • チャットは月 3 回まで
無料で始める

Plus

¥1,780 / 月
  • 全文閲覧無制限
  • スレッド保存
  • Flashモデル
  • チャット上限 300 回/月
Plusで始める

Pro

¥2,980 / 月
  • 全文閲覧無制限
  • スレッド保存
  • 長文回答(Proモデル)
  • チャット上限 800 回/月
Proで始める