論文検索 新着 人気
毎日更新
AI Data Base

生成AIの最新動向を、読みやすいアーカイブで。

AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。

新着 論文 人気 無料で試す
Popular

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

Cog AI Archive

最新の記事

人気記事ピックアップ

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

AI研究 2026-01-29 閲覧 9 クリック 4

タスクシフト下におけるベルマンアライメントを用いた楽観的転移学習

TL;DR本研究は、関連するソースタスクの経験を利用するオンライン転移強化学習において、ベルマン回帰ターゲットに基づく新しい転移手法を提案する。従来の報酬や遷移に基づく類似性定義の限界を克服するため、1ステップのベルマンアライメントを導入し、RWTという補正手法を開発した。

読了 0 分 1378 字
読む →

Learn-to-Distance:LLM生成テキスト検出のための距離学習

TL;DRGPTやClaudeなどのLLMが生成する人間らしいテキストの悪用を防ぐため、新しい検出アルゴリズムが提案された。本研究では、リライトベースの検出手法を幾何学的に解明し、適応的に距離を学習する新手法を導入した。

読了 0 分 1251 字
読む →

スコアベース生成モデルにおける忘却と安定性に関する定量的解析

TL;DR本研究は、スコアベース生成モデルのサンプリング誤差に関する定量的境界を、逆時間ダイナミクスに関連するマルコフ連鎖の安定性と忘却特性を利用して導出しました。弱い仮定の下で、初期化および離散化誤差の伝播を制御するためのリアプノフドリフト条件とドブリン型マイナー化条件という2つの構造的特性を提示しています。

読了 0 分 1204 字
読む →

幾何学的潜在部分空間を用いた離散データの生成モデリング

TL;DRカテゴリ分布の積多様体の指数パラメータ空間において、潜在部分空間を利用した離散データの生成モデル学習手法を提案する。低次元の潜在空間が統計的依存関係をエンコードし、冗長な自由度を削除する。リーマン幾何学を導入することで、測地線が直線となり、フローマッチングによる学習が効率化される。

読了 0 分 1072 字
読む →

正解ラベルなしでLLMを評価する「審査員考慮型」ランキングフレームワーク

TL;DR正解ラベルのないタスクにおけるLLM評価手法として、審査員ごとの信頼性の違いを考慮した新しいランキングフレームワークを提案する研究である。Bradley-Terry-Luceモデルを拡張し、ペアワイズ比較からモデルの品質と審査員の信頼性を同時に推定することで、人間の好みとの一致度を高め、より正確なランキングと不確実性の定量化を実現した。

読了 0 分 1356 字
読む →

時系列予測のための拡散モデルにおける分解可能な順方向プロセス

TL;DR本研究は、時系列予測のための新しいモデル非依存の順方向拡散プロセスを提案する。信号をスペクトル成分に分解し、エネルギーに基づいてノイズ注入を段階的に行うことで、季節性などの構造的な時間パターンを標準的な拡散モデルよりも効果的に保持する。

読了 0 分 1449 字
読む →

ECSEL: シグノミアル方程式学習による説明可能な分類手法

TL;DRECSELは、シグノミアル方程式(signomial equations)という数式形式を学習することで、分類と説明を同時に行う新しい手法です。既存の記号回帰手法よりも少ない計算量で多くの目標式を復元し、高い解釈性を維持しながら標準的な機械学習モデルに匹敵する精度を達成します。

読了 0 分 1219 字
読む →

Adamの$\beta_1 = \beta_2$設定が優れている理由:勾配スケール不変性の原理

TL;DRAdam最適化手法において、モーメンタムパラメータを$\beta1 = \beta2$とする設定が、検証スコアや学習の挙動を改善することが経験的に知られていました。本研究はこの現象を「勾配スケール不変性」という概念で理論的に解明しました。

読了 0 分 1323 字
読む →

費用対効果の向上:Reset and Discard (ReD) を用いた固定予算における大規模言語モデルの推論の向上

TL;DR大規模言語モデルの推論効率を向上させる手法「Reset and Discard (ReD)」が提案されました。従来のpass@k指標に伴う収穫逓減を解決し、限られた予算内でより多くの質問に正解することを目指します。実験ではHumanEvalを用い、計算コストやトークン消費を大幅に削減できることが実証されました。

読了 0 分 1264 字
読む →

費用対効果の向上:Reset and Discard (ReD) を用いた固定予算下での大規模言語モデルの推論の改善

TL;DRLLMの性能指標であるpass@kは、試行回数が増えるほど収益が減少する性質を持つ。本研究は、限られた予算内で正答数を最大化する手法「Reset and Discard (ReD)」を提案した。

読了 0 分 1266 字
読む →
保存済みの記事がまだありません。
読み込み中…

Pricing

論文×チャット×知識DBを続けるなら

Free

¥0
  • 要約閲覧
  • 全文は月 2 本まで
  • チャットは月 3 回まで
無料で始める

Plus

¥1,780 / 月
  • 全文閲覧無制限
  • スレッド保存
  • Flashモデル
  • チャット上限 300 回/月
Plusで始める

Pro

¥2,980 / 月
  • 全文閲覧無制限
  • スレッド保存
  • 長文回答(Proモデル)
  • チャット上限 800 回/月
Proで始める