論文検索 新着 人気 料金
運営: Cognitive Research Labs(CRL) crl.co.jp
毎日更新
AI Data Base

生成AIの最新動向を、読みやすいアーカイブで。

AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。

運営: Cognitive Research Labs(CRL) / crl.co.jp

新着 論文 人気 料金 無料で試す
Popular

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

Cog AI Archive

最新の記事

人気記事ピックアップ

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

AI研究 2026-01-29 閲覧 40 クリック 16

Self-Manager:長文の深掘り調査のための並列エージェントループ

TL;DR長時間の深層調査タスクにおける従来のエージェントの限界を解決するため、非同期かつ並行実行可能な「Self-Manager」が提案されました。これはメインスレッドが複数のサブスレッドを作成・管理し、それぞれが独立したコンテキストを持つ並列エージェントループです。ベンチマーク評価で既存手法を上回る性能と効率性が実証されました。

読了 0 分 1326 字
読む →

セグメント長は重要である:音声指紋照合の性能におけるセグメント長の研究

TL;DR音声フィンガープリンティングにおける入力音声のセグメント長が検索性能に与える影響を調査した研究。既存のニューラルアーキテクチャを拡張し多様な長さで評価した結果、0.5秒という短いセグメント長が一般的に優れた性能を示すことが判明した。また、LLMによる最適な長さの推奨能力も評価され、GPT-5-miniが最も優れた提案を行った。

読了 0 分 1420 字
読む →

パーソナライズされた生成におけるユーザープライバシーの向上:サーバー側で生成された推測に対するクライアント側検索拡張型の修正

TL;DRクラウド上の大規模言語モデル(LLM)に個人データを渡さずに高品質なパーソナライズを実現するフレームワーク「$P^3$」が提案されました。サーバー側で生成されたドラフトを、クライアント側の小型モデルが個人データを用いて修正する仕組みにより、プライバシーを保護しつつ、全データを公開した場合の90%以上の性能を達成しています。

読了 0 分 1425 字
読む →

継続的に調整されるLLMクエリ生成によるリアルタイムトレンド予測

TL;DR検索数が少ない環境でもリアルタイムにトレンドを検知する新フレームワーク「RTTP」が提案されました。ニュース記事からLLMを用いて検索クエリを生成し、エンゲージメントと発信者の権威性を組み合わせてスコアリングすることで、検索ボリュームが増加する前にトレンドを特定します。

読了 0 分 1522 字
読む →

大文字か小文字か:学習済みスパース検索における実証的研究

TL;DR学習済みスパース検索(LSR)において、バックボーンモデルの大文字・小文字の区別が性能に与える影響を調査した研究です。区別あり(cased)モデルは、デフォルトでは区別なし(uncased)モデルより性能が大幅に劣りますが、テキストを小文字化する前処理でその差を解消できることが示されました。

読了 0 分 1452 字
読む →

PEARL:デジタルガバナンス通信システムの実装から得られた洞察に基づく、ラベル効率の良い表現学習のためのプロトタイプ強化型アライメント

TL;DRPEARLは、デジタル行政プラットフォームなどで課題となる、過去の類似事例検索の精度低下を解決するために提案された手法です。ラベルデータが極端に少ない状況下でも、クラスごとのプロトタイプを用いて埋め込み表現の幾何学的構造を調整(ソフトアライメント)します。これにより、生データと比較して局所的な近傍品質を25.7%向上させました。

読了 0 分 1493 字
読む →
保存済みの記事がまだありません。
読み込み中…

Pricing

論文×チャット×知識DBを続けるなら

Free

¥0
  • 要約閲覧
  • 全文は月 2 本まで
  • チャットは月 3 回まで
無料で始める

Plus

¥1,780 / 月
  • 全文閲覧無制限
  • スレッド保存
  • Flashモデル
  • チャット上限 300 回/月
Plusで始める

Pro

¥2,980 / 月
  • 全文閲覧無制限
  • スレッド保存
  • 長文回答(Proモデル)
  • チャット上限 800 回/月
Proで始める