論文検索 新着 人気 料金
運営: Cognitive Research Labs(CRL) crl.co.jp
毎日更新
AI Data Base

生成AIの最新動向を、読みやすいアーカイブで。

AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。

運営: Cognitive Research Labs(CRL) / crl.co.jp

新着 論文 人気 料金 無料で試す
Popular

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

Cog AI Archive

最新の記事

人気記事ピックアップ

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

AI研究 2026-01-29 閲覧 36 クリック 16

タスクIDなし・カテゴリ重複ありのストリーミング環境に対応する連合継続学習「FedKACE」

TL;DR連合継続学習(FCL)において、カテゴリ重複やタスクIDの欠如を含むストリーミングデータに対応する新手法「FedKACE」が提案されました。適応的なモデル切り替え、勾配バランス調整によるリプレイ、カーネルスペクトル境界に基づくバッファ管理を組み合わせることで、過去の知識を保持しつつ新しい知識を効果的に学習します。

読了 0 分 1258 字
読む →

LLMの事後学習におけるパラメータサーバの再考

TL;DR大規模言語モデル(LLM)の事後学習において、シーケンス長のばらつきによるワークロードの不均衡が課題となっている。従来のFSDPは同期バリアによって速度低下を招くため、パラメータサーバーの概念を応用した「On-Demand Communication (ODC)」を提案。ポイントツーポイント通信と非同期処理により、最大36%の高速化を実現した。

読了 0 分 1388 字
読む →

Appleシリコン上での大規模なネイティブLLMおよびMLLM推論

TL;DRApple Siliconの統合メモリを活かした新しい推論フレームワーク「vllm-mlx」が提案されました。MLXをベースに構築され、テキストモデルでは既存ツール比で最大87%のスループット向上を実現。さらにマルチモーダルモデル向けに画像キャッシュ機能を導入し、繰り返し処理を劇的に高速化しています。

読了 0 分 1343 字
読む →

普遍的な負荷分散原理とその大規模言語モデルサービングへの応用

TL;DR大規模言語モデル(LLM)の推論などで課題となる、同期的な処理におけるリソースの偏りと待機時間の問題を解決する新たな「普遍的ロードバランシング原理」が提案されました。この手法は、最悪ケースでも性能を保証する整数最適化に基づいており、スループットと遅延を大幅に改善し、エネルギー消費も削減することが実験で示されています。

読了 0 分 1511 字
読む →

Faramesh:自律エージェントシステムのためのプロトコル非依存型実行制御プレーン

TL;DR自律エージェントが現実世界へ影響を及ぼす行動を実行する際、組織が確実に許可・拒否・保留を判断できるチェックポイントが不足している。本研究は、プロトコル非依存の実行制御プレーン「Faramesh」を提案する。

読了 0 分 1084 字
読む →

Athena:オンライン強化学習によるデータプリフェッチとオフチップ予測の相乗化

TL;DRAthenaは、強化学習を用いてプロセッサのメモリレイテンシ隠蔽技術であるプリフェッチとオフチップ予測を自律的に調整するフレームワークです。単純な組み合わせでは得られない性能を、システム全体の特徴(精度や帯域幅)を観測し、各機構の有効化や積極性を動的に制御することで引き出します。

読了 0 分 1429 字
読む →
保存済みの記事がまだありません。
読み込み中…

Pricing

論文×チャット×知識DBを続けるなら

Free

¥0
  • 要約閲覧
  • 全文は月 2 本まで
  • チャットは月 3 回まで
無料で始める

Plus

¥1,780 / 月
  • 全文閲覧無制限
  • スレッド保存
  • Flashモデル
  • チャット上限 300 回/月
Plusで始める

Pro

¥2,980 / 月
  • 全文閲覧無制限
  • スレッド保存
  • 長文回答(Proモデル)
  • チャット上限 800 回/月
Proで始める