時系列予測のための拡散モデルにおける分解可能な順方向プロセス
TL;DR本研究は、時系列予測のための新しいモデル非依存の順方向拡散プロセスを提案する。信号をスペクトル成分に分解し、エネルギーに基づいてノイズ注入を段階的に行うことで、季節性などの構造的な時間パターンを標準的な拡散モデルよりも効果的に保持する。
AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。
運営: Cognitive Research Labs(CRL) / crl.co.jp
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
Cog AI Archive
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
TL;DR本研究は、時系列予測のための新しいモデル非依存の順方向拡散プロセスを提案する。信号をスペクトル成分に分解し、エネルギーに基づいてノイズ注入を段階的に行うことで、季節性などの構造的な時間パターンを標準的な拡散モデルよりも効果的に保持する。
TL;DRインターネット上のミームに含まれる有害性を検出するため、外部知識を活用する新手法「KID」が提案された。KIDは、画像証拠や背景知識を推論連鎖として構造化し、生成と分類を同時に行うデュアルヘッド構造を採用している。英語、中国語、ベンガル語を含む5つのデータセットで実験を行い、従来手法を大幅に上回る性能を達成した。
TL;DRLoRAアダプターのプールから最適なものを選択・合成するための新しいフレームワーク「LORAUTER」を提案する。既存手法と異なり、クエリを直接アダプターにマッピングするのではなく、タスク表現を介してルーティングを行う。これにより、アダプターの学習データを必要とせず、タスク数に応じた効率的なスケーリングが可能となる。
TL;DRECSELは、シグノミアル方程式(signomial equations)という数式形式を学習することで、分類と説明を同時に行う新しい手法です。既存の記号回帰手法よりも少ない計算量で多くの目標式を復元し、高い解釈性を維持しながら標準的な機械学習モデルに匹敵する精度を達成します。
TL;DR大規模言語モデル(LLM)によるBPMNモデル生成能力を評価する新しいフレームワーク「BEF4LLM」を提案し、人間と比較検証した研究です。LLMは構文や実用面で優れる一方、意味的な正確さでは人間に劣るものの、その差はわずかであることが示されました。LLMの強みと限界を明らかにし、実用化に向けた課題を提示しています。
TL;DR本研究は、合成データのみで学習し、推論時には単一の画像から実世界の船舶を効率的に3D再構成するパイプラインを提案しています。Splatter Imageネットワークを用いて船舶を3Dガウス分布の疎な集合として表現し、合成データセットで学習することで、実世界の3Dアノテーションなしに高精度な再構成を実現しました。
TL;DR本研究では、連分数に着想を得た新しい生成モデリング用関数クラス「CoFrGeNets」を提案しています。これはTransformerの主要コンポーネントをより少ないパラメータで代替可能なアーキテクチャです。
TL;DR本研究は、ペアデータなしで気候の統計的ダウンスケーリングを行う新手法「ZSSD」を提案しています。再解析データから学習した物理的に一貫性のある事前分布と、勾配消失問題を解決する統一座標ガイダンスを組み合わせることで、多様な全球気候モデルに対応可能です。
TL;DRLLM推論において、短時間の対話型クエリと長時間のバッチ処理が混在する際の遅延と効率低下を解決する新手法「EWSJF」が提案されました。この手法は、ワークロードの構造をリアルタイムで学習し、リクエストを動的にグループ化して優先順位を付けます。
TL;DRLLM推論において、短く遅延に敏感なクエリと長くスループット重視のバッチ処理が混在する状況は、スケジューリングの課題を生みます。本研究では、ワークロード構造をリアルタイムで学習し、公平性とスループットを向上させる適応型スケジューラ「EWSJF」を提案します。
Pricing