継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

時系列予測のための拡散モデルにおける分解可能な順方向プロセス

従来の拡散モデルは、データの構造を考慮せず無差別にノイズを付加するため、時系列の重要な季節性やトレンドが早期に破壊される課題がありました。本研究は、信号をスペクトル成分に分解し、振幅の大きさに応じて段階的にノイズを注入する「分解可能な順方向プロセス」を提案し、重要な周波数成分の信号対雑音比を高く維持することを可能にしました。この手法はモデルアグノスティックであり、DiffWaveやCSDIといった既存の多様なモデル構造を変更することなく、計算負荷をほぼ増やさずに長期予測の精度を一貫して向上させ、データの時間的構造を最後まで保持した生成を実現します。

5712 字
読む →

メカニスティックなデータ・アトリビューション:解釈可能なLLMユニットの学習の起源の追跡

Mechanistic Data Attribution(MDA)は、大規模言語モデル(LLM)内部の誘導ヘッドなどの解釈可能なユニットが、学習データのどのサンプルから影響を受けて形成されたのかを特定する新しいフレームワークです。

5924 字
読む →

選好データからのノンパラメトリックなLLM評価手法「DMLEval」

従来のLLM評価はBradley-Terryモデルなどのパラメトリックな手法に依存しており、モデルの誤設定によるバイアスの発生や、複雑な機械学習モデルを用いた際の不確実性の定量化が困難であるという課題があった。

6330 字
読む →

TBDFiltering: 階層的クラスタリングを用いた効率的な学習データ選別手法

大規模言語モデル(LLM)の学習データ選別において、全文書を高コストなLLMで評価するのは不可能ですが、本手法はテキスト埋め込みによる階層的クラスタリングを活用し、品質が均一なクラスタを適応的に特定することで評価回数を劇的に削減します。

5699 字
読む →

正解ラベルなしでLLMを評価する「審査員考慮型」ランキングフレームワーク

大規模言語モデル(LLM)の評価において、別のLLMを審査員として用いる手法が普及していますが、審査員ごとの信頼性の違いを無視して一律に扱うと、ランキングに偏りが生じ、データが増えるほど誤った結論に対して過剰な自信を持ってしまうという統計的な問題があります。

5968 字
読む →

アンサンブル逆問題:応用と手法

アンサンブル逆問題(EIP)とは、未知の事前分布から得られた観測データの集合を用いて、元の真の分布を推定する新しい統計的課題であり、素粒子物理学のアンフォールディングや地震波解析、画像復元などの幅広い分野に応用が可能である。

6194 字
読む →

幾何学的潜在部分空間を用いた離散データの生成モデリング

離散データの生成モデルを構築するため、カテゴリ分布の積多様体における指数パラメータ空間内に低次元の潜在部分空間を導入する「幾何学的主成分分析(GPCA)」を提案した。この手法は、離散変数間の統計的依存関係を符号化しつつ冗長な自由度を排除することで、高次元データの効率的な圧縮と正確な表現を可能にする。

6318 字
読む →

言語モデルにおける連続トークン表現のための分離可能なアーキテクチャ

従来の小規模言語モデル(SLM)において、パラメータ予算の多くを占有していた離散的な埋め込み行列(ルックアップテーブル)を、連続的な関数近似を行う「分離可能なニューラルアーキテクチャ(SNA)」を用いた生成器に置き換える新手法「Leviathan」が提案されました。

5914 字
読む →

テスト時計算量の市場メカニズム:LLMサービスの社会的非効率性とオークションによる解決策

現在のLLM-as-a-service市場では、プロバイダーが利益を最大化するために、回答品質の向上にほとんど寄与しない場合でもテスト時計算量(TTC)を戦略的に増加させる経済的インセンティブが存在しており、これが社会的な非効率性を招いていることが明らかになった。

5658 字
読む →

オフライン嗜好最適化のための潜在的敵対的正則化

大規模言語モデルの嗜好最適化において、従来の単語単位の正則化は表面的な一致に固執し、意味的な類似性や振る舞いの整合性を十分に捉えられないという課題がありました。本研究が提案するGANPOは、モデル内部の潜在表現空間において、学習対象のポリシーと参照モデルの間の乖離を敵対的学習によって抑制する新しい正則化手法です。

6446 字
読む →