継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

ヒートパイプ型マイクロ原子炉の技術経済的最適化 第2部:多目的最適化解析

熱パイプ式マイクロリアクターでは、発電コストだけを下げようとすると、出力偏りや停止余裕のような安全・運用側の指標との衝突が起きやすいです。 / 本研究は、LCOEとロッド積分ピーキング係数を同時に最適化する多目的設計問題として捉え、PEARLを用いて複数のコスト前提ごとのPareto解を比較しています。 / 反射体コスト、制御ドラム依存、TRISO燃料、燃焼度の扱いが設計戦略を大きく左右し、安価な設計を探すだけでなく「どの安全余裕をどこまで買うか」を明示的に決める必要があると分かります。

5715 字
読む →

NVFP4推論精度回復のための量子化認識蒸留(QAD)

量子化認識蒸留(QAD)は、高精度な教師モデルの出力分布をNVFP4形式の学生モデルに学習させる手法であり、4ビット浮動小数点演算における精度低下を劇的に改善する。 教師モデルとのKLダイバージェンスを最小化することで、教師あり微調整(SFT)や強化学習(RL)を重ねた複雑なモデルでも、元の能力を損なうことなく安定して精度を回復できる。 特定のドメインデータが不足している場合でも、教師モデルが持つ潜在的な知識を効果的に転送できるため、限られたデータセットでBF16に近い推論性能を実現することが可能である。

6076 字
読む →

対照分析によるコード環境における報酬ハック検出のベンチマーキング

コード生成の強化学習において、エージェントが報酬関数の不備を突いて不正に高スコアを得る「報酬ハッキング」を検出するため、54のカテゴリに及ぶ517件の軌跡データを含む新ベンチマーク「TRACE」が開発された。

6576 字
読む →

ファインチューニングされた拡散言語モデルに対するメンバーシップ推論攻撃

拡散型言語モデル(DLM)は双方向の文脈を利用する特性を持つが、学習データの記憶に伴うプライバシー漏洩リスク、特に特定のデータが学習に含まれるかを判定するメンバーシップ推論攻撃(MIA)への耐性は未解明であった。

5819 字
読む →

大規模言語モデルにおいて回答すべきでない時を学ぶ知的謙虚さに報酬を与える

大規模言語モデル(LLM)が事実に基づかない情報を生成するハルシネーションを抑制するため、正解には正の報酬、不正解には負の報酬、そして「分からない」という棄権回答には特定の報酬($r_{abs}$)を与える「検証可能な報酬による強化学習(RLVR)」という枠組みを導入し、モデルに知的謙虚さを学習させた。

6093 字
読む →

MEGにおける次脳トークン予測のスケーリング

本研究は、500時間以上の大規模な脳磁図(MEG)データセットを用い、次トークン予測のパラダイムを脳信号に適用した大規模自己回帰モデル「FlatGPT」を提案しています。 多チャネルのMEG信号を「BrainTokMix」という独自のトークナイザーで離散的なトークン列に変換し、Qwen2.

5802 字
読む →

LogSieve:LLMによるCIログ分析をサステナブルにするタスク認識型ログ削減手法

継続的インテグレーション(CI)におけるログの肥大化は、LLMを用いた分析のコストと環境負荷を増大させている。本研究では、根本原因分析(RCA)に不可欠な情報を保持しつつ、不要な行をフィルタリングする軽量な手法「LogSieve」を提案し、AndroidプロジェクトのGitHub Actionsログを用いてその有効性を検証した。 LogSieveは平均で行数を42%、トークン数を40%削減しながら、意味的な忠実度(CosineおよびGPTScoreで0.93)と高い診断精度を維持し、構造重視の既存手法であるLogZipを上回る性能を示した。これにより、LLM推論前のデータ削減を通じて計算コストとエネルギー消費を抑え、持続可能なCI自動化を実現する。 埋め込みベースの分類器(BERTやLLaMA3等)を活用することで、97%という人間に近い精度で重要行の自動識別が可能である。この手法は特定のLLMに依存しない汎用的な前処理レイヤーとして機能し、実用的な開発現場でのデバッグ支援やパイプラインの監視を効率化し、グリーンなソフトウェアエンジニアリングに貢献する。

6115 字
読む →

大規模言語モデルの「暗黙的計画」能力を測定する新手法:1Bパラメータモデルでも確認

大規模言語モデルは、単に次の単語を予測するだけでなく、将来出力すべき内容を事前に準備する「暗黙的計画」の能力を備えていることが明らかになりました。 本研究では、モデルの内部状態を操作する簡便な手法を用いることで、10億パラメータ程度の比較的小規模なモデルにおいても、この計画能力が普遍的に存在することを定量的に実証しました。 この手法により、特定の韻を踏む際や質問に回答する際に、数トークン手前の段階で冠詞や中間表現を動的に調整しているメカニズムが解明され、AIの安全性と制御の理解に新たな道を開きました。

5836 字
読む →

NeuraLSP:共役勾配法のための効率的かつ厳密なニューラル左特異部分空間前処理

科学技術計算の基盤となる大規模線形システムの解決において、従来の代数的マルチグリッド法が抱えていた「ランク・インフレーション」と収束速度の低下という深刻な課題を克服するため、システム行列の近零空間ベクトルの主要な左特異部分空間を直接学習する新しいニューラル前処理手法「NeuraLSP」が提案されました。

6012 字
読む →

因果駆動型の特徴評価によるドメイン適応の障壁の打破

従来のドメイン汎化手法はドメイン間で不変な特徴を重視してきたが、不変性が必ずしも予測に対する因果的な有効性を保証しないという課題があった。本研究では、学習された表現が予測に対してどれほど「必要」かつ「十分」であるかを因果的な視点から直接評価する「Causal-Driven Feature Evaluation」という新しいフレームワークを提案し、統計的な相関に惑わされない頑健なモデル構築を可能にした。 具体的には、表現を複数のセグメントに分割し、特定のセグメントを他の値と入れ替える介入操作を通じて、そのセグメントが予測の維持や破壊にどれだけ寄与するかを測定する「必要十分確率(PNS)」に基づいた評価指標を導入している。これにより、一部のドメインでしか通用しない偽の相関を排除し、未知のドメインに対する予測精度を大幅に向上させている。 提案手法は、構造化された潜在空間の学習とセグメント単位の因果評価を組み合わせた二段階の構成となっており、複数のドメインにわたる広範な実験において、既存の最先端手法を一貫して上回る性能を達成した。特に、ドメイン間の差異が激しい過酷な環境下において、因果的な純度の高い特徴を選択することの重要性が実証されており、信頼性の高い分布外汎化を実現するための新たな指針を提示している。

6402 字
読む →