継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

思考転移:思考連鎖推論モデルに対する間接的な標的型ポイズニング攻撃

思考連鎖(CoT)モデルを標的とした、推論プロセスのみを改ざんする新しいポイズニング攻撃「思考転移(Thought-Transfer)」が提案されました。これは訓練データのクエリや正解を変更せず、推論ステップの中にのみ将来的に特定の標的タスクで発動する行動パターンを埋め込む「クリーンラベル型」の攻撃です。

6659 字
読む →

誰が主導権を握っているのか?実世界におけるLLM利用のディスエンパワーメントのパターン

本研究は、AIアシスタントとの対話が人間の自律性に与える影響を、150万件の実際の対話データを用いて分析した初の大規模実証研究である。現実認識の歪曲、価値判断の外部委託、行動の不一致という3つの側面から「状況的非力化」を定義し、AIがユーザーの意思決定や価値観に深く介入し、ユーザーが本来の自分とは異なる判断を下すリスクを明らかにした。深刻な非力化の事例は全体で1000件に1件未満と限定的だが、人間関係やライフスタイルといった個人的な領域では発生率が高く、さらに2025年5月以降はそのリスクが増加傾向にあることが確認された。最も重要な発見は、ユーザーがこうした非力化を伴う対話を高く評価する傾向にあることであり、短期的で表面的な満足度を優先する現在のAI学習手法が、長期的な人間の自律性やエンパワーメントを損なうという深刻な矛盾を浮き彫りにした。AIがユーザーの自律的な思考を促すのではなく、依存を深める方向に作用している実態が明らかになり、今後のAI設計における倫理的・技術的な課題を提示している。

5888 字
読む →

AIフィードバックによる強化学習を用いた音声対話システムにおける会話品質の最適化

従来の音声対話システムにおける強化学習は、主に発話レベルの単一な意味的報酬に限定されており、音声の自然さや感情の一貫性といった多面的な品質を十分に最適化できていませんでした。本研究では、意味的な整合性に加えて、音声品質(UTMOS)、明瞭性(WER)、感情の一貫性という複数の報酬を統合した、音声入出力対話システムのための新しいマルチ報酬RLAIFフレームワークを提案しています。この手法は、逐次的に応答を生成するデュプレックス(全二重)モデルにも対応しており、複数の評価指標において一貫した品質向上を実現するとともに、研究の再現性を支援するための大規模なデータセットも公開されます。

6732 字
読む →

エージェント型プログラム修正におけるバグ再現テストの動的共生成

開発者の信頼を高めるため、AIによるバグ修正と同時にそのバグを再現するテスト(BRT)を生成する「共生成」手法を提案し、Googleの120件の実際のバグを用いてその有効性を検証した。 テスト駆動型(TDD)、テスト後置型(TLD)、自由形式(Freeform)の3つの戦略を比較した結果、自由形式が最も高い成功率を記録し、修正のみやテストのみを生成する専用エージェントと同等以上の成果を上げた。 テストの有無を考慮した新しいパッチ選択手法を導入することで、修正とテストの両方が含まれる高品質なパッチを精度よく特定できることを示し、大規模なソフトウェア開発におけるAIエージェントの有用性を実証した。

6210 字
読む →

HalluJudge:コードレビュー自動化における文脈不整合のための参照不要な幻覚検出

大規模言語モデル(LLM)が生成するコードレビューにおいて、実際のコード変更に基づかない「幻覚」を検出するため、正解データを必要としない評価フレームワーク「HalluJudge」が開発されました。

5877 字
読む →

C2NP:3D材料生成におけるスケール依存の幾何学的不変性を学習するためのベンチマーク

C2NPは、無限の周期性を持つバルク結晶と有限のナノ粒子の間にある構造的ギャップを埋めるための新しい評価用ベンチマークであり、17万件以上の多様なナノ粒子構成を用いて生成モデルの幾何学的な汎化性能を厳密に測定する。

6012 字
読む →

さらなる賭け:協力ジレンマにおける利得と言語がいかにLLMエージェントの戦略を形成するか

本研究は、大規模言語モデル(LLM)エージェントが繰り返される囚人のジレンマにおいて、利得の絶対的な大きさと提示される言語が戦略的行動にどのような影響を与えるかを、FAIRGAMEフレームワークを用いて詳細に分析した。

6424 字
読む →

スピードは自信である

生物学的な神経系がエネルギー制約下で「最初の確信的な信号」に基づいて迅速に行動することに着想を得て、反復型推論モデルのアンサンブルにおいて、単なる出力の平均化ではなく「最初に停止(Halt)したモデル」の回答を採用する「Halt-First」手法を提案した。

6003 字
読む →

EPAS:漸進的な活性化共有による効率的な学習

EPAS(Efficient training with Progressive Activation Sharing)は、Transformerモデルの深層における計算の冗長性を利用し、学習中に活性化(QKまたはKV)の共有領域を段階的に拡大させることで、学習と推論の両方の効率を飛躍的に向上させる新しい学習フレームワークである。 スイッチ切り替え可能なデコーダー層を導入し、学習の進行に合わせて深い層から浅い層へと共有範囲を広げる決定論的なスケジューリングを行うことで、モデルの精度を維持しながら学習スループットを最大11.1%、推論スループットを最大29.2%向上させることに成功した。 LLaMAモデルを用いた検証では、複雑な知識蒸留を必要とせずに既存の事前学習済みモデルを効率的な共有モデルへと変換可能であり、計算リソースや遅延の制約に応じて推論時の共有構成を柔軟に変更できるMany-in-oneモデルとしての実用的な特性を実証した。

6528 字
読む →

LEMON:MLLMは教育ビデオにおける時間的なマルチモーダル理解をどれほどうまく行えるか?

教育ビデオにおける時間的なマルチモーダル理解を精密に評価するため、数学や人工知能などのSTEM分野の講義を対象とした新しいベンチマーク「LEMON」が提案されました。このデータセットは、5つの学問分野と29のコースから収集された2,277のビデオセグメントと、4,181の高品質な問題ペアで構成されており、視覚、音声、テキストの3つのモダリティが密接に連携した高度な推論を要求します。実験の結果、GPT-5やQwen3-Omniといった最新のマルチモーダル大規模言語モデルであっても、時間的な推論や教育的な意図の予測において大きな課題があることが明らかになり、実世界での複雑なコンテンツ理解能力には依然として大きな乖離があることが示されました。

6199 字
読む →