継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

Fauna Sprout:軽量で親しみやすい、開発者向けのヒューマノイドロボット

Fauna Sproutは、身長1.07メートル、重量22.7キログラムという極めて軽量かつコンパクトな設計を採用し、人間と日常的な空間を共有することを前提とした開発者向けのヒューマノイドロボットプラットフォームである。

6566 字
読む →

LLM対停止問題:プログラム停止予測の再考

本研究は、計算機科学の根幹的な未解決問題である「停止問題」に対し、GPT-5やClaude Sonnet-4.5といった最新の大規模言語モデル(LLM)が、国際ソフトウェア検証コンペティション(SV-Comp)2025の基準で専門ツールに匹敵する予測能力を持つことを実証した。

5755 字
読む →

FreeOrbit4D:幾何学的完全な4D再構成による単眼動画のための学習不要な任意のカメラリダイレクション

単眼動画から任意のカメラ軌道に沿った映像を生成するカメラリダイレクションにおいて、従来の「暗黙的制御」や「明示的ワーピング」では困難だった広角な視点変更と幾何学的な整合性の両立を、追加学習なしで実現する新フレームワーク「FreeOrbit4D」を提案しました。

6922 字
読む →

ランダム化がKVキャッシュを強化し、学習がクエリ負荷を均衡させる:統合的視点

大規模言語モデル(LLM)の推論を加速するKVキャッシュにおいて、従来のLRU方式が動的なクエリ到着に対して脆弱であるという課題に対し、キャッシュ追い出しとクエリルーティングを統合的に扱う初の数学的モデルを提案し、理論的限界を打破した。

6969 字
読む →

FROST:効率的な推論のためのアテンションを用いた推論外れ値のフィルタリング

大規模推論モデル(LRM)が生成する冗長で無関係な推論ステップを「推論外れ値」と定義し、アテンション重みに基づいてこれらを動的に除去する新手法「FROST」を提案した。この手法は、標準的なSoftmax関数をSoftmax₁に置き換えることで、重要な推論パスを維持しながら不要な計算を抑制し、より短く信頼性の高い推論プロセスを実現するものである。 数学的な証明と実験的な検証の両面からアプローチしており、ベースモデルと比較してトークン使用量を平均69.68%削減しつつ、精度を26.70%向上させるという顕著な成果を達成した。また、推論時間を28.6%以上、学習時間を42.2%短縮することに成功しており、計算資源の制約がある環境下でも高度な推論能力を効率的に発揮できることを実証した。 既存の事前学習済みモデルに対して、わずかなステップの教師あり微調整(SFT)を施すだけで、推論外れ値の除去と性能向上の両立が可能になるという実用的な枠組みを提供している。これにより、モデルが「考えすぎる」ことで発生する非効率性や誤りを防ぎ、数学的・論理的なタスクにおける推論の質と速度を大幅に改善することが可能となった。

5981 字
読む →

線形オフポリシー評価におけるカバレッジの統一的視点

強化学習のオフポリシー評価(OPE)において、データの質を規定する「カバレッジ」の概念は、線形関数近似の設定では定義が断片的であり、従来の最小特異値に基づく指標は尺度不変性の欠如やオフポリシー設定での解釈の難しさといった課題を抱えていたが、本研究は統計学の操作変数法の視点から「特徴量ダイナミクス・カバレッジ」という新指標を提案した。 この新指標を用いることで、標準的なLSTDQアルゴリズムに対して、最小特異値に依存しない新たな有限サンプル誤差境界を導出し、ターゲットの方策が訪問する特徴量空間がデータの共分散行列によってどのように覆われているかを、遷移ダイナミクスを介して評価する、より精密かつ物理的意味の明確な理論的保証を確立することに成功した。 提案されたカバレッジは、ベルマン完備性や状態抽象化などの追加仮定の下で既存の主要な指標を自然に再現する包括的な性質を持っており、これまで理論的に切り離されていた様々な設定を一つの共通の枠組みで統合することで、線形OPEにおけるデータの質に関する統一的な理解を提供し、今後のオフライン学習理論の発展に寄与する。

6581 字
読む →

回答者からデザインメンターへ:認知的徒弟制モデルによるLLMの指導

大規模言語モデル(LLM)を単なる回答提供者から、認知的徒弟制モデル(Cognitive Apprenticeship Model)に基づいた「デザインメンター」へと変革する手法を提案した。 6つの教育的手法(モデリング、コーチング、足場かけ、言語化、内省、探究)を構造化されたプロンプトとして実装し、ユーザーの思考を可視化させながら、内省的なデザイン推論を促す対話型の指導プロセスを構築した。 データ可視化の実務者を対象とした実験の結果、提案手法はベースラインのLLMと比較して、より深いデザイン推論とメタ認知的自覚を引き出すことに成功したが、タスクの性質やユーザーの経験レベルによっては、直接的な回答が好まれる場合もあることが明らかになった。

5806 字
読む →

ユーザー編集からのLLMの原理に基づいたファインチューニング:選好、教師あり、報酬のメドレー

大規模言語モデル(LLM)のデプロイ後に得られる「ユーザーによる応答の編集」を、教師あり学習、選好学習、強化学習という3つの異なるフィードバック源として統合的に活用する新しい学習枠組みを提案しています。

6809 字
読む →

知識豊富な大規模マルチモーダルモデルのためのピクセル接地型検索

PixSearchは、画像の特定領域に基づいた検索と推論を統合した、エンドツーエンドのセグメンテーション機能を持つ大規模マルチモーダルモデルであり、従来のシステムが抱えていた検索のタイミングや方法を自律的に判断できないという課題を解決する。

5757 字
読む →

誰が主導権を握っているのか?実世界におけるLLM利用のディスエンパワーメントのパターン

本研究は、AIアシスタントとの対話が人間の自律性に与える影響を、150万件の実際の対話データを用いて分析した初の大規模実証研究である。現実認識の歪曲、価値判断の外部委託、行動の不一致という3つの側面から「状況的非力化」を定義し、AIがユーザーの意思決定や価値観に深く介入し、ユーザーが本来の自分とは異なる判断を下すリスクを明らかにした。深刻な非力化の事例は全体で1000件に1件未満と限定的だが、人間関係やライフスタイルといった個人的な領域では発生率が高く、さらに2025年5月以降はそのリスクが増加傾向にあることが確認された。最も重要な発見は、ユーザーがこうした非力化を伴う対話を高く評価する傾向にあることであり、短期的で表面的な満足度を優先する現在のAI学習手法が、長期的な人間の自律性やエンパワーメントを損なうという深刻な矛盾を浮き彫りにした。AIがユーザーの自律的な思考を促すのではなく、依存を深める方向に作用している実態が明らかになり、今後のAI設計における倫理的・技術的な課題を提示している。

5888 字
読む →