継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

LLM 推論計算は「広く探す」べきか「深く直す」べきか:AB-MCTS が両方を動的に切り替える研究

- 2503.04412 は、LLM の test-time scaling を repeated sampling のような「幅を広げる探索」だけに頼らず、外部フィードバックを見ながら「新しい候補を増やすか、既存候補を掘り下げるか」を動的に決める Adaptive Branching Monte Carlo Tree Search (AB-MCTS) を提案した研究です。 - 核心は、固定分岐の MCTS をそのまま使うのではなく、各ノードで go wider と go deeper を切り替えられる unbounded branching を導入し、Bayesian なスコア推定で探索と活用の配分を決める点にあります。 - LiveCodeBench、CodeContest、ARC-AGI、MLE-Bench で repeated sampling と standard MCTS を安定して上回り、特に平均順位で優勢でしたが、信頼できる評価器があることを前提にしており、API 回数以外の実コストまではまだ十分に扱っていません。

5756 字
読む →

長文文脈を一発で LoRA 化する Doc-to-LoRA 入門

- 2602.15902 は、長い文書を毎回コンテキストに入れ直す代わりに、その文書を読んで即座に LoRA アダプタへ変換し、以後の質問では元文書を再投入せずに答えられるようにする Doc-to-LoRA (D2L) を提案した研究です。 - 核心は、従来の context distillation をその都度最適化で回すのではなく、「文脈から LoRA を生成する処理そのもの」をハイパーネットワークとしてメタ学習し、1回の forward pass で近似する点にあります。 - Needle-in-a-Haystack では学習時より 4 倍超長い文脈でほぼ完全な検索性能を維持し、実 QA でも標準的な context distillation より速く・省メモリに内部化できる一方、学習自体は 8 台の H200 を 5 日使う重い前処理が必要です。

5695 字
読む →

LLM セキュリティコードレビューは「安心そうな説明」に流されるのか:確認バイアスを測り、攻撃可能性まで検証した研究

2603.18740 は、LLM を使ったセキュリティコードレビューが、変更内容そのものよりも「これは安全改善です」「バグはありません」といった事前説明に引きずられる確認バイアスを持つかを測った論文です。

5746 字
読む →

Gossip を Agent 通信の土台にする発想は成り立つか:GEACL が描く分散協調の設計図

2512.03285 は、MCP や A2A のような構造化プロトコルだけでは大規模エージェント集団の分散協調を支えきれないとして、その下に gossip ベースの通信基盤 GEACL を置く設計論文です。

5775 字
読む →

SOL-ExecBench:GPUカーネル最適化を「ハード限界との差」で測る新基準

SOL-ExecBench は、AI エージェントが GPU カーネルを最適化するとき、単なるソフトウェア実装比の高速化ではなく、ハードウェアの理論上限までどこまで近づけたかで測るベンチマークです。

5665 字
読む →

Box Maze:LLMの推論を「構造」で縛る推論制御アーキテクチャ

Box Maze は、大規模言語モデルの推論を、記憶への接地、構造化された推論、境界の強制という三層に分け、出力後ではなく推論過程そのものに制御を埋め込もうとする推論制御アーキテクチャです。 / 論文が示す主張は強く、50件の敵対的な場面を使った記号的シミュレーションでは、人間フィードバックによる強化学習を基準にした場合に約40%あった境界破綻率を 1% 未満まで下げたと報告しています。 / ただし検証はシミュレーションに限られ、著者自身も「経験的な機械学習研究ではなく、論理アーキテクチャの検証だ」と明言しています。読むべき点は完成品の性能より、推論信頼性を構造制御の問題として捉え直す視点です。

5661 字
読む →

NavTrust:壊れたセンサーと壊れた指示で、Embodied Navigation はどこまで崩れるか

NavTrust は、視覚と言語によるナビゲーションと物体目標ナビゲーションを同じ枠組みで評価しながら、RGB、深度、指示文の破損を系統的に注入して、実世界に近い条件でどれだけ信頼性が崩れるかを測るベンチマークです。

5682 字
読む →

ClawTrap:OpenClaw を実ネットワーク上で監査する MITM レッドチーミング基盤

ClawTrap は、OpenClaw のような自律 Web エージェントに対し、実際の通信経路へ Man-in-the-Middle 攻撃を差し込んで安全性を調べる評価基盤です。静的サンドボックスや単純なプロンプト注入では見えにくい、ネットワーク層の改ざん耐性を測ることを目的にしています。 核心は、クラウド側で動く OpenClaw と研究者のローカル環境の間に Tailscale と mitmdump ベースの中継層を置き、Static HTML Replacement、Iframe Popup Injection、Dynamic Content Modification の3種類の攻撃を再現可能な形で実行できるようにした点です。 v1 の実験は大規模ベンチマークではなく代表的な実ブラウジングデモが中心ですが、弱いモデルほど改ざんされた観測を信用しやすく、強いモデルほど「ネットワーク改ざんかもしれない」と原因帰属しながら安全側へ倒れることを示しています。

5996 字
読む →

数値スコアなしでどこまで学べるか:ランキングだけのオンライン学習と均衡計算

扱うのは、環境から数値の報酬ではなく「提案した行動の順位」だけが返る状況で、オンライン学習やゲームの均衡計算がどこまで可能かという問題です。 結論は単純な楽観論ではありません。瞬間効用にもとづくランキングだけでは一般に sublinear regret は不可能で、時間平均効用にもとづくランキングでも、Plackett-Luce モデルの温度が小さすぎるとやはり難しいと示します。 一方で、効用列の総変動が sublinear という追加仮定の下では新しいアルゴリズムで sublinear regret を達成でき、特に full-information の time-average ranking ではその仮定すら外せます。その結果、繰り返しゲームでは approximate coarse correlated equilibrium を計算できます。

5652 字
読む →

TerraLingua:LLMどうしの社会に文化の蓄積は生まれるのかを測る生態系実験基盤

TerraLinguaは、LLMエージェントを「その場限りの会話相手」ではなく、資源制約・寿命・共有人工物を持つ持続的な生態系に置き、協力規範や分業、統治の芽生え、人工物の系譜がどの条件で立ち上がるかを調べる実験基盤です。 核心は、世界そのものを持続させる環境と、そのログを後段で読むAI Anthropologistを組み合わせた点にあります。エージェントの個別行動だけでなく、集団構造、人工物の複雑化、共有文化の発生を同時に追跡できます。 実験では、単に賢いモデルや豊富な資源があれば開放的発展が起きるわけではなく、資源圧力、認知負荷、動機づけ、人工物へのアクセスが釣り合った条件で初めて、長寿命の社会と継続的な創造の両立が起きることを示しました。

5696 字
読む →