継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

コマ割りが“思考の外部メモ”になる:コミックで強く軽いマルチモーダル推論へ

画像だけでは、時間の流れをどう表現すればいい? 1枚の中に「前→後」を押し込めようとすると、説明は増えるのに、肝心の“移り変わり”が見えにくくなる。 動画なら時系列は出せるが、冗長さと計算コストが跳ね上がる。 欲しいのは要点の連鎖なのに、フレームとしては情報が流れ続け、推論の足場として扱うには重たくなりがちだ。

6965 字
読む →

『ダビデ対ゴリアテ』――強化学習で検証できるエージェント対エージェント脱獄

「安全なはずのエージェント」が、なぜ会話だけで“禁止されたツール操作”に踏み込んでしまうのか? この問いは、チャットでの言い回しや巧妙な誘導だけでは説明しきれない、エージェント特有の弱点を含んでいます。 ポイントは、攻撃者がツールを持たなくても「信頼された権限に同乗」できるところにあります。

5942 字
読む →

「教科書的な解答」を「学べる推論」に変える:DAILという発想

難問で、LLMはどうやって“学ぶための手がかり”を手に入れるべきなのでしょうか? 正解が出ないなら強化学習は止まり、模範解答を真似ても逆に崩れる──ここが意外な落とし穴です。 この記事では、専門家の解答を“学習可能な推論”へ変換して使うDAILの狙いと仕組みを、論文の範囲で追います。

7068 字
読む →

内容に引きずられない推論へ:LLMの「抽象アクティベーション空間」という発想

狙いは、三段論法のような形式推論を、語の意味的もっともらしさに引っ張られず評価できるようにすることです。 / そのために、抽象入力で得られる内部表現を「抽象アクティベーション空間」として定義し、内容つき入力の推論中にその空間へ表現を寄せる介入を行います。 / 結果として、Chain-of-Thought より bias-penalised accuracy で強く、SFT と比べても重みを変えずに内容依存の推論バイアスを抑えられる可能性を示しています。

7738 字
読む →

方向から領域へ:言語モデル活性化を「ローカル幾何」でほどく

活性化空間の「概念」は、本当に一本の方向として切り出せるのか? 意外にも論文は、方向探しの前提そのもの(線形に分けられるはず)を疑い、「領域」で捉え直します。ここでの転換は、方向を否定するというより、方向“だけ”に寄りかかる設計をいったんほどいてみる、という態度に近いです。

6948 字
読む →

心の目は、AIの推論を強くするのか――MentisOculiが暴く「メンタルイメージ推論」の限界

AIに「途中の図」を描かせれば、難しい推論はもっと解けるようになる? ところが最先端モデルほど、絵を挟んでも強くならない場面がある。むしろ、図を入れたことで“別の失敗”が増えてしまう可能性すら見えてくる。 この記事では、MentisOculiが何を測り、どこでつまずきが起きるのかを追いかける。

6179 字
読む →

大規模言語モデルにおける信念に導かれたエージェンシーとメタ認知モニタリングの兆候

大規模言語モデルは「自分が何を信じているか」を、内部で持っているのでしょうか? 意外なのは、その問いを“哲学”の言葉遊びで終わらせず、内部表現を実際に操作し、しかも計測して確かめようとしている点です。

6399 字
読む →

Avenir-Web:グラウンディング・エキスパートの混合を用いた、人間の経験を模倣するマルチモーダルWebエージェント

現代の複雑で動的なウェブ環境において、従来の自律型エージェントが直面していた要素特定の不正確さや知識不足、長期的なタスク追跡の不安定さという3つの主要なボトルネックを解消するため、人間の経験を模倣する新しいマルチモーダルウェブエージェント「Avenir-Web」が開発されました。

6622 字
読む →

Identity Bridgeによる自己回帰言語モデルのリバーサル・カースの打破

うちのモデルは「Alice の夫は Bob」と覚えたのに、「Bob の妻は?」にはなぜ黙るのか? それは“能力不足”というより、学習データの向きが生む「反転の呪い」かもしれません。 この記事では、反転データを追加せずにこの呪いをゆるめる「Identity Bridge」という小さな工夫を、論文の筋立てに沿って読み解きます。 知識としては一続きに見えるのに、聞き方が変わっただけで答えが途切れる――その不思議さの正体を、「データの与え方」という最小単位から眺め直します。

6382 字
読む →

MemSkill:自己進化エージェントのためのメモリスキルの学習と進化

記憶は、LLMエージェントにとって「後から効く力」なのに、なぜ手作業のルールに縛られ続けるのか? 長い履歴を前にすると、いま役に立つ情報だけをうまく掬い上げ、不要になったものを整理し直す――その“当たり前”が、実は固定化された手順に強く依存しているからです。

6132 字
読む →