継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

思考の連鎖(CoT)圧縮の理論的解析:ALiCoTによる効率的な推論の実現

大規模言語モデルの思考の連鎖(CoT)は高度な推論を可能にする一方で、膨大なトークン生成による計算コストと遅延が課題となっており、推論過程を潜在状態に隠蔽する「暗黙的CoT」は複雑な論理タスクで性能が崩壊するという問題を抱えていました。

6753 字
読む →

思考の連鎖の圧縮:理論的分析

大規模言語モデルの思考プロセスを潜在状態に圧縮する「隠れ思考連鎖(Implicit CoT)」において、推論ステップの省略が学習信号の指数関数的な減衰を引き起こし、複雑な論理問題の解決を困難にすることを理論的に解明しました。

6142 字
読む →

深層再帰アテンション混合:潜在的推論にふさわしい注目を

従来の思考連鎖(CoT)が抱える離散的な言語化の制約と計算コストの問題を、深層再帰とアテンション混合を統合した「Dreamer」フレームワークによって、潜在空間での効率的な多段階推論へと転換し、モデルの表現力を大幅に向上させた。

7302 字
読む →

深層再帰的アテンション混合:潜在的推論に、それに値するアテンションを

従来の思考の連鎖(CoT)は自然言語による冗長な出力を必要とし、計算コストが高いという課題があったが、本研究ではモデルの深さ方向で再帰的に計算を行う「深層再帰(DR)」を用いることで、潜在空間内での効率的な推論を実現する新しいフレームワーク「Dreamer」を提案している。

5934 字
読む →

Scalable Power Sampling: 分布の鋭敏化によるLLMの効率的かつ学習不要な推論の実現

大規模言語モデルの推論性能を向上させる強化学習は、本質的には新しい能力の獲得ではなく、既存の分布を鋭敏化するプロセスであるという仮説に基づき、外部報酬や追加学習を一切必要とせずに推論能力を引き出す新しいサンプリング手法が提案されました。

6250 字
読む →

Scalable Power Sampling: 分布の先鋭化によるLLMの効率的かつ学習不要な推論の実現

大規模言語モデルの推論性能を向上させる強化学習(RL)の効果は、新しい能力の獲得ではなく、既存のモデル内に潜在する分布を先鋭化させることに起因するという見方が強まっており、外部報酬や追加学習なしでこの効果を再現する手法が求められています。

6824 字
読む →

模倣を超えて:能動的潜在計画のための強化学習

大規模言語モデルの推論において、従来の潜在推論手法は単一の正解ラベルを模倣することに固執しており、多様な推論経路が存在する問題に対して最適なポリシーを構築できず、訓練とテストの間に性能の乖離が生じるという課題がありました。

5778 字
読む →

模倣を超えて:能動的潜在プランニングのための強化学習

従来の潜在推論手法は、単一の言語ラベルを模倣する受動的な学習に依存しており、複数の正解経路が存在する複雑な推論問題において、特定の解法に過剰適合し汎用性が低下するという課題がありました。 本研究が提案するATP-Latentは、条件付き変分自己符号化器(VAE)を用いて滑らかな潜在空間を構築し、強化学習を通じて最適な推論経路を自律的に探索・計画する「能動的プランニング」の枠組みを導入しています。 LLaMA-1Bを用いた実験では、従来の模倣ベースの手法と比較して、主要な数値推論ベンチマークで正解率を4.1%向上させつつ、使用するトークン数を3.3%削減することに成功し、高密度で効率的な推論の有効性を実証しました。

5711 字
読む →

CORE: 相互教育を通じた協調的推論フレームワーク

CORE(Collaborative Reasoning)は、複数の大規模言語モデルを訓練時に相互教育させることで、推論能力を飛躍的に向上させる新しい学習フレームワークである。 独立して問題を解く「コールドラウンド」と、成功した他者のヒントを元に解き直す「レスキューラウンド」の2段階構成により、モデル間の誤りの重複を減らし、相補的な能力を育成する。 わずか1,000例以下の学習データを用いた実験では、GSM8Kで99.54%、MATHで92.08%という極めて高いチーム正解率を達成し、モデルサイズを拡大せずに推論の信頼性を大幅に高めることに成功した。

6284 字
読む →

CORE: 相互教授による協調的推論

CORE(Collaborative Reasoning)は、複数の大規模言語モデルが互いの成功例を学習信号として活用する「相互教授(Cross Teaching)」という革新的なフレームワークを提案し、モデル間の相補的な推論能力を飛躍的に向上させる手法である。

5956 字
読む →