継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

ReLE: 中国語LLMにおける能力異方性を診断するためのスケーラブルなシステムと構造化ベンチマーク

ReLEは、中国語大規模言語モデル(LLM)の評価において、既存ベンチマークの飽和と膨大な計算コストという課題を解決するために開発された、スケーラブルな動的診断システムである。304個のモデルを対象に20万件以上のサンプルを用いた評価を行い、分散認識型スケジューラにより精度を維持しながらコストを70%削減し、記号接地ハイブリッドスコアリングで判定の信頼性を高めた。モデルの性能が領域ごとに不均一である「能力異方性」を定量化し、単一の集計スコアでは隠されてしまうランキングの不安定性や、専門性と汎用性の間にある構造的なトレードオフを明らかにした。

5678 字
読む →

ノイズの多いラベル学習のためのノイズ補償型シャープネス考慮最小化 NCSAM

ウェブから収集されたデータ等に含まれる誤ったラベル(ノイズ)は、深層学習モデルに偏った勾配を導入し、汎化性能を著しく低下させるという深刻な課題があります。 本研究は、損失関数の平坦性とラベルノイズの関係を理論的に解析し、ノイズによる勾配の歪みが従来の平坦化手法(SAM)の摂動を狂わせることを解明した上で、その歪みを明示的に補正する新手法NCSAMを提案しました。 NCSAMは、モデルの予測自信度に基づきノイズをシミュレートしてパラメータの偏差を相殺することで、複雑なラベル修正なしに、クリーンなデータセットでの学習に近い高い堅牢性と汎化性能を達成しました。

6024 字
読む →

三段論法による調査:大規模言語モデルにおける論理推論の進化の追跡

大規模言語モデル(LLM)の進化過程において、モデルの規模が拡大するにつれて、推論の基盤が直感に頼る伝統的なアリストテレス的論理から、より厳密で形式的な現代のブール的論理へと移行する「論理のパラダイムシフト」が発生することが、三段論法を用いた詳細な調査によって明らかになりました。

5853 字
読む →

17%のギャップ:AI支援型サーベイ論文における認識的減衰の定量化

AI分野のサーベイ論文50本(引用総数5,514件)を調査した結果、デジタルオブジェクトとして特定できない「ファントム引用」が17.0%存在し、科学的根拠の連鎖が大規模に損なわれている実態が判明した。 この引用の劣化は、純粋な捏造(5.

6073 字
読む →

MCPベースのサーバーエコシステムにおけるインテリジェントエージェントのための宣言型エージェント層に向けて

大規模言語モデル(LLM)ベースのエージェントは、行動の根拠となる明示的な構造を欠いているため、実行不可能な計画の作成やハルシネーションといった深刻な信頼性の問題に直面しており、既存のマルチエージェントシステムでは41%から86%という高い失敗率が報告されている。

6307 字
読む →

UniGRec: ソフト識別子を用いたエンドツーエンド最適化による統一生成型推薦

生成型推薦において、従来のトークナイザーと推薦モデルを個別に最適化する手法に対し、微分可能な「ソフト識別子」を導入することで、両者を単一の推薦目的関数でエンドツーエンドに同時最適化する新フレームワーク「UniGRec」が提案された。

5706 字
読む →

自己回帰ニューラルモデルのためのモデルクラス選択とパラメータ学習を統合した新しいアプローチ

非線形動的システムの同定において、モデル構造の選択とパラメータ学習を同時に実行する、セットメンバーシップ(SM)法に基づいた新しい統合的アプローチが提案された。この手法は、特に自己回帰成分を持つニューラルモデルにおいて、データの不確実性を考慮しながら最適なモデルクラスを特定し、制御に適した簡潔なモデルを構築することを目的としている。 具体的な対象として、外生入力を伴う非線形自己回帰エコーステートネットワーク(NARXESN)を採用し、有界な測定ノイズを明示的に扱うことで、過学習を防ぎつつシステムの動的な振る舞いをロバストに捉える。これにより、従来は計算負荷が高かった自己回帰モデルの性能評価を、データ一貫性のある指標を用いて効率的に行うことが可能になった。 提案されたフレームワークは、セット距離(set-distance)という新しい性能指標とヒューリスティックな探索手順を組み合わせることで、複雑な非線形システムの同定プロセスを自動化している。結果として、計算コストを抑えながら、実世界のアプリケーションで要求される精度とモデルの簡潔さを両立させる信頼性の高い動的モデルの生成を実現している。

6229 字
読む →

オンデバイス大規模言語モデルのためのクラスタリング駆動型メモリ圧縮

スマートフォンなどのオンデバイス環境で動作する大規模言語モデル(LLM)において、限られたコンテキスト窓を有効活用しながらユーザーの過去の対話履歴をパーソナライズに利用するための、新しいクラスタリング駆動型メモリ圧縮手法が提案されました。

5882 字
読む →

表形式マルチエージェントQ学習における身体性に起因する協調レジーム

マルチエージェント強化学習において、中央集中型の学習は協調性と安定性を向上させる標準的な手法とされてきましたが、本研究は表形式の捕食者・被食者環境を用いた厳密な検証により、この定説が物理的制約下では必ずしも成立しないことを明らかにしました。

6354 字
読む →

影響の矛盾を用いた頑健なGNNのためのラベルノイズの特定と修正

グラフニューラルネットワーク(GNN)は社会分析や生物情報学などの多様な分野で活用されているが、現実のデータには注釈ミスや不整合に起因するラベルノイズが含まれることが多く、これがモデルの堅牢性と汎用性を著しく低下させるという課題がある。

6345 字
読む →