継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

視覚生成はマルチモーダル世界モデルを通じて人間のような推論能力を解き放つ

本研究は、統一マルチモーダルモデル(UMM)における視覚生成が、物理的・空間的推論を必要とするタスクにおいて「世界モデル」として機能し、従来の言語のみの推論(CoT)を大幅に上回る性能を発揮することを理論と実験の両面から明らかにしました。

5987 字
読む →

HARMONI:LLMを用いた多人数対ロボット相互作用のマルチモーダルなパーソナライズ

HARMONIは、介護施設のような多人数が同時に存在する複雑な環境において、大規模言語モデル(LLM)の能力を最大限に引き出し、個々のユーザーに対する長期的なパーソナライズを実現するための革新的なマルチモーダル・フレームワークである。

5912 字
読む →

内省的翻訳:構造化された自己内省による低リソース機械翻訳の改善

isiZuluやisiXhosaといった低リソース言語の機械翻訳において、限定的な学習データに起因する誤訳や情報の欠落、意味の歪みを解決するため、モデルが自らの出力を批判的に評価し修正する「内省的翻訳(Reflective Translation)」フレームワークが提案されました。 この手法は、GPT-3.

7209 字
読む →

対話型推薦における長期的ユーザー満足度のためのLLM強化型強化学習

対話型推薦システムが陥りやすいフィルターバブルや内容の均質化という課題に対し、大規模言語モデル(LLM)の論理的計画能力と強化学習(RL)の適応力を組み合わせた階層型フレームワーク「LERL」を開発した。

5790 字
読む →

Innovator-VL:科学的発見のためのマルチモーダル大規模言語モデル

Innovator-VLは、科学的ドメインにおける高度な理解と推論を実現するために開発された、透明性の高いマルチモーダル大規模言語モデル(MLLM)であり、科学的タスクでの卓越した性能と一般的な視覚タスクでの汎用性を高い次元で両立させています。

5893 字
読む →

ベンチマークが漏洩するとき:LLMのための推論時における汚染除去

大規模言語モデルの評価において、テストデータが訓練データに混入する「データ汚染」が性能を不当に高く見せる問題に対し、推論時に埋め込み空間へ微小な摂動を加えることで記憶によるショートカットを抑制する手法「DeconIEP」が提案されました。

6205 字
読む →

選択的ステアリング:識別的な層選択を通じたノルム保存制御

大規模言語モデル(LLM)の安全性を高めるための「アクティベーション・ステアリング」において、従来の回転手法がモデルの内部状態(ノルム)を歪ませ、特に7B未満の小規模モデルで生成崩壊を引き起こす問題を特定しました。

5672 字
読む →

自動ポストエディットにおいて、LLMは本当により長いコンテキストから恩恵を受けているのか?

商用大型言語モデル(LLM)は、単純なプロンプト操作のみで人間と同等の自動ポストエディット(APE)品質を達成可能ですが、ドキュメント全体のコンテキストを追加しても翻訳品質に統計的に有意な向上は見られず、長文コンテキストの活用の難しさが浮き彫りになりました。

6582 字
読む →

LLM生成応答への広告挿入

大規模言語モデル(LLM)の持続可能な収益化に向け、広告挿入を応答生成から分離し、広告主が特定のクエリではなく「ジャンル」という抽象的なカテゴリに対して事前に入札を行う新しい広告枠組みを提案する。

5666 字
読む →

KG-CRAFT:自動ファクトチェック強化のためのLLMを用いた知識グラフベースの対照的推論

KG-CRAFTは、大規模言語モデル(LLM)と知識グラフ(KG)を融合させ、主張と証拠の間の対照的な関係を深掘りすることで自動ファクトチェックの精度を劇的に向上させる新しいフレームワークです。

6107 字
読む →