継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

CORE: 相互教育を通じた協調的推論フレームワーク

1. COREは、複数の大規模言語モデルが「相互教育(Cross Teaching)」を通じて互いの推論エラーを補完し合う、トレーニング段階の新しい協調学習フレームワークであり、モデル間の相補性を直接的に最適化する。 2.

6011 字
読む →

RecNet: エージェント型推薦システムのための自己進化型嗜好伝播フレームワーク

RecNetは、大規模言語モデル(LLM)を活用したエージェント型推薦システムにおいて、ユーザーやアイテム間の嗜好情報を能動的に伝播させる自己進化型のフレームワークである。従来のシステムが疎らでノイズの多い明示的な行動履歴のみに依存していたのに対し、本手法はルーターエージェントを介して関連するコミュニティへリアルタイムに情報を届ける仕組みを持つ。フィードバックに基づくテキスト最適化により、伝播戦略を継続的に改善することで、動的な環境下でも精度の高いパーソナライズされた推薦を実現することを目指している。さらに、メッセージバッファやフィルターメモリを導入することで、情報の過剰な統合を防ぎ、個々のユーザーの特性に合わせた柔軟なプロフィールの更新を可能にしている。これにより、直接的な相互作用がない場合でも、潜在的な関係性を通じてユーザーの関心の変化を迅速に捉えることができる。

5763 字
読む →

RecNet: エージェント型推薦システムのための自己進化する嗜好伝播フレームワーク

従来の推薦システムは、クリックや購入といった明示的な相互作用が発生した瞬間にのみ受動的にプロファイルを更新していたが、本研究ではユーザーやアイテム間でリアルタイムに嗜好情報を能動的に伝播させる「RecNet」を提案し、直接的な接触がない場合でも相互影響を捉える手法を確立した。

5762 字
読む →

EC検索の関連性向上のための多角的思考と潜在的推論蒸留

ECサイトの検索における検索語と商品の関連性判定を劇的に改善するため、大規模言語モデル(LLM)に「ユーザー意図」「構造的分析」「ビジネスルール」という3つの異なる視点から思考の連鎖(CoT)を行わせる「MPCoT」フレームワークを開発しました。

5950 字
読む →

広く考え、速く動く:Eコマースの関連性に向けた多角的思考の連鎖からの潜在的推論蒸留

電子商取引(EC)における検索の関連性評価を劇的に向上させるため、大規模言語モデル(LLM)の高度な思考プロセスを軽量モデルに継承させる新しい学習フレームワークが提案されました。この手法では、単一の視点に頼る従来の思考の連鎖(CoT)の限界を克服するため、ユーザーの意図、商品の構造的分析、プラットフォーム固有のビジネスルールという三つの異なる視点から推論を行う「多角的思考の連鎖(MPCoT)」を導入しています。これにより、複雑なクエリや曖昧な検索ワードに対しても、人間のような深い理解に基づいた正確な判断が可能になりました。さらに、この高度な推論能力を「潜在推論知識蒸留(LRKD)」という技術を用いて、BERTなどの小型モデルに「潜在的な推論ベクトル」として移植することで、推論時の計算コストを抑えつつLLMに匹敵する精度を実現しています。実際のオンラインA/Bテストでは、数千万人のユーザーを抱える広告プラットフォームにおいて、収益指標であるRPMが1.42%向上し、クリック率やユーザー満足度も有意に改善するなど、実用性と商業的価値の両面で極めて高い成果が実証されました。

6540 字
読む →

表現正則化を用いた畳み込みオーディオトランスフォーマーによる音声理解の向上

CAT(Convolutional Audio Transformer)は、音声信号の多様な時間・周波数構造を捉える「多解像度ブロック」と、外部モデルの知見を借りて学習を高速化する「表現正則化」を導入した新しい自己教師あり学習フレームワークである。

5894 字
読む →

オーディオ理解のための表現正則化された畳み込みオーディオトランスフォーマー

音声信号の理解における「単一の粒度によるモデル化の限界」と「ゼロからの学習に伴う膨大な計算コスト」という二つの主要な課題を解決するため、多解像度ブロックと表現正則化を導入した新しい自己教師あり学習フレームワーク「CAT」を提案した。

6541 字
読む →

パラメーター微調整を超えて:ノード分類のためのテスト時表現洗練

グラフニューラルネットワーク(GNN)が未知のデータ分布(OOD)に直面した際の性能低下を解決するため、従来のモデルパラメーターを更新する手法(PaFT)に代わり、潜在的な表現のみを修正する新しいパラメーター効率的な学習フレームワーク「TTReFT」が提案されました。

6375 字
読む →

パラメータのファインチューニングを超えて:ノード分類のためのテスト時の表現の精緻化

グラフニューラルネットワーク(GNN)が未知のデータ分布に直面した際の性能低下を解決するため、モデルのパラメータを更新せずに潜在的な表現層のみを調整する新しい学習枠組み「TTReFT」が提案されました。

6125 字
読む →

意味内容がアルゴリズムの性能を決定する

大規模言語モデル(LLM)は、本来入力の意味に左右されないはずの「計数(カウント)」という基本的なアルゴリズムにおいて、対象が「都市名」か「化学物質名」かといった意味内容によって正解率が40%以上も変動するという深刻な脆弱性を抱えていることが判明しました。

5923 字
読む →