継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

自己蒸留が継続学習を可能にする:SDFTの提案

基盤モデルが既存の能力を損なわずに新しい知識やスキルを習得し続ける「継続学習」において、従来の教師あり微調整(SFT)は過去の知識を失う「破滅的忘却」を引き起こすという深刻な課題があった。 本研究が提案する自己蒸留微調整(SDFT)は、モデル自身のインコンテキスト学習能力を活用してデモンストレーションから「オンポリシー」な学習信号を生成し、明示的な報酬関数がない環境でも過去の能力を維持しながら新スキルを習得させる手法である。 検証の結果、SDFTはスキル習得と知識獲得の両面で従来のSFTを凌駕し、複数のスキルを順番に学習させる実験においても性能を低下させることなく蓄積することに成功し、デモンストレーションからの継続学習における実用的な道筋を明確に示した。

6745 字
読む →

BayPrAnoMeta: 工業用画像の少数ショット異常検知に向けたベイズ的アプローチ

本研究は、工業製品の画像における異常検知において、極端に少ない学習データ(少数ショット)からでも高精度な識別を可能にする新しいフレームワーク「BayPrAnoMeta」を提案し、ベイズ的な確率モデルを導入することで不確実性を考慮した頑健なスコアリングを実現しました。

5822 字
読む →

大規模言語モデル(LLM)特化型ファインチューニングによるAI生成テキスト検出の有効性

人間が書いた10億トークンの著作物と、21種類の言語モデルから生成された19億トークンのテキストを組み合わせた、合計29億トークンに及ぶ大規模なコーパスを構築し、AI生成テキストを識別するための新しい学習手法を提案した。

7150 字
読む →

LinguaMap: LLMのどの層が「あなたの言語」を話し、どう調整すべきか?

多言語大規模言語モデルが直面する「回答は正しいが出力言語を誤る」という言語一貫性の欠如と、「言語は正しいがタスクに失敗する」という多言語転送の停滞という二つの主要なボトルネックを特定し、モデル内部の層が「初期の意味整合」「中間のタスク推論」「終盤の言語制御」という明確な三段階の機能構造を持つことを解明しました。

6706 字
読む →

LLMに「質問する能力」を教える:不完全な情報下での推論を行う圏論的計画法

大規模言語モデル(LLM)が不完全な情報の下で計画を立てる際、欠落した事実を捏造したり制約に違反したりする問題を解決するため、自己質問型双方向圏論的計画法(SQ-BCP)が提案されました。 この手法は、前提条件の状態を「充足」「違反」「不明」として明示的に管理し、不明な点については外部への質問や「ブリッジ」アクションによって解決を図ることで、計画の実行可能性を確保します。 実験では、WikiHowやRecipeNLGのタスクにおいて、既存手法と比較してリソース違反率を大幅に低減しつつ、高い計画の質を維持することに成功しており、情報の欠落がある環境での有効性が示されました。

5774 字
読む →

ファジィ・カテゴリカル・プランニング:段階的な意味制約を伴う自律的目標充足

自然言語による指示に含まれる「適切な代用品」や「十分に安定した」といった曖昧な述語は、従来の二値的な論理では扱えず、多段階の計画における品質の低下を追跡できないという課題がありました。 本研究が提案するFuzzy Category-theoretic Planning(FCP)は、圏論的プランニングにファジィ論理を導入し、各アクションに0から1の満足度を付与することで、厳密な実行可能性を維持しながら計画全体の品質を構成的に計算することを可能にしました。 検証の結果、FCPはレシピ計画ベンチマークにおいてLLMのみの手法やReActスタイルのベースラインよりも成功率を向上させ、制約違反を減少させると同時に、古典的なPDDL3プランナーと同等の競争力を示しました。

6491 字
読む →

TAIGR:構造化された語用論的推論によるソーシャルメディア上のインフルエンサー・コンテンツのモデリングに向けて

健康分野のインフルエンサーは、事実の断定よりも個人的な物語や修辞的戦略を多用するため、従来の「主張」単位の検証では、視聴者が受け取る真の意図(テイクアウェイ)を正確に評価できないという課題がある。

5705 字
読む →

ノイズの「音」:LIGOのグリッチ識別における事前学習済み音声Transformerの帰納的バイアスの活用

重力波観測装置LIGOにおいて、天体信号を模倣し解析を妨げる一過性ノイズ「グリッチ」の識別は、膨大なラベル付きデータを必要とする従来の教師あり学習モデルでは、新しい形態のノイズへの対応や汎化性能に限界がありました。

5646 字
読む →

CiMRAG: エッジLLMのためのCiM対応ドメイン適応・ノイズ耐性RAG

エッジデバイス上での大規模言語モデル(LLM)のパーソナライズにおいて、検索拡張生成(RAG)は有効な手法ですが、メモリと演算のボトルネックを解消するために導入されるメモリ内演算(CiM)アーキテクチャは、環境ノイズによって検索精度が低下するという課題を抱えています。

5932 字
読む →

インサイト・エージェント:データインサイトのためのLLMベースのマルチエージェントシステム

現代のEコマース出品者が直面する膨大なデータと複雑な分析ツールの活用障壁を解消するため、LLMを活用した会話型マルチエージェントシステム「Insight Agents(IA)」を開発し、出品者が自身のデータと対話することで迅速な意思決定を行える環境を構築しました。

5711 字
読む →