異種モダリティ間のコミュニケーション学習:マルチエージェントシステムにおける知覚の不均質性
TL;DRエージェントが異なるモダリティを持ち、知覚的な共通基盤を欠く状況でのコミュニケーションゲームを研究した論文である。知覚の不整合があるにもかかわらず、マルチモーダルシステムは入力に基づいた一貫性のあるメッセージに収束することが示された。また、意味は構成的ではなく分布的にエンコードされていることが明らかになった。
Cog AI Archive
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
TL;DRエージェントが異なるモダリティを持ち、知覚的な共通基盤を欠く状況でのコミュニケーションゲームを研究した論文である。知覚の不整合があるにもかかわらず、マルチモーダルシステムは入力に基づいた一貫性のあるメッセージに収束することが示された。また、意味は構成的ではなく分布的にエンコードされていることが明らかになった。
TL;DR未知の力学系で動作するエージェントが、観測から効率的に力学を学習するための統一的なフレームワークを提案した研究である。パラメータ、信念、制御の因果関係を明示することで、特定のモデル選択に依存しない一般的な情報収集コストを導出した。
TL;DR本研究は、分散型LLMコラボレーションを最適化するためのマルチエージェントActor-Critic(MAAC)手法を提案しています。中央集権型Criticを持つCoLLM-CCと分散型Criticを持つCoLLM-DCの2つのアプローチを開発し、長期的タスクや報酬が疎な環境におけるCoLLM-CCの優位性を示しました。
TL;DR生成AIの台頭とエージェントAIへの注目が高まる中、伝統的なエージェントツールキットと新技術の相互作用を探ることは重要である。本論文は、ASTRAプログラミング言語に大規模言語モデル(LLM)を統合したプロトタイプ開発の経験を概説し、3つの実装例を通じて得られた知見を議論する。
TL;DRマルチエージェントシステムにおいて、個々のエージェントが誤った仲間に盲目的に従う問題を解決するため、Epistemic Context Learning (ECL) が提案された。ECLは過去の対話履歴から仲間の信頼性を推定し、信頼できる仲間から学ぶ枠組みである。
TL;DRLLMは文化的な意思決定を支援する一方で、学習データの偏りにより価値観の不一致が生じることが課題です。本研究は、世界価値観調査に基づき文化オントロジーを構築し、複数の価値観ペルソナエージェントを介して推論を行うフレームワーク「OG-MAR」を提案します。これにより、文化的整合性と推論の透明性が向上します。
TL;DR本研究は、従来の平均場制御が前提としていた全結合の仮定を打破し、大規模な希薄グラフ上での制御フレームワークを提案します。局所的な近傍分布を用いてシステム状態を再定義し、有限時間内での最適方策が特定の範囲の近傍に依存することを理論的に証明しました。
TL;DR大規模言語モデル(LLM)のハルシネーションを減らし、出力品質を向上させる新しい「対話的パイプライン」が提案された。モデル自身の自己対話を通じて回答を修正させる手法で、特定のドメイン学習や外部検証器を必要とせず、汎用性を維持したまま標準的なモデルやChain-of-Thought(CoT)を上回る性能を示した。
TL;DRLLMを用いたマルチエージェントシステムでは、予測困難な極端事象が創発することがあり、その安全性の確保が課題となっている。本研究は、シャプレー値を活用して極端事象の発生源を特定する初のフレームワークを提案した。時間、エージェント、行動の3つの次元からリスク寄与度を定量化し、事象の特性を解釈可能にする。
TL;DRソフトウェア工学研究における査読システムの崩壊危機に対し、計算論的解決策を提唱するポジションペーパー。研究コミュニティを確率的マルチエージェントシステムとしてモデル化し、マルチエージェント強化学習(MARL)を用いて、投稿クレジット経済や最適化された査読者割り当て等のインセンティブ適合プロトコルを設計する新たな研究課題を提示する。
Pricing