人間とAIの協力における規範的等価性:混合エージェント集団において協力を促進するのはアイデンティティではなく行動である
3人の人間と1つの自律的エージェント(人間またはAIと表示)で構成されるグループにおいて、公共財ゲームを通じた協力行動の検証が行われました。その結果、参加者の協力レベルは相手が人間かAIかというラベルによって左右されず、グループ全体の振る舞いや過去の行動を維持しようとする慣性によって決定されることが明らかになりました。
最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。
Cog AI Archive
3人の人間と1つの自律的エージェント(人間またはAIと表示)で構成されるグループにおいて、公共財ゲームを通じた協力行動の検証が行われました。その結果、参加者の協力レベルは相手が人間かAIかというラベルによって左右されず、グループ全体の振る舞いや過去の行動を維持しようとする慣性によって決定されることが明らかになりました。
チャットボットがユーザーの不適切な行動を修正しようとする際、従来の「礼儀正しい」スタイルは心理的抵抗を抑え行動意図を高めるものの、意外性がなく退屈で不誠実だと感じられるリスクがあります。 一方で、言い間違いやためらいをあえて含める「言語的漏出(Verbal Leakage)」スタイルは、礼儀正しい表現よりも自由への脅威を感じさせるものの、驚きやユーモア、人間らしさを強く引き出し、ユーザーの関心を維持する効果が示されました。 効果的な行動変容支援には、心理的抵抗を最小化する「安全性」と、ユーザーを飽きさせない「エンゲージメント」の間のトレードオフを適切に管理し、文脈に応じてフィードバックのスタイルを使い分ける設計が求められます。
プライバシーポリシーにおいて、データの販売や生体情報の収集といった重要な実質的情報の開示が、特定の地域(カリフォルニア州や欧州など)の居住者向けセクションのみに限定され、一般セクションでは曖昧な表現に留まる「管轄権による情報のサイロ化」という構造的パターンを特定しました。
現代のモバイルアプリには、スワイプや長押しといった視覚的な手がかりのない「隠れたインタラクション」が数多く存在し、これが視覚情報に依存するAIエージェントの操作を困難にしている。本研究では、81種類の人気アプリから1,970件の隠れた操作事例を収集した世界初のデータセット「GhostUI」を構築し、操作前後の画像や構造データ、自然言語によるタスク説明を体系化した。検証の結果、GhostUIで学習した視覚言語モデルは、隠れた操作の予測精度や操作後の画面状態の推論能力が大幅に向上し、モバイルタスク自動化における視覚的手がかりの欠如という課題を克服する重要な基盤となることが示された。
HARMONIは、介護施設のような多人数が同時に存在する複雑な環境において、大規模言語モデル(LLM)の能力を最大限に引き出し、個々のユーザーに対する長期的なパーソナライズを実現するための革新的なマルチモーダル・フレームワークである。
商用大型言語モデル(LLM)は、単純なプロンプト操作のみで人間と同等の自動ポストエディット(APE)品質を達成可能ですが、ドキュメント全体のコンテキストを追加しても翻訳品質に統計的に有意な向上は見られず、長文コンテキストの活用の難しさが浮き彫りになりました。