リアルタイムなナラティブ進化監視のためのオンライン密度ベースクラスタリング
ソーシャルメディアの監視において、従来のHDBSCANのようなバッチ処理型のクラスタリング手法は、データの増大に伴うメモリ消費や再計算の非効率性が大きな課題となっており、リアルタイムなナラティブ(物語・言説)の追跡を困難にしている。
最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。
Cog AI Archive
ソーシャルメディアの監視において、従来のHDBSCANのようなバッチ処理型のクラスタリング手法は、データの増大に伴うメモリ消費や再計算の非効率性が大きな課題となっており、リアルタイムなナラティブ(物語・言説)の追跡を困難にしている。
チャットボットがユーザーの不適切な行動を修正しようとする際、従来の「礼儀正しい」スタイルは心理的抵抗を抑え行動意図を高めるものの、意外性がなく退屈で不誠実だと感じられるリスクがあります。 一方で、言い間違いやためらいをあえて含める「言語的漏出(Verbal Leakage)」スタイルは、礼儀正しい表現よりも自由への脅威を感じさせるものの、驚きやユーモア、人間らしさを強く引き出し、ユーザーの関心を維持する効果が示されました。 効果的な行動変容支援には、心理的抵抗を最小化する「安全性」と、ユーザーを飽きさせない「エンゲージメント」の間のトレードオフを適切に管理し、文脈に応じてフィードバックのスタイルを使い分ける設計が求められます。
AgentLongBenchは、大規模言語モデルが自律的なエージェントとして機能するために必要な、動的で複雑な長文脈の管理能力を評価するための新しいベンチマークである。従来の静的な文書検索タスクとは異なり、水平思考パズルを用いた環境シミュレーションを通じて、エージェントと環境の相互作用や非線形な推論、反復的なフィードバックを伴うプロセスを再現している。最新のモデルやメモリシステムを最大400万トークンの文脈長で検証した結果、静的な検索には長けていても、ワークフローに不可欠な動的な情報の統合や高密度のツール応答の処理において、多くのモデルが深刻な課題を抱えていることが明らかになった。
大規模言語モデル(LLM)が社会的な規範、特にヘテロシスノーマティビティ(異性愛規範およびシスジェンダー規範)をどのように再現し、それが生成テキストのバイアスとして現れるかを定量的に調査した研究である。
大規模言語モデル(LLM)に対して特定の属性を与える「ペルソナプロンプティング」は、ヘイトスピーチ検出のような主観的なタスクにおいて分類精度を向上させる場合がある一方で、判断の根拠となる単語選択の質(根拠の正確性)を低下させるという重大なトレードオフが存在することが明らかになった。
SERAは、プライベートなコードベースに特化可能なオープンソースのコーディングエージェントであり、従来の強化学習より26倍、既存の合成データ手法より57倍も安価に訓練できる手法を提案しています。
プライバシーポリシーにおいて、データの販売や生体情報の収集といった重要な実質的情報の開示が、特定の地域(カリフォルニア州や欧州など)の居住者向けセクションのみに限定され、一般セクションでは曖昧な表現に留まる「管轄権による情報のサイロ化」という構造的パターンを特定しました。
検証可能な報酬を用いた強化学習(RLVR)において、モデルが問題をほぼ完璧に解けるようになる「飽和状態」では学習信号が消失し、性能向上が停滞するという課題がある。 本研究は、稀に発生する誤った推論の断片(失敗プレフィックス)を問題文に付与して学習を開始させる「失敗プレフィックス条件付け」を提案し、意図的に失敗しやすい状態から探索させることで学習信号を回復させる。 実験の結果、飽和した問題のみを用いても中難易度の問題で学習した場合と同等の性能向上を達成し、推論の堅牢性が向上するとともに、トークン効率を維持したまま反復的な学習によってさらなる改善が可能であることを示した。
大規模言語モデルの内部には事実性や倫理といった概念に対応する線形な表現方向が存在するが、これらは会話の進行に伴って劇的に変化し、当初は事実とされていた情報が会話の終盤では非事実として表現されるといった「表現の反転」が起こることが明らかになった。
報酬モデル(RM)は、大規模言語モデル(LLM)を人間の価値観に合わせる「アライメント」の中核を担うが、初期化に使用される事前学習済みモデルから心理的なバイアスを直接継承していることが判明した。