Learn-to-Distance:LLM生成テキスト検出のための距離学習
TL;DRGPTやClaudeなどのLLMが生成する人間らしいテキストの悪用を防ぐため、新しい検出アルゴリズムが提案された。本研究では、リライトベースの検出手法を幾何学的に解明し、適応的に距離を学習する新手法を導入した。
AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。
運営: Cognitive Research Labs(CRL) / crl.co.jp
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
Cog AI Archive
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
TL;DRGPTやClaudeなどのLLMが生成する人間らしいテキストの悪用を防ぐため、新しい検出アルゴリズムが提案された。本研究では、リライトベースの検出手法を幾何学的に解明し、適応的に距離を学習する新手法を導入した。
TL;DR拡散モデル等で広く使われるClassifier-Free Guidance (CFG) は、ヒューリスティックな線形外挿に依存しており、ガイダンススケールに敏感であるという課題がある。本研究ではCFGを最適化の観点から再解釈し、多様体制約付きのホモトピー最適化として定式化した。
TL;DR生成AIの台頭とエージェントAIへの注目が高まる中、伝統的なエージェントツールキットと新技術の相互作用を探ることは重要である。本論文は、ASTRAプログラミング言語に大規模言語モデル(LLM)を統合したプロトタイプ開発の経験を概説し、3つの実装例を通じて得られた知見を議論する。
TL;DRWebArbiterは、Webエージェント向けの新しいプロセス報酬モデル(WebPRM)であり、報酬モデリングをテキスト生成として定式化することで、構造化された正当化と判定を出力します。推論蒸留と強化学習の2段階訓練により、GPT-5を含む既存モデルを上回る性能と汎用性を実現しました。
TL;DRMoHETSは、長期時系列予測のための新しいエンコーダのみのTransformerモデルである。従来の同質的なMLPエキスパートではなく、畳み込みとフーリエベースの異種エキスパートを組み合わせることで、複雑な時間的ダイナミクスを捉える。7つのベンチマークで平均MSEを12%削減し、最先端の性能を達成した。
TL;DR大規模言語モデル(LLM)における社会的バイアスを軽減する新しいフレームワーク「KnowBias」が提案された。従来の手法とは異なり、バイアスに関連するニューロンを抑制するのではなく、バイアス知識をコード化しているニューロンを特定し、推論時に強化することでバイアスを軽減する。
TL;DR大規模言語モデル(LLM)の推論能力向上に有効な「テスト時計算量」の増加は、クラウドプロバイダーの利益を優先し、ユーザーコストを増大させる社会的非効率を生んでいる。本研究はこの問題を解決するため、プロバイダーが入札を行う逆第二価格オークションメカニズムを提案し、LlamaやQwenなどを用いた実験でその有効性を検証した。
TL;DR本論文は、未成年者や個人データを含む教育現場の敏感さを踏まえ、知的教育における「信頼性」を体系的に整理した調査報告である。学習者の能力評価や推薦などの5つのタスクと、安全性や公平性などの5つの信頼性視点を交差させ、既存研究の手法を分類・要約している。
TL;DR6GネットワークとLLMの進歩によりユビキタスな知能が期待されるが、計算資源の断片化が課題である。本研究では、複数のLLMエージェントをモバイル端末やエッジサーバーに分散配置し、協調させるフレームワーク「CORE」を提案する。動的な役割割り当てや並列実行により、システム効率とタスク完了率を大幅に向上させた。
TL;DRYouTubeの主要ニュースチャンネルにおいて、道徳的な怒りを煽る表現が視聴者の行動にどう影響するかを、韓国と米国で調査した研究である。サムネイルとタイトルを組み合わせたマルチモーダル分類器を開発し、約40万本の動画を分析した結果、他者を道徳的に非難する表現は、単なる視聴だけでなく「いいね」
Pricing