継続更新

生成AI研究を、要点から追う。

最新の論文記事を読みやすく整理。保存・タグ検索に加え、Plus/Proでは研究ノートと知識グラフで理解を積み上げられます。

無料で試す

Cog AI Archive

最新の記事

大規模言語モデルは世界中における気候変動対策への支持に対する公衆の認識を正確に予測する

世界125カ国の世論調査データを基に、4つの主要な大規模言語モデル(LLM)が他者の気候変動対策への協力意欲をどの程度正確に予測できるかを検証したところ、ClaudeやLlamaは統計モデルに匹敵する高い精度で人々の認識のズレを捉えることが判明した。

6416 字
読む →

AIがスキル形成に与える影響

AIアシスタントを利用して新しいプログラミングライブラリの習得を試みたグループは、利用しなかったグループと比較して、事後の理解度テストのスコアが平均で17%(グレードポイントで2点分)低下し、概念理解やデバッグ能力が損なわれることが判明しました。

6342 字
読む →

公共部門の要件を満たさないAIエージェントのベンチマーク

公共部門におけるAIエージェントの導入には、法的・手続き的な厳格な要件を満たすことが不可欠であるが、既存のベンチマークがこれらの特殊な要求を適切に反映できているかは不明確であった。 本研究では、行政学の理論に基づき、タスク中心、現実的、公共部門特化、およびコストや公平性を含む指標の報告という6つの基準を定義し、1,300件以上の既存ベンチマーク論文を体系的に分析した。 分析の結果、すべての基準を満たすベンチマークは一つも存在せず、特に公共部門への適合性や多角的な評価指標において大きな欠落があることが判明したため、新たな評価枠組みの構築が急務である。

6064 字
読む →

QueerGen:文補完タスクにおいてLLMがいかにジェンダーとセクシュアリティに関する社会規範を反映しているか

大規模言語モデル(LLM)が社会的な規範、特にヘテロシスノーマティビティ(異性愛規範およびシスジェンダー規範)をどのように再現し、それが生成テキストのバイアスとして現れるかを定量的に調査した研究である。

5667 字
読む →

構造的障壁としての管轄権:プライバシーポリシーの構成が実質的な開示事項の視認性をいかに低下させるか

プライバシーポリシーにおいて、データの販売や生体情報の収集といった重要な実質的情報の開示が、特定の地域(カリフォルニア州や欧州など)の居住者向けセクションのみに限定され、一般セクションでは曖昧な表現に留まる「管轄権による情報のサイロ化」という構造的パターンを特定しました。

6629 字
読む →

報酬モデルは事前学習から価値バイアスを継承する

報酬モデル(RM)は、大規模言語モデル(LLM)を人間の価値観に合わせる「アライメント」の中核を担うが、初期化に使用される事前学習済みモデルから心理的なバイアスを直接継承していることが判明した。

5982 字
読む →