論文検索 新着 人気
毎日更新
AI Data Base

生成AIの最新動向を、読みやすいアーカイブで。

AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。

新着 論文 人気 無料で試す
Popular

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

Cog AI Archive

最新の記事

人気記事ピックアップ

RedSage: サイバーセキュリティに特化した汎用LLM

TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。

AI研究 2026-01-29 閲覧 20 クリック 11

AgenticSCR:未成熟な脆弱性検出のための自律的エージェント型セキュアコードレビュー

TL;DRAgenticSCRは、コミット前段階のコードレビューにおいて、未成熟な脆弱性を検出するための自律型AIエージェントです。LLMに自律的な意思決定やツール使用能力を統合し、セキュリティに焦点を当てた意味的記憶で強化されています。

読了 0 分 1498 字
読む →

思考転移:思考連鎖推論モデルに対する間接的な標的型ポイズニング攻撃

TL;DR大規模言語モデル(LLM)の推論能力を高めるChain-of-Thought(CoT)学習に対し、新たな攻撃手法「Thought-Transfer」が提案された。これは訓練データの推論過程(CoTトレース)のみを操作し、質問や回答を変更しない「クリーンラベル」攻撃であり、訓練に含まれない全く異なるドメインのタスクに対しても標的型の挙動を誘発できる。

読了 0 分 1444 字
読む →

偽データ注入攻撃の検知と位置特定のための注意機構強化型グラフフィルタリング

TL;DR電力システムへのIoT導入に伴い増加する偽データ注入攻撃(FDIA)に対抗するため、ARMAグラフ畳み込みフィルタとTransformerエンコーダを統合した検出・位置特定フレームワークを提案。この手法は、電力網の状態とトポロジーを効果的に活用し、攻撃の検出と被害ノードの特定において高い精度を達成しました。

読了 0 分 1404 字
読む →

MalURLBench:Web URL処理時のエージェントの脆弱性を評価するベンチマーク

TL;DR大規模言語モデル(LLM)を用いたWebエージェントが普及する中、偽装された悪意あるURLを処理する際の脆弱性が懸念されている。本研究は、この脅威を評価する初のベンチマーク「MalURLBench」を提案。12種類のLLMを用いた実験の結果、モデルが巧妙なURL攻撃に脆弱であることが判明し、軽量な防御モジュール「URLGuard」も提案された。

読了 0 分 1363 字
読む →

CanaryBench:クラスタレベルの会話要約におけるプライバシー漏洩のストレステスト

TL;DR大規模言語モデルの会話データ分析において、会話を埋め込み、クラスタリングし、その要約を公開する際のリスクを測定する手法「CanaryBench」が提案された。既知の秘密文字列(カナリア)を含む合成データを生成・分析することで、要約文への個人識別情報の漏洩を定量的に評価する。

読了 0 分 1486 字
読む →

FARM:コンセプトドリフト下における少数ショット適応型マルウェアファミリ分類

TL;DR進化する脅威や未知のマルウェアファミリの出現によって生じるコンセプトドリフトに対し、少数ショット学習で適応するフレームワーク「FARM」が提案された。教師なしでドリフトを検知し、わずかなラベル付きサンプルで即座に適応可能であり、共変量ドリフト下での性能向上や未知のマルウェア分類において高いF1スコアを達成した。

読了 0 分 1444 字
読む →

Faramesh:自律エージェントシステムのためのプロトコル非依存型実行制御プレーン

TL;DR自律エージェントが現実世界へ影響を及ぼす行動を実行する際、組織が確実に許可・拒否・保留を判断できるチェックポイントが不足している。本研究は、プロトコル非依存の実行制御プレーン「Faramesh」を提案する。

読了 0 分 1084 字
読む →

マルチモーダルRAGプライバシーの体系的な評価

TL;DR視覚的タスク向けのマルチモーダル検索拡張生成(mRAG)の普及に伴い、プライバシー上の課題が浮上している。本研究は、標準的なプロンプトを通じてmRAGパイプラインに内在するプライバシーリスクを実証的に調査した。特定の画像が含まれているかの推論やメタデータの漏洩が可能であることを示し、プライバシー保護メカニズムの必要性を強調している。

読了 0 分 1213 字
読む →

パーソナライズされた生成におけるユーザープライバシーの向上:サーバー側で生成された推測に対するクライアント側検索拡張型の修正

TL;DRクラウド上の大規模言語モデル(LLM)に個人データを渡さずに高品質なパーソナライズを実現するフレームワーク「$P^3$」が提案されました。サーバー側で生成されたドラフトを、クライアント側の小型モデルが個人データを用いて修正する仕組みにより、プライバシーを保護しつつ、全データを公開した場合の90%以上の性能を達成しています。

読了 0 分 1425 字
読む →

プロトコルの破壊:ツール統合型LLMエージェントにおけるモデルコンテキストプロトコル仕様のセキュリティ分析とプロンプトインジェクションの脆弱性

TL;DR大規模言語モデル(LLM)と外部ツールを統合する事実上の標準であるModel Context Protocol (MCP) のアーキテクチャに、3つの根本的な脆弱性が存在することを指摘した研究です。これらの弱点は攻撃成功率を大幅に高める要因となっていますが、著者はこれを緩和するプロトコル拡張「MCPSec」を提案し、その有効性を実証しています。

読了 0 分 1301 字
読む →
保存済みの記事がまだありません。
読み込み中…

Pricing

論文×チャット×知識DBを続けるなら

Free

¥0
  • 要約閲覧
  • 全文は月 2 本まで
  • チャットは月 3 回まで
無料で始める

Plus

¥1,780 / 月
  • 全文閲覧無制限
  • スレッド保存
  • Flashモデル
  • チャット上限 300 回/月
Plusで始める

Pro

¥2,980 / 月
  • 全文閲覧無制限
  • スレッド保存
  • 長文回答(Proモデル)
  • チャット上限 800 回/月
Proで始める