AgenticSCR:未成熟な脆弱性検出のための自律的エージェント型セキュアコードレビュー
TL;DRAgenticSCRは、コミット前段階のコードレビューにおいて、未成熟な脆弱性を検出するための自律型AIエージェントです。LLMに自律的な意思決定やツール使用能力を統合し、セキュリティに焦点を当てた意味的記憶で強化されています。
Cog AI Archive
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
TL;DRAgenticSCRは、コミット前段階のコードレビューにおいて、未成熟な脆弱性を検出するための自律型AIエージェントです。LLMに自律的な意思決定やツール使用能力を統合し、セキュリティに焦点を当てた意味的記憶で強化されています。
TL;DR大規模言語モデル(LLM)の推論能力を高めるChain-of-Thought(CoT)学習に対し、新たな攻撃手法「Thought-Transfer」が提案された。これは訓練データの推論過程(CoTトレース)のみを操作し、質問や回答を変更しない「クリーンラベル」攻撃であり、訓練に含まれない全く異なるドメインのタスクに対しても標的型の挙動を誘発できる。
TL;DR電力システムへのIoT導入に伴い増加する偽データ注入攻撃(FDIA)に対抗するため、ARMAグラフ畳み込みフィルタとTransformerエンコーダを統合した検出・位置特定フレームワークを提案。この手法は、電力網の状態とトポロジーを効果的に活用し、攻撃の検出と被害ノードの特定において高い精度を達成しました。
TL;DR大規模言語モデル(LLM)を用いたWebエージェントが普及する中、偽装された悪意あるURLを処理する際の脆弱性が懸念されている。本研究は、この脅威を評価する初のベンチマーク「MalURLBench」を提案。12種類のLLMを用いた実験の結果、モデルが巧妙なURL攻撃に脆弱であることが判明し、軽量な防御モジュール「URLGuard」も提案された。
TL;DR大規模言語モデルの会話データ分析において、会話を埋め込み、クラスタリングし、その要約を公開する際のリスクを測定する手法「CanaryBench」が提案された。既知の秘密文字列(カナリア)を含む合成データを生成・分析することで、要約文への個人識別情報の漏洩を定量的に評価する。
TL;DR進化する脅威や未知のマルウェアファミリの出現によって生じるコンセプトドリフトに対し、少数ショット学習で適応するフレームワーク「FARM」が提案された。教師なしでドリフトを検知し、わずかなラベル付きサンプルで即座に適応可能であり、共変量ドリフト下での性能向上や未知のマルウェア分類において高いF1スコアを達成した。
TL;DR自律エージェントが現実世界へ影響を及ぼす行動を実行する際、組織が確実に許可・拒否・保留を判断できるチェックポイントが不足している。本研究は、プロトコル非依存の実行制御プレーン「Faramesh」を提案する。
TL;DR視覚的タスク向けのマルチモーダル検索拡張生成(mRAG)の普及に伴い、プライバシー上の課題が浮上している。本研究は、標準的なプロンプトを通じてmRAGパイプラインに内在するプライバシーリスクを実証的に調査した。特定の画像が含まれているかの推論やメタデータの漏洩が可能であることを示し、プライバシー保護メカニズムの必要性を強調している。
TL;DRクラウド上の大規模言語モデル(LLM)に個人データを渡さずに高品質なパーソナライズを実現するフレームワーク「$P^3$」が提案されました。サーバー側で生成されたドラフトを、クライアント側の小型モデルが個人データを用いて修正する仕組みにより、プライバシーを保護しつつ、全データを公開した場合の90%以上の性能を達成しています。
TL;DR大規模言語モデル(LLM)と外部ツールを統合する事実上の標準であるModel Context Protocol (MCP) のアーキテクチャに、3つの根本的な脆弱性が存在することを指摘した研究です。これらの弱点は攻撃成功率を大幅に高める要因となっていますが、著者はこれを緩和するプロトコル拡張「MCPSec」を提案し、その有効性を実証しています。
Pricing