異種コンピューティング:AIエージェント推論の未来を支える鍵
TL;DRAIエージェントの推論は、計算能力だけでなくメモリ容量や帯域幅のボトルネックを露呈させている。本研究は「演算強度(OI)」と「容量フットプリント(CF)」という2つの指標を導入し、従来のルーフライン分析では見逃されていたメモリ容量の壁などの領域を解明する。
AI研究の要点を整理。最新の論文記事をカテゴリやタグで探索できます。
運営: Cognitive Research Labs(CRL) / crl.co.jp
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
Cog AI Archive
TL;DRRedSageは、プライバシーリスクを回避しつつ多様なセキュリティ業務を支援するために開発された、オープンソースのサイバーセキュリティ特化型LLMである。118億トークンの専門データによる事前学習と、エージェントベースのパイプラインで生成された26.6万件の指示データによる調整を経て、既存モデルを上回る性能を実現した。
TL;DRAIエージェントの推論は、計算能力だけでなくメモリ容量や帯域幅のボトルネックを露呈させている。本研究は「演算強度(OI)」と「容量フットプリント(CF)」という2つの指標を導入し、従来のルーフライン分析では見逃されていたメモリ容量の壁などの領域を解明する。
TL;DRPowerGenieは、高性能な再構成可能電力コンバータを大規模に自動発見するフレームワークである。SPICEシミュレーションなしで理論的性能限界を決定する解析手法と、生成モデルを進化させる手法を組み合わせている。これにより、既存の最高性能トポロジーより23%高い性能指標を持つ新しい8モードコンバータを発見した。
TL;DR既存のチップ設計ベンチマークは飽和しており、実際の産業ワークフローを反映できていない。本研究は、Verilog生成、デバッグ、参照モデル生成の3つの重要タスクを評価する「ChipBench」を提案する。最新のClaude-4.
TL;DR既存のベンチマークが飽和し、実際の産業ワークフローを反映できていない課題に対し、本研究は「ChipBench」を提案します。Verilog生成、デバッグ、参照モデル生成の3つの重要タスクを網羅し、複雑な階層構造を持つ44のモジュールを含みます。最新モデルでも低スコアに留まる難易度の高い評価基盤を提供します。
TL;DRREASONは、ニューロシンボリックAIにおける確率的論理推論を高速化する統合フレームワークです。シンボリック推論と確率モデルに共通する構造を表現する統一グラフ表現と、不規則な処理に最適化されたツリーベースの処理機構を採用し、GPUと比較して12〜50倍の高速化と300倍以上のエネルギー効率を実現しました。
TL;DR拡散大規模言語モデル(dLLM)の推論において、全レイテンシの最大70%を占めるサンプリング処理の効率化に取り組んだ研究。従来のGEMM中心のNPUでは苦手な不規則なメモリアクセス等に対し、軽量なベクトル命令やメモリ再利用戦略を導入。RTX A6000 GPUと比較して最大2.53倍の高速化を達成した。
TL;DR大規模言語モデル(LLM)によるRTL設計における機能的な正確性の課題に対し、Veri-Sureというマルチエージェントフレームワークを提案。設計契約による意図の整合や静的依存スライスに基づく修正、形式検証を組み合わせることで、シミュレーションだけでは困難なシリコングレードの正確性を実現し、既存手法を凌駕する性能を示した。
TL;DRマイクロスペーリングはモデル圧縮に有用だが、量子化のブロックサイズを一定以下に小さくすると、逆にモデル性能が劣化するという意外な現象が発見された。この原因を狭いテンソル分布とスケールのダイナミックレンジ不足の相互作用と特定。解決策として、新たなハードウェア向けのスケール形式「UE5M3」を提案し、その有効性を示した。
TL;DRディープラーニングにおける計算スループット優先の現状に対し、AGI(汎用人工知能)には任意精度演算が不可欠であるとする「厳密性仮説」を提唱した研究。LLMのハルシネーションを浮動小数点演算の誤差累積と捉え、有理数演算($\mathbb{Q}$)と新しい「Exact Inference Unit (EIU)」を用いたHa
TL;DR組み合わせ最適化問題を解くための手法であるシミュレーテッドアニーリング(SA)に対し、従来の確率的SA(SSA)よりもメモリ効率を大幅に改善したハードウェア指向SSA(HA-SSA)を提案した研究です。FPGA実装において、計算速度を維持しつつ従来比で最大6倍のメモリ効率と、最大114倍の収束速度を達成しました。
Pricing