深層ニューラルネットワーク(DNN)を確率的な反復関数系(IFS)として捉え直す新しい理論的枠組みが提案されました。この視点により、モデルの安定性を数学的に保証し、生成モデルにおける汎化性能のバウンド(限界)を導出しています。さらに、この理論に基づく新しい学習目的関数を提案し、画像データセットでその有効性を検証しています。
全文は有料プランで閲覧できます。
Unlock
Pro
Proなら長文回答とスレッド保存で、論文ごとの知識DBを作れます。
Related