論文検索 新着 人気 料金
運営: Cognitive Research Labs(CRL) crl.co.jp
毎日更新

FBS: Transformer内部におけるネイティブな並列読解のモデリング

要約

大規模言語モデルの逐次的な推論を改善するため、人間の読解プロセスを模倣した「Fovea-Block-Skip Transformer(FBS)」が提案されました。PAW、CH、SGという3つのモジュールを導入することで、パラメータ数を増やさずに品質と効率のトレードオフを向上させています。既存の逐次処理の限界を超え、並列的な情報処理を実現する手法です。


全文は有料プランで閲覧できます。

Unlock

全文は有料プラン限定です

ログインして試す

Pro

深掘りチャットで“理解の履歴”を残す

プランを見る

Proなら長文回答とスレッド保存で、論文ごとの知識DBを作れます。

Related

次に読む