論文検索 新着 人気
毎日更新

マルチモーダル大規模言語モデルにおける「忘却」を視覚情報で導く新手法ViKeR

要約

マルチモーダル大規模言語モデル(MLLM)が特定の画像に関する個人情報を漏らさないようにする「アンラーニング(忘却)」に関する研究である。既存手法がすべての回答トークンを一律に扱うのに対し、本手法「ViKeR」は視覚情報を活用して重要なトークンを特定し、優先的に学習プロセスを調整する。


全文は有料プランで閲覧できます。

Unlock

全文は有料プラン限定です

ログインして試す

Pro

深掘りチャットで“理解の履歴”を残す

プランを見る

Proなら長文回答とスレッド保存で、論文ごとの知識DBを作れます。

Related

次に読む