大規模言語モデルは「自分が何を信じているか」を、内部で持っているのでしょうか? 意外なのは、その問いを“哲学”の言葉遊びで終わらせず、内部表現を実際に操作し、しかも計測して確かめようとしている点です。
LLMの進歩は、「これらのモデルに何らかの意識があるのか」という問いを呼び起こしました。とはいえ、そのまま問うと、どこからが比喩でどこまでが検証可能な主張なのかが曖昧になり、議論は抽象に流れがちです。とくに「意識」という語は強すぎるため、観察できる現象と結びついた形にしないと、結論が“印象”に寄ってしまいます。
本論文が評価対象に据えるのは、指標の一つであるHOT-3です。HOT-3は、ざっくり言えば次の2点を要求します。
続きはログイン/プランで閲覧できます。
続きを読む
無料プランで全文は月 2 本まで読めます。
Related