Up
Attention と生成整合性 : 概要
作成: 2025-10-13
更新: 2025-10-13
本節では、Transformer における Attention を取り上げるが、焦点は Attention 自体ではなく、「生成整合性を維持するプロセス」の具体例として扱う。
Attentionは、生成整合性を維持する 具体的な手段の一例 として理解される。
・通説的理解
テキストから次のトークンを導くアルゴリズムとして捉えられる
・処理視点
テキストから処理を導く装置であり、
処理が自己整合的に維持されることによって、次のトークンが含意として現れる
Attention はあくまで整合性を作り出す計算手段の一つに過ぎず、必須ではない。
重要なのは、整合性が生成過程の中で自律的に現れることにある。