Up
Transformer
作成: 2025-05-07
更新: 2025-05-17
トークン
語彙固定型
トークン表 (embedding_matrix)
学習テクスト
入力データのサイズ制限
事前学習 (pre-training)
入力データの処理 (入力層)──埋め込みベクトル
"Self-Attention" の意味を捉えるための秘訣
引用/参考ウェブサイト
自然言語処理を使ったソフトウェア開発
自然言語処理モデルを直感的に理解したい : (1) Transformer
Transformerの仕組みを体系的に理解したい 第1章、第2章
Think IT
大規模言語モデルの自然言語処理「Transformer」モデルの仕組み
Wikipedia
Transformer (機械学習モデル)
Wikipedia : "Transformer (deep learning architecture)"