Scaled Dot-Product Attention

自然言語処理
Transformerの仕組みを体系的に理解したい 第3章新着!!

第3章: Attention機構の仕組み Transformerの革新の中心となるのがAttention機構です。特に、Self-Attention(自己注意メカニズム)は、入力文中の単語間の関係をモデル化するための鍵と […]

続きを読む