そしてtransformersは自身のベクトルをコンテキスト内の他のトークンとの関係で重みつけしたベクトルに「変換」する
自分自身を他者との関係によってより良いベクトルに「変換」するのよ
これがtransformersという名前の元になってるのだろう
transformersは入力と出力の次元が同じなのはそういうこと
そしてこの変換は予測タスクによって最適な変換となる
恐るべき技術だ
なにせ予測するためにはコンテキスト以外他に何も必要としないんだから
探検
ニュース
- 【実況】M-1グランプリ2025 決勝★3 [ひぃぃ★]
- 【実況】M-1グランプリ2025 決勝★4 [ひぃぃ★]
- 立民・岡田克也氏「国民の感情をコントロールしていかないと」、日中議連発言は「侮辱」保守党・有本香氏に怒 [少考さん★]
- 立民・岡田克也氏「国民の感情をコントロールしていかないと」、日中議連発言は「侮辱」保守党・有本香氏に怒 ★2 [少考さん★]
- 高市内閣の支持率 前回調査から2ポイント増の67% 3カ月連続高水準 毎日新聞世論調査 ★2 [尺アジ★]
- 「核持つべき」オフレコ発言者の素性…高市首相の安全政策のブレーンで飲み仲間「身内中の身内」で党内からも苛立ちの声 ★3 [ぐれ★]
- 【テレ朝/TVer】M-1グランプリ2025★9
- 【テレ朝/TVer】M-1グランプリ2025★7
- 【テレ朝/TVer】M-1グランプリ2025★8
- M-1グランプリ2025 高速感想スレ ★3 [562983582]
- M-1グランプリ2025 高速感想スレ★2 [683137174]
- 【朝日世論調査】日本人の70%、「別にパンダいらね」 [476729448]
