... | ... | @@ -178,7 +178,6 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* **`Séquence 9 : Transformers`** <a name="seq9">
|
|
|
|
|
|
> **Durée: 2h / Jeudi 8 février 2024, 14h**
|
|
|
* Au tout début étaient les RNN
|
|
|
* Utilisation et l'architecture classique des transformers
|
|
|
* Principe du mécanisme d'attention et du multi-head attention
|
|
|
* Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)
|
... | ... | |