... | ... | @@ -100,7 +100,7 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* **Séquence 8 : RNN & Transformers**
|
|
|
|
|
|
> **Durée: 2h / Jeudi 1 février 2024, 14h**
|
|
|
* Au tout début étaient les RNN (A valider)
|
|
|
* Au tout début étaient les RNN
|
|
|
* Utilisation et l'architecture classique des transformers
|
|
|
* Principe du mécanisme d'attention et du multi-head attention
|
|
|
* Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)
|
... | ... | |