@@ -10,10 +10,10 @@ Cette formation est totalement libre, gratuite et ouverte à toutes et à tous !
## Prochaine session :
|**Jeudi 20 janvier, 14h, Séquence 6**|
|**Jeudi 27 janvier, 14h, Séquence 7**|
|--|
|**Données séquentielles : quand les données sont des séquences temporelles !**<br>Données séquentielles et réseaux récurrents (RNN)<br>RNN - LSTM - GRU - Spécificités des données séquentielles - Data Generator<br>Exemples proposés : <br>Tentative de prédiction de la trajectoire d’une coccinelle virtuelle (ci-dessous !)<br>Prédictions météorologiques à partir de données réelles, à 3h et 12h.! <imgsrc="uploads/2a4c19a1d0782c00d13fa2b196216ae9/LADYB1-01-dataset-s.jpg"width="500"><br>Durée totale : 2h00|
|**"Attention Is All You Need", quand les Transformers changent la donne !**<br>Utilisation et l'architecture classique des transformers<br>Principe du mécanisme d'attention et du multi-head attention<br>Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)<br>Pré-entraînement (BERT et GPT)<br>Fine tuning<br>Utilisation des transformers dans les autres domaines<br>Séquence animée par Hatim Bourfoune (IDRIS) et Nathan Cassereau (IDRIS)<br>Durée : 2h00|
|Les paramètres seront précisés sur le site et envoyés la veille.|
Les **séquences précédentes** sont disponibles sur notre **[chaine YouTube](https://fidle.cnrs.fr/youtube)**