... | @@ -10,10 +10,10 @@ Cette formation est totalement libre, gratuite et ouverte à toutes et à tous ! |
... | @@ -10,10 +10,10 @@ Cette formation est totalement libre, gratuite et ouverte à toutes et à tous ! |
|
|
|
|
|
## Prochaine session :
|
|
## Prochaine session :
|
|
|
|
|
|
|**Jeudi 20 janvier, 14h, Séquence 6**|
|
|
|**Jeudi 27 janvier, 14h, Séquence 7**|
|
|
|--|
|
|
|--|
|
|
|**Données séquentielles : quand les données sont des séquences temporelles !**<br>Données séquentielles et réseaux récurrents (RNN)<br>RNN - LSTM - GRU - Spécificités des données séquentielles - Data Generator<br>Exemples proposés : <br>Tentative de prédiction de la trajectoire d’une coccinelle virtuelle (ci-dessous !)<br>Prédictions météorologiques à partir de données réelles, à 3h et 12h.! <img src="uploads/2a4c19a1d0782c00d13fa2b196216ae9/LADYB1-01-dataset-s.jpg" width="500"><br>Durée totale : 2h00 |
|
|
|**"Attention Is All You Need", quand les Transformers changent la donne !**<br>Utilisation et l'architecture classique des transformers<br>Principe du mécanisme d'attention et du multi-head attention<br>Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)<br>Pré-entraînement (BERT et GPT)<br>Fine tuning<br>Utilisation des transformers dans les autres domaines<br>Séquence animée par Hatim Bourfoune (IDRIS) et Nathan Cassereau (IDRIS)<br>Durée : 2h00|
|
|
|Paramètres Zoom :<br>id: **917 5437 9950**<br>code: **2022**<br>Lien : https://zoom.us/join|
|
|
|Les paramètres seront précisés sur le site et envoyés la veille.|
|
|
|
|
|
|
Les **séquences précédentes** sont disponibles sur notre **[chaine YouTube](https://fidle.cnrs.fr/youtube)**
|
|
Les **séquences précédentes** sont disponibles sur notre **[chaine YouTube](https://fidle.cnrs.fr/youtube)**
|
|
|
|
|
... | | ... | |