... | @@ -10,10 +10,10 @@ Cette formation est totalement libre, gratuite et ouverte à toutes et à tous ! |
... | @@ -10,10 +10,10 @@ Cette formation est totalement libre, gratuite et ouverte à toutes et à tous ! |
|
|
|
|
|
## Prochaine session :
|
|
## Prochaine session :
|
|
|
|
|
|
|**Jeudi 27 janvier, 14h, Séquence 7**|
|
|
|**Jeudi 3 février, 14h, Séquence 8 : <br>Les réseaux autoencodeurs (AE), un exemple d'apprentissage non supervisé.**|
|
|
|--|
|
|
|--|
|
|
|**"Attention Is All You Need", quand les Transformers changent la donne !**<br>Utilisation et l'architecture classique des transformers<br>Principe du mécanisme d'attention et du multi-head attention<br>Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)<br>Pré-entraînement (BERT et GPT)<br>Fine tuning<br>Utilisation des transformers dans les autres domaines<br>Séquence animée par Hatim Bourfoune (IDRIS) et Nathan Cassereau (IDRIS)<br>Durée : 2h00|
|
|
|Principes et architecture des réseaux autoencodeurs.<br> Convolutions classiques et transposées, upsampling - Espaces latents.<br> Programmation procédurale avec Keras - Multi input/output, inception<br>Exemple proposé :<br>Débruitage d'images fortement bruitées.<br>Où, comment à partir de ces image :<br> ![AE2-07-test-noisy-xs](uploads/864b6baebb75d672007badb09e16bfd4/AE2-07-test-noisy-xs.png)<br> Il est possible de retrouver celles-ci !<br>![AE2-08-test-predict-xs](uploads/156f09926c8bf47613e62ab74c62484c/AE2-08-test-predict-xs.png) |
|
|
|Zoom : **930 7426 2587**<br>Code : **2050** <br>Lien : https://zoom.us/join<br>Diffusion simultanée en live sur notre chaine **YouTube** :-)|
|
|
|Durée : 2h - Les paramètres de diffusion seront précisés la veille. |
|
|
|
|
|
|
Les **séquences précédentes** sont disponibles sur notre **[chaine YouTube](https://fidle.cnrs.fr/youtube)**
|
|
Les **séquences précédentes** sont disponibles sur notre **[chaine YouTube](https://fidle.cnrs.fr/youtube)**
|
|
|
|
|
... | | ... | |