Update Présentation authored by Jean-Luc Parouty's avatar Jean-Luc Parouty
......@@ -6,14 +6,9 @@ https://www.youtube.com/channel/UC4Sukzudhbwr6fs10cXrJsQ
**- Prochain rendez-vous -**
Paramètres Zoom :
https://grenoble-inp.zoom.us/j/92701645094?pwd=b1VGbEZQbEoyTHRmUFVsNE11VWR1QT09
N° de webinaire : 927 0164 5094
Code secret : 6565
|**Jeudi 18 mars, 14h, Séquence 5 : <br>Les réseaux autoencodeurs (AE), un exemple d'apprentissage non supervisé.**|
|**Jeudi 25 mars, 14h, Séquence 6 : <br>Du réseau autoencodeur (AE) au Variational Autoencoder (VAE)<br>ou comment parcourir l'imagination de nos réseaux.**|
|--|
|Principes et architecture des réseaux autoencodeurs.<br> Convolutions classiques et transposées - Espaces latents.<br> Programmation procédurale avec Keras - GPU et batch.<br>Exemple proposé :<br>Débruitage d'images fortement bruitées.<br>Où, comment à partir de ces image :<br> ![AE2-07-test-noisy-xs](uploads/864b6baebb75d672007badb09e16bfd4/AE2-07-test-noisy-xs.png)<br> Il est possible de retrouver celles-ci !<br>![AE2-08-test-predict-xs](uploads/156f09926c8bf47613e62ab74c62484c/AE2-08-test-predict-xs.png) |
|Principes et architecture d'un Variational Autoencoder (VAE).<br>Problématiques liées à la gestion de "gros" datasets.<br>Projection gaussienne - Génération de données - Morphing dans l'espace latent <br>Programmation avancée avec Keras - Datasets clusterisés.<br>Exemple proposé :<br>Génération de données et morphing dans l'espace latent<br>Ces personnes n'existent pas ;-)|
|Durée : 2h - Les paramètres de diffusion seront [précisés la veille dans le wiki](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref) |
......@@ -108,26 +103,26 @@ Le calendrier des séquences suivantes sera discuté ensemble.
- Convolutions - Dropout - Pooling - Monitoring et Tensorboard - Augmentation de données<br>
Passage à l'échelle (du notebook au batch) - Points de reprise (checkpoint)
- Exemples pratiques : Classification de chiffres manuscrits et de panneaux routiers
- Durée : 2h
- Durée : 2x2h
### Séquence 3 : Données creuses de dimensions variables : L'exemple des données textuelles
- Spécificités et gestion des **données creuses/textuelles**
- Principes de **l'Embedding** (Keras, CBOW, Skip-Gram), comment réduire les dimensions.
- Exemple proposé : Analyse de sentiment avec une analyse de critique de films.
- Durée : 1h30
- Durée : 2h
### Séquence 4 : Données séquentielles ou quand les données sont des séquences temporelles
- Données séquentielles et **réseaux récurrents (RNN)**
- RNN - LSTM - GRU - Spécificités des données séquentielles - Data Generator
- Exemple proposée : Prédiction d'une séquence temporelle avec une prédiction météorologique à 3h et 12h
- Durée : 1h30
- Durée : 2h
### Séquence 5 : Autoencodeur (AE) : un exemple d'apprentissage non supervisé
- Principes et architecture d'un **autoencodeur (AE)**
- Espace latent - Convolution classiques et transposées<br>
Programmation procédurale avec Keras - GPU et batch
- Exemple proposé : Débruitage d'images fortement bruitées
- Durée : 1h
- Durée : 2h
### Séquence 6 : Variational Autoencoder (VAE) : apprentissage non supervisé, réseau génératif
- Principes et architecture d’un **Variational AutoEncodeur (VAE)**
......@@ -135,7 +130,7 @@ Le calendrier des séquences suivantes sera discuté ensemble.
- Projection gaussienne - Génération de données - Morphing dans l'espace latent<br>
Datasets clusterisés - GPU et batch
- Exemple proposé :
- Durée : 1h
- Durée : 2h
### Séquence 7 : Passer à la vitesse supérieure : Jean-Zay et accélération GPU
- Présentation de **Jean-Zay** et calcul sur **GPU**
......
......