|**Jeudi 18 mars, 14h, Séquence 5 : <br>Les réseaux autoencodeurs (AE), un exemple d'apprentissage non supervisé.**|
|**Jeudi 25 mars, 14h, Séquence 6 : <br>Du réseau autoencodeur (AE) au Variational Autoencoder (VAE)<br>ou comment parcourir l'imagination de nos réseaux.**|
|--|
|Principes et architecture des réseaux autoencodeurs.<br> Convolutions classiques et transposées - Espaces latents.<br>Programmation procédurale avec Keras - GPU et batch.<br>Exemple proposé :<br>Débruitage d'images fortement bruitées.<br>Où, comment à partir de ces image :<br> <br> Il est possible de retrouver celles-ci !<br>|
|Principes et architecture d'un Variational Autoencoder (VAE).<br>Problématiques liées à la gestion de "gros" datasets.<br>Projection gaussienne - Génération de données - Morphing dans l'espace latent<br>Programmation avancée avec Keras - Datasets clusterisés.<br>Exemple proposé :<br>Génération de données et morphing dans l'espace latent<br>Ces personnes n'existent pas ;-)|
|Durée : 2h - Les paramètres de diffusion seront [précisés la veille dans le wiki](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref) |
...
...
@@ -108,26 +103,26 @@ Le calendrier des séquences suivantes sera discuté ensemble.
- Convolutions - Dropout - Pooling - Monitoring et Tensorboard - Augmentation de données<br>
Passage à l'échelle (du notebook au batch) - Points de reprise (checkpoint)
- Exemples pratiques : Classification de chiffres manuscrits et de panneaux routiers
- Durée : 2h
- Durée : 2x2h
### Séquence 3 : Données creuses de dimensions variables : L'exemple des données textuelles
- Spécificités et gestion des **données creuses/textuelles**
- Principes de **l'Embedding** (Keras, CBOW, Skip-Gram), comment réduire les dimensions.
- Exemple proposé : Analyse de sentiment avec une analyse de critique de films.
- Durée : 1h30
- Durée : 2h
### Séquence 4 : Données séquentielles ou quand les données sont des séquences temporelles
- Données séquentielles et **réseaux récurrents (RNN)**
- RNN - LSTM - GRU - Spécificités des données séquentielles - Data Generator
- Exemple proposée : Prédiction d'une séquence temporelle avec une prédiction météorologique à 3h et 12h
- Durée : 1h30
- Durée : 2h
### Séquence 5 : Autoencodeur (AE) : un exemple d'apprentissage non supervisé
- Principes et architecture d'un **autoencodeur (AE)**
- Espace latent - Convolution classiques et transposées<br>
Programmation procédurale avec Keras - GPU et batch
- Exemple proposé : Débruitage d'images fortement bruitées