... | @@ -13,11 +13,11 @@ Les séquences précédentes sont [disponibles en ligne sur notre chaine YouTube |
... | @@ -13,11 +13,11 @@ Les séquences précédentes sont [disponibles en ligne sur notre chaine YouTube |
|
La prochaine séquence est :
|
|
La prochaine séquence est :
|
|
|
|
|
|
|
|
|
|
## Séquence 11 : Jeudi 9 février, 14h
|
|
## Séquence 12 : Jeudi 9 mars, 14h
|
|
|
|
|
|
|**Les Variational Autoencoder (VAE) ou comment jouer avec les espaces latents ;-)**|
|
|
|**Generative Adversarial Networks (GAN),ou comment mes neurones ont appris à dessiner des moutons ! ;-)**|
|
|
|--|
|
|
|--|
|
|
|Les **VAE** sont une évolution des autoencodeurs, dans laquelle on va guider la projection des données au sein de **l'espace latent**, de manière à pouvoir étudier et utiliser celui-ci. L'apprentissage pourra cette fois être totalement **non supervisé**.<br>Au sommaire de cette séquence :<br>- Principes et architecture d'un Variational Autoencoder (VAE).<br>- Projection gaussienne (ou probabiliste)<br>- Génération de données<br>- Morphing dans l'espace latent. <br>- Programmation avancée avec Keras <br>- Problématiques liées à la gestion de "gros" datasets, datasets clusterisés, batchs<br>**Exemple proposé :** <br>Mise en œuvre d'un VAE, génération de données et morphing dans l'espace latent.<br>[<img src="uploads/d654a6da30c289536baa4f2e41c7ba12/VAE2.jpg">](#)<br>Durée : 2h |
|
|
|Dans la relativement courte histoire du **Deep Learning**, les **GANs** ont considérablement révolutionnés le monde de l'IA et marqués les esprits avec des démonstrateurs populaires tels que [This person does not exist](https://www.thispersondoesnotexist.com/). <br>Avant d'être **publiés en 2014** par **Ian J. Goodfellow et al.**, la légende, raconte qu'ils ont été imaginés dans un restaurant. A la fois architecture et stratégie d'apprentissage, dans laquelle **deux réseaux sont en compétition**, les GANs sont capables de générer des données avec un très fort degré de réalisme, dans un contexte **d'apprentissage non supervisé**.<br>L'objectif de cette séquence est de découvrir les grands principes de cette famille de modèles. <br> <br>Au menu de cette séquence :<br> - Principes et architecture d'un GAN <br> - Generator <br> - Discriminator <br> - Apprentissage et implémentation <br>- WGAN et WGAN-GP<br> <br>**Exemple proposé :** S'il te plaît... dessine moi un mouton !<br>[<img src="uploads/c372dd0c5cfd073b36638a9f89b3bc2a/Moutons.gif">](#)<br>Durée : 2h |
|
|
| La séquence sera diffusée en direct sur notre chaine **[YouTube](https://www.youtube.com/@CNRS-FIDLE)** :-)<br>Lien : https://fidle.cnrs.fr/youtube <br>or : https://www.youtube.com/@CNRS-FIDLE|
|
|
| La séquence sera diffusée en direct sur notre chaine **[YouTube](https://www.youtube.com/@CNRS-FIDLE)** :-)<br>Lien : https://fidle.cnrs.fr/youtube <br>or : https://www.youtube.com/@CNRS-FIDLE|
|
|
|
|
|
|
A propos de la **[formation Fidle](https://fidle.cnrs.fr/presentation)**
|
|
A propos de la **[formation Fidle](https://fidle.cnrs.fr/presentation)**
|
... | | ... | |