Update home authored by Jean-Luc Parouty's avatar Jean-Luc Parouty
......@@ -11,24 +11,34 @@ Cette formation est totalement **libre sur youtube, gratuite et ouverte à toute
<table>
<tr>
<th>
<b>Séquence 11 : Jeudi 7 mars 14h : <br>Autoencodeur (AE), un exemple d'apprentissage auto-supervisé !</b>
<b>Séquence 12 : Jeudi 14 mars 14h : <br>Variational Autoencoder (VAE), ou comment jouer avec les espaces latents</b>
</th>
</tr>
<tr>
<td
[<img src="uploads/89e08b074abbf137689193f756468379/Live-11a.webp" width=400px>](https://www.youtube.com/@CNRS-FIDLE)
[<img src="uploads/9a0668823c9779af1753edf88a7ab641/Live-12a.webp" width=400px>](https://www.youtube.com/@CNRS-FIDLE)
Les Réseaux **auto-encodeurs (AE)** sont particulièrement intéressants de par leur capacité à effectuer, de manières **non supervisées**, des **représentations compactes** de **données complexe**.
Les **Variational Autoencoder (VAE)** sont une famille de **modèles génératifs capable**
de projeter, de manière **contrôlée**, des données de **grande dimension** dans un espace latent
de **plus faible dimension**.
Ils sont ainsi très utiles pour une large variété de tâches telles que la **reconstruction**, la **détection d’anomalies**, la **réduction de dimensionnalité**, le **débruitage** ou encore la **génération de données**.
Ils sont particulièrement intéressants car, contrairement aux autoencodeurs “basiques”,
la **projection dans l’espace latent** est **organisée** de manière à permettre une **compréhension**
et une **utilisation** de cet espace latent, telle que la génération de données, l’extraction
de caractéristiques ou l’augmentation des données.
Le plan est le suivant :
- Principes et architecture d'un autoencodeur (AE)
- Espace latent, convolution classiques et transposées
- Programmation procédurale avec Keras 3 et pytorch
- "Exemple proposé : Débruitage d'images fortement bruitées
Les domaines d’applications sont potentiellement nombreux, **vision par ordinateur**,
**détection d’anomalie**, reconnaissance vocale, etc.
Au menu de cette épisode :
- Principes et architecture d’un Variational AutoEncodeur (VAE),
- Projection gaussienne,
- Génération de données,
- Morphing dans l’espace latent,
- Exemple proposé : Génération de données.
Durée : 2h00
</td>
......@@ -40,6 +50,8 @@ En direct sur notre chaine **YouTube** - https://www.youtube.com/@CNRS-FIDLE
</td>
</tr>
</table>
Pour en savoir plus :
- A propos de la [**formation Fidle**](https://fidle.cnrs.fr/presentation)
......
......