... | ... | @@ -11,24 +11,34 @@ Cette formation est totalement **libre sur youtube, gratuite et ouverte à toute |
|
|
<table>
|
|
|
<tr>
|
|
|
<th>
|
|
|
<b>Séquence 11 : Jeudi 7 mars 14h : <br>Autoencodeur (AE), un exemple d'apprentissage auto-supervisé !</b>
|
|
|
<b>Séquence 12 : Jeudi 14 mars 14h : <br>Variational Autoencoder (VAE), ou comment jouer avec les espaces latents</b>
|
|
|
</th>
|
|
|
|
|
|
</tr>
|
|
|
<tr>
|
|
|
<td
|
|
|
|
|
|
[<img src="uploads/89e08b074abbf137689193f756468379/Live-11a.webp" width=400px>](https://www.youtube.com/@CNRS-FIDLE)
|
|
|
[<img src="uploads/9a0668823c9779af1753edf88a7ab641/Live-12a.webp" width=400px>](https://www.youtube.com/@CNRS-FIDLE)
|
|
|
|
|
|
Les Réseaux **auto-encodeurs (AE)** sont particulièrement intéressants de par leur capacité à effectuer, de manières **non supervisées**, des **représentations compactes** de **données complexe**.
|
|
|
Les **Variational Autoencoder (VAE)** sont une famille de **modèles génératifs capable**
|
|
|
de projeter, de manière **contrôlée**, des données de **grande dimension** dans un espace latent
|
|
|
de **plus faible dimension**.
|
|
|
|
|
|
Ils sont ainsi très utiles pour une large variété de tâches telles que la **reconstruction**, la **détection d’anomalies**, la **réduction de dimensionnalité**, le **débruitage** ou encore la **génération de données**.
|
|
|
Ils sont particulièrement intéressants car, contrairement aux autoencodeurs “basiques”,
|
|
|
la **projection dans l’espace latent** est **organisée** de manière à permettre une **compréhension**
|
|
|
et une **utilisation** de cet espace latent, telle que la génération de données, l’extraction
|
|
|
de caractéristiques ou l’augmentation des données.
|
|
|
|
|
|
Le plan est le suivant :
|
|
|
- Principes et architecture d'un autoencodeur (AE)
|
|
|
- Espace latent, convolution classiques et transposées
|
|
|
- Programmation procédurale avec Keras 3 et pytorch
|
|
|
- "Exemple proposé : Débruitage d'images fortement bruitées
|
|
|
Les domaines d’applications sont potentiellement nombreux, **vision par ordinateur**,
|
|
|
**détection d’anomalie**, reconnaissance vocale, etc.
|
|
|
|
|
|
Au menu de cette épisode :
|
|
|
|
|
|
- Principes et architecture d’un Variational AutoEncodeur (VAE),
|
|
|
- Projection gaussienne,
|
|
|
- Génération de données,
|
|
|
- Morphing dans l’espace latent,
|
|
|
- Exemple proposé : Génération de données.
|
|
|
|
|
|
Durée : 2h00
|
|
|
</td>
|
... | ... | @@ -40,6 +50,8 @@ En direct sur notre chaine **YouTube** - https://www.youtube.com/@CNRS-FIDLE |
|
|
</td>
|
|
|
</tr>
|
|
|
</table>
|
|
|
|
|
|
|
|
|
Pour en savoir plus :
|
|
|
|
|
|
- A propos de la [**formation Fidle**](https://fidle.cnrs.fr/presentation)
|
... | ... | |