... | ... | @@ -10,7 +10,7 @@ Cette formation est totalement libre, gratuite et ouverte à toutes et à tous ! |
|
|
|
|
|
|**Jeudi 16 décembre, 14h, Séquence 4 : <br>Démystifier les outils mathématiques pour l'apprentissage des réseaux de neurones.**|
|
|
|
|--|
|
|
|
|Qu-est ce qu'une descente de gradient ?<br>Comment est calculé le gradient dans les réseaux de neurones (retro-propagation) ?<br>Comment un réseau convolutif transforme t-il les images, couche après couche ?<br>Comment le réseau transforme couche après couche une donnée d'entrée en prédiction ?<br>"Stochastique"... c'est quoi ? Quel intérêt pour l'apprentissage des réseaux de neurones ?<br><br>Illustrations :<br> - Descente de gradient en régression linéaire (le réseau de neurones le plus simple !)<br> - Rétro-propagation 'à la main' sur un réseau avec des couches denses et convolutionnelles<br> - Transformation d'un image couche après couche dans un réseau convolutionnel|
|
|
|
|Qu-est ce qu'une descente de gradient ?<br>Comment est calculé le gradient dans les réseaux de neurones (retro-propagation) ?<br>Comment un réseau convolutif transforme t-il les images, couche après couche ?<br>Comment une donnée d'entrée est-elle transformée en prédiction ?<br>"Stochastique"... c'est quoi ? Quel intérêt pour l'apprentissage des réseaux de neurones ?<br><br>Illustrations :<br> - Rétro-propagation 'à la main' sur un réseau avec des couches denses et convolutionnelles<br> - Transformation d'un image couche après couche dans un réseau convolutionnel|
|
|
|
|Durée : 2h - Les paramètres de diffusion seront précisés la veille |
|
|
|
|
|
|
Les **séquences précédentes** sont disponibles sur notre **[chaine YouTube](https://fidle.cnrs.fr/youtube)**
|
... | ... | |