| Qui ne s'est jamais demandé ce qu'il se passait **à l'intérieur d'un réseau de neurones ?**<br/>Le but de cette séquence, qui se veut **totalement didactique** et **abordable**, est **d'apporter des réponses claires** à cette question en **démystifiant** les **bases mathématiques** des réseaux de neurones ! <br/>Ces bases seront décrites et illustrées par de **nombreux exemples** en **PyTorch**. Nous regarderons en particulier comment un réseau de neurones peut transformer une image de manière à identifier progressivement ce qu'elle contient. <br/>Nous décrirons ensuite **comment s'effectue l'apprentissage** d'un réseau de neurones en prenant le temps de comprendre comment fonctionne une **descente de gradient** et la **rétro-propagation**. <br/>Quelques éléments seront enfin discutés pour comprendre l'intérêt des méthodes dites **stochastiques** pour l'apprentissage des **réseaux de neurones**.
| **Séquence 6 : Jeudi 18 janvier, 14h : Méthodologie des modèles et de l'apprentissage** |
| Et si on mettait un peu de **méthodologie** ? <br/>La mise en œuvre des modèles **d'apprentissage profond** nécessite de passer par diverses étapes, allant de la **préparation des données** à la **conception du modèle**, en passant par le choix des **fonctions de perte** et des algorithmes **d'optimisation**, l'entraînement via la **rétropropagation**, la **régularisation**, ou encore l'ajustement minutieux des **hyperparamètres**. <br/>Dans cette **séquence captivante**, nous allons nous plonger dans le détail de ces quelques points clés, qui conditionneront la **qualité de tous nos apprentissages** !
Durée : 2h00 |
| En direct sur notre chaine [**YouTube**](https://www.youtube.com/@CNRS-FIDLE) - https://www.youtube.com/@CNRS-FIDLE