... | @@ -11,13 +11,12 @@ Toutes les séquences sont [disponibles en ligne sur notre chaine YouTube](https |
... | @@ -11,13 +11,12 @@ Toutes les séquences sont [disponibles en ligne sur notre chaine YouTube](https |
|
|
|
|
|
## Prochaine séquence
|
|
## Prochaine séquence
|
|
|
|
|
|
| **Séquence 5 : Jeudi 11 janvier, 14h : Mathématiques, gradients everywhere !!!** |
|
|
| **Séquence 6 : Jeudi 18 janvier, 14h : Méthodologie des modèles et de l'apprentissage** |
|
|
|------------------------------------------------------------------------------|
|
|
|-------------------------------------------------------------------------------------|
|
|
| [<img src="uploads/2e3aa111027a8880dbb4f9b428b3b9b4/Live-5a-xs.png" width=400px>](https://www.youtube.com/live/0Y3oDJPVQGc?si=522sn_-xJ4uRHd2e) |
|
|
| [<img src="uploads/ed7d01c0f9818b85e49b99b26bce34a3/Live-6a-xs.png" width=400px>](https://www.youtube.com/@CNRS-FIDLE) |
|
|
| Qui ne s'est jamais demandé ce qu'il se passait **à l'intérieur d'un réseau de neurones ?** <br />Le but de cette séquence, qui se veut **totalement didactique** et **abordable**, est **d'apporter des réponses claires** à cette question en **démystifiant** les **bases mathématiques** des réseaux de neurones ! <br />Ces bases seront décrites et illustrées par de **nombreux exemples** en **PyTorch**. Nous regarderons en particulier comment un réseau de neurones peut transformer une image de manière à identifier progressivement ce qu'elle contient. <br />Nous décrirons ensuite **comment s'effectue l'apprentissage** d'un réseau de neurones en prenant le temps de comprendre comment fonctionne une **descente de gradient** et la **rétro-propagation**. <br />Quelques éléments seront enfin discutés pour comprendre l'intérêt des méthodes dites **stochastiques** pour l'apprentissage des **réseaux de neurones**.
|
|
| Et si on mettait un peu de **méthodologie** ? <br />La mise en œuvre des modèles **d'apprentissage profond** nécessite de passer par diverses étapes, allant de la **préparation des données** à la **conception du modèle**, en passant par le choix des **fonctions de perte** et des algorithmes **d'optimisation**, l'entraînement via la **rétropropagation**, la **régularisation**, ou encore l'ajustement minutieux des **hyperparamètres**. <br />Dans cette **séquence captivante**, nous allons nous plonger dans le détail de ces quelques points clés, qui conditionneront la **qualité de tous nos apprentissages** !
|
|
Durée : 2h00 |
|
|
Durée : 2h00 |
|
|
| En direct sur notre chaine [**YouTube**](https://www.youtube.com/@CNRS-FIDLE) - https://www.youtube.com/@CNRS-FIDLE
|
|
| En direct sur notre chaine [**YouTube**](https://www.youtube.com/@CNRS-FIDLE) - https://www.youtube.com/@CNRS-FIDLE
|
|
[Lien direct](https://www.youtube.com/live/0Y3oDJPVQGc?si=522sn_-xJ4uRHd2e) |
|
|
|
|
|
|
|
|
|
|
|
|
Pour en savoir plus :
|
|
Pour en savoir plus :
|
... | | ... | |