... | ... | @@ -50,19 +50,20 @@ Contenus avancé, pour aller plus loin :-) |
|
|
### Séquence 1 : Contexte et historique, de la régression linéaire aux réseaux de neurones.
|
|
|
- Historique et concepts fondamentaux des réseaux de neurones Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres Préparation des données - Apprentissage - Validation - Sous et sur apprentissage Fonctions d’activation - softmax
|
|
|
- Exemples proposés : Régression et Classification avec des DNN
|
|
|
- Durée : 3h
|
|
|
- Durée : 3h / Jeudi 17 novembre 2022, 14h
|
|
|
|
|
|
### Séquence 2 : Réseaux convolutifs, partie 1
|
|
|
- Principes et concepts des réseaux convolutifs (CNN)
|
|
|
- Convolutions - Dropout - Pooling
|
|
|
- Exemple proposé : Classification de chiffres manuscrits
|
|
|
- Durée : 2h
|
|
|
- Durée : 2h / Jeudi 24 novembre 2022, 14h
|
|
|
|
|
|
### Séquence 3 : Réseaux convolutifs, partie 2
|
|
|
- Quand les datasets et les calculs grossissent, problématiques liées à la gestion des données
|
|
|
- Rappel sur les convolutions - Monitoring et Tensorboard - Augmentation de données Passage à l'échelle (du notebook au batch) - Points de reprise (checkpoint)
|
|
|
- Exemple proposé : Classification de panneaux routiers
|
|
|
- Durée : 2h
|
|
|
- Durée : 2h / Jeudi 1er décembre 2022, 14h
|
|
|
|
|
|
### Séquence 4 : Démystifier les outils mathématiques
|
|
|
- Présentation mathématique de l'optimisation par descente de gradient
|
|
|
- Principe de la backpropagation
|
... | ... | |