@@ -44,8 +44,10 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de
#### Séquence 1 : Contexte et historique, de la régression linéaire aux réseaux de neurones.
- Introduction du cycle
- Historique et concepts fondamentaux
- Au menu : Fonction de perte - Descente de gradient - Optimisation - HyperparamètresPréparation des données - Apprentissage - Validation - Sous et sur apprentissageFonctions d’activation - softmax
- Historique et concepts fondamentaux<br>
Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>
Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>
Fonctions d’activation - softmax
- Exemples pratiques : Régression et Classification avec des DNN