|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|
|Durée : 3h|
Sommaire :
[[_TOC_]]
# Une session Fidle à distance...
# Fidle à distance :
Faute de pouvoir organiser des sessions en présentiel, nous vous proposons une **session Fidle à distance** :-)