@@ -7,6 +7,8 @@ nous vous proposons une **session à distance** :-)
...
@@ -7,6 +7,8 @@ nous vous proposons une **session à distance** :-)
**- Prochain rendez-vous -**
**- Prochain rendez-vous -**
|**Jeudi 4 févier, 14h :**<br>Episode 1 : **Introduction du cycle, Historique et concepts fondamentaux**|
|**Jeudi 4 févier, 14h :**<br>Episode 1 : **Introduction du cycle, Historique et concepts fondamentaux**|
|--|
|--|
|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|
|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|