... | @@ -7,6 +7,8 @@ nous vous proposons une **session à distance** :-) |
... | @@ -7,6 +7,8 @@ nous vous proposons une **session à distance** :-) |
|
|
|
|
|
**- Prochain rendez-vous -**
|
|
**- Prochain rendez-vous -**
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|**Jeudi 4 févier, 14h :**<br>Episode 1 : **Introduction du cycle, Historique et concepts fondamentaux**|
|
|
|**Jeudi 4 févier, 14h :**<br>Episode 1 : **Introduction du cycle, Historique et concepts fondamentaux**|
|
|
|--|
|
|
|--|
|
|
|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|
|
|
|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|
|
... | | ... | |