... | @@ -7,6 +7,9 @@ |
... | @@ -7,6 +7,9 @@ |
|
|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|
|
|
|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|
|
|
|Durée : 3h - Paramètres de diffusion précisés 2 jours avant|
|
|
|Durée : 3h - Paramètres de diffusion précisés 2 jours avant|
|
|
|
|
|
|
|
|
Voir le **[programme](Fidle à distance/Présentation#programme-)**\
|
|
|
|
Pour rester informé : **[Abonnez-vous à la liste !](https://listes.grenoble.cnrs.fr/sympa/info/fidle-a-distance.info)**
|
|
|
|
|
|
**- Sommaire -**
|
|
**- Sommaire -**
|
|
|
|
|
|
[[_TOC_]]
|
|
[[_TOC_]]
|
... | | ... | |