| ... | @@ -7,7 +7,8 @@ |
... | @@ -7,7 +7,8 @@ |
|
|
|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|
|
|
|Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>Fonctions d’activation - softmax<br>Travaux pratiques : Régression et Classification avec des DNN|
|
|
|
|Durée : 3h - Paramètres de diffusion précisés 2 jours avant|
|
|
|Durée : 3h - Paramètres de diffusion précisés 2 jours avant|
|
|
|
|
|
|
|
|
Voir le [programme](Fidle à distance/Présentation#programme-)
|
|
Voir le **[programme](Fidle à distance/Présentation#programme-)**\
|
|
|
|
Pour rester informé : **[Abonnez-vous à la liste !](https://listes.grenoble.cnrs.fr/sympa/info/fidle-a-distance.info)**
|
|
|
|
|
|
|
|
# <img width="100px" src="uploads/8f26533be8a41e57f149b99fdf560e91/00-Fidle-a-distance-01.svg"></img> En bref :
|
|
# <img width="100px" src="uploads/8f26533be8a41e57f149b99fdf560e91/00-Fidle-a-distance-01.svg"></img> En bref :
|
|
|
|
|
|
| ... | |
... | |
| ... | | ... | |