| ... | @@ -44,8 +44,10 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
... | @@ -44,8 +44,10 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
|
|
|
|
|
#### Séquence 1 : Contexte et historique, de la régression linéaire aux réseaux de neurones.
|
|
#### Séquence 1 : Contexte et historique, de la régression linéaire aux réseaux de neurones.
|
|
|
- Introduction du cycle
|
|
- Introduction du cycle
|
|
|
- Historique et concepts fondamentaux
|
|
- Historique et concepts fondamentaux<br>
|
|
|
- Au menu : Fonction de perte - Descente de gradient - Optimisation - HyperparamètresPréparation des données - Apprentissage - Validation - Sous et sur apprentissageFonctions d’activation - softmax
|
|
Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres<br>
|
|
|
|
Préparation des données - Apprentissage - Validation - Sous et sur apprentissage<br>
|
|
|
|
Fonctions d’activation - softmax
|
|
|
- Exemples pratiques : Régression et Classification avec des DNN
|
|
- Exemples pratiques : Régression et Classification avec des DNN
|
|
|
- Durée : 3h
|
|
- Durée : 3h
|
|
|
|
|
|
| ... | |
... | |
| ... | | ... | |