... | ... | @@ -133,17 +133,17 @@ Le calendrier des séquences suivantes sera discuté ensemble. |
|
|
Hybrid Parallelism - Pipelines
|
|
|
|
|
|
### Séquence 8 : Démystifier les outils mathématiques pour l'apprentissage des réseaux de neurones.
|
|
|
- Présentation de l'optimisation par descente de gradient
|
|
|
- Principe de la **backpropagation**
|
|
|
- Mise en lumière de l'intérêt pratique des méthode stochastiques
|
|
|
- Exemple proposé : Programmation **à la main** de l'apprentissage d'un réseau convolutif
|
|
|
- Durée : 1h30
|
|
|
- Présentation de l'optimisation par descente de gradient
|
|
|
- Principe de la **backpropagation**
|
|
|
- Mise en lumière de l'intérêt pratique des méthode stochastiques
|
|
|
- Exemple proposé : Programmation **à la main** de l'apprentissage d'un réseau convolutif
|
|
|
- Durée : 1h30
|
|
|
|
|
|
### Séquence 9 : Un détour par PyTorch.
|
|
|
- Présentation générale
|
|
|
- Principes et objets clés pour programmer sous PyTorch
|
|
|
- Exemples : Classification et regression sous PyTorch
|
|
|
- Durée : 1h30
|
|
|
- Présentation générale
|
|
|
- Principes et objets clés pour programmer sous PyTorch
|
|
|
- Exemples : Classification et regression sous PyTorch
|
|
|
- Durée : 1h30
|
|
|
|
|
|
### Séquence 10 : Clôture et bilan
|
|
|
- Pour aller au delà de ce premier contact...
|
... | ... | |