... | @@ -132,7 +132,20 @@ Le calendrier des séquences suivantes sera discuté ensemble. |
... | @@ -132,7 +132,20 @@ Le calendrier des séquences suivantes sera discuté ensemble. |
|
- Distribution du calcul - Data Parallelism - Model Parallelism<br>
|
|
- Distribution du calcul - Data Parallelism - Model Parallelism<br>
|
|
Hybrid Parallelism - Pipelines
|
|
Hybrid Parallelism - Pipelines
|
|
|
|
|
|
### Séquence 8 : Clôture et bilan
|
|
### Séquence 8 : Démystifier les outils mathématiques pour l'apprentissage des réseaux de neurones.
|
|
|
|
- Présentation de l'optimisation par descente de gradient
|
|
|
|
- Principe de la **backpropagation**
|
|
|
|
- Mise en lumière de l'intérêt pratique des méthode stochastiques
|
|
|
|
- Exemple proposé : Programmation **à la main** de l'apprentissage d'un réseau convolutif
|
|
|
|
- Durée : 1h30
|
|
|
|
|
|
|
|
### Séquence 9 : Un détour par PyTorch.
|
|
|
|
- Présentation générale
|
|
|
|
- Principes et objets clés pour programmer sous PyTorch
|
|
|
|
- Exemples : Classification et regression sous PyTorch
|
|
|
|
- Durée : 1h30
|
|
|
|
|
|
|
|
### Séquence 10 : Clôture et bilan
|
|
- Pour aller au delà de ce premier contact...
|
|
- Pour aller au delà de ce premier contact...
|
|
- Conclusion et bilan
|
|
- Conclusion et bilan
|
|
- Durée 1h
|
|
- Durée 1h
|
... | | ... | |