... | ... | @@ -13,7 +13,7 @@ La prochaine séquence est : |
|
|
|
|
|
|** Passer à la vitesse supérieure : l’accélération matérielle ?**|
|
|
|
|--|
|
|
|
Les modèles les plus sophistiqués exigent de longs apprentissages pour trouver un ensemble de paramètres satisfaisants relativement à la tâche que l'on souhaite accomplir. Alors que la session 16 explorait différentes méthodes pour accélérer l'apprentissage en explorant plus rapidement le paysage de la loss et donc en réduisant le nombre d'itérations nécessaires pour obtenir un modèle entraîné, cette session se concentre majoritairement sur une utilisation plus sophistiquée du matériel que l'on a potentiellement a disposition pour réaliser un même nombre d'itérations en un temps plus restreint. On pourra également utiliser des optimisations liées à la mémoire pour exploiter plus favorablement notre accélérateur ou pour faire rentrer des modèles plus volumineux en mémoire RAM.<br><br>Au menu de cette séquence : <br>-Introduction sur les supercalculateurs et Jean Zay Présentation <br>- Mémoire consommée par un réseau de neurones profond<br>- Calcul accéléré par carte graphique<br> - Précision Mixte<br>- Notions basiques du calcul distribué <br>- Calcul distribué en Deep Learning par duplication ou découpage du modèle<br>Séquence animée par Nathan Cassereau (CNRS/IDRIS) et Bertrand Cabot (CNRS/IDRIS) <br>Durée : 2h<br><br> <img width=250 src="uploads/f4ed191c0c1b4b568ec67b03fb812916/Acceleration.jpg">
|
|
|
Les modèles les plus sophistiqués exigent de longs apprentissages pour trouver un ensemble de paramètres satisfaisants relativement à la tâche que l'on souhaite accomplir. Alors que la session 16 explorait différentes méthodes pour accélérer l'apprentissage en explorant plus rapidement le paysage de la loss et donc en réduisant le nombre d'itérations nécessaires pour obtenir un modèle entraîné, cette session se concentre majoritairement sur une utilisation plus sophistiquée du matériel que l'on a potentiellement a disposition pour réaliser un même nombre d'itérations en un temps plus restreint. On pourra également utiliser des optimisations liées à la mémoire pour exploiter plus favorablement notre accélérateur ou pour faire rentrer des modèles plus volumineux en mémoire RAM.<br><br>Au menu de cette séquence : <br>-Introduction sur les supercalculateurs et Jean Zay Présentation <br>- Mémoire consommée par un réseau de neurones profond<br>- Calcul accéléré par carte graphique<br> - Précision Mixte<br>- Notions basiques du calcul distribué <br>- Calcul distribué en Deep Learning par duplication ou découpage du modèle<br>Séquence animée par Nathan Cassereau (CNRS/IDRIS) et Bertrand Cabot (CNRS/IDRIS) <br><br>Durée : 2h<br><br> <img width=250 src="uploads/f4ed191c0c1b4b568ec67b03fb812916/Acceleration.jpg">
|
|
|
|
|
|
A propos de la **[formation Fidle](https://fidle.cnrs.fr/presentation)**
|
|
|
Découvrez le **[programme 2022/23](Fidle à distance/Programme)**
|
... | ... | |