... | ... | @@ -28,9 +28,10 @@ Cette journée est organisée par **l'IDRIS** et **l'ANF Fidle**, avec le soutie |
|
|
|
|
|
## Séquence 17 : Jeudi 13 avril 2023, 14h
|
|
|
|
|
|
|**Passer à la vitesse supérieure : l’accélération matérielle ?**|
|
|
|
|**Deep Reinforcement Learning : Tactiques et Stratégies?**|
|
|
|
|--|
|
|
|
Les modèles les plus sophistiqués exigent de longs apprentissages pour trouver un ensemble de paramètres satisfaisants relativement à la tâche que l'on souhaite accomplir. Alors que la session 16 explorait différentes méthodes pour accélérer l'apprentissage en explorant plus rapidement le paysage de la loss et donc en réduisant le nombre d'itérations nécessaires pour obtenir un modèle entraîné, cette session se concentre majoritairement sur une utilisation plus sophistiquée du matériel que l'on a potentiellement a disposition pour réaliser un même nombre d'itérations en un temps plus restreint. On pourra également utiliser des optimisations liées à la mémoire pour exploiter plus favorablement notre accélérateur ou pour faire rentrer des modèles plus volumineux en mémoire RAM.<br><br>Au menu de cette séquence :<br> <br>- Introduction sur les supercalculateurs et Jean Zay Présentation <br>- Mémoire consommée par un réseau de neurones profond<br>- Calcul accéléré par carte graphique<br> - Précision Mixte<br>- Notions basiques du calcul distribué <br>- Calcul distribué en Deep Learning par duplication ou découpage du modèle<br><br>Séquence animée par Nathan Cassereau (CNRS/IDRIS) et Bertrand Cabot (CNRS/IDRIS) Durée : 2h<br><br> <img width=350 src="uploads/4176584740be4a33b911213de384f759/Acceleration2-m.jpg">
|
|
|
La 3e catégorie du machine learning "par renforcement", après le supervisé et le non supervisé a percuté aussi la révolution du Deep Learning, ce qui a permis une accélération du développement de la robotique, de faire gagner des IA à n'importe quel jeu vidéo contre les meilleures des adversaires humains (AlphaGo), d'élaborer des stratégies ou des tactiques; et ce qui a même dernièrement participé au succès de ChatGPT (grâce au RLHF).
|
|
|
Cette séquence mériterait de nombreuses heures tant le domaine est spécifique et complexe. Mais, nous essayerons ensemble de retracer rapidement le chemin parcouru au XXe siècle et tout récemment au XXIe siècle et de comprendre les enjeux et la technique derrière ces IA bluffantes..<br><br>Au menu de cette séquence :<br> <br>- Introduction sur les supercalculateurs et Jean Zay Présentation <br>- Mémoire consommée par un réseau de neurones profond<br>- Calcul accéléré par carte graphique<br> - Précision Mixte<br>- Notions basiques du calcul distribué <br>- Calcul distribué en Deep Learning par duplication ou découpage du modèle<br><br>Séquence animée par Nathan Cassereau (CNRS/IDRIS) et Bertrand Cabot (CNRS/IDRIS) Durée : 2h<br><br> <img width=350 src="uploads/4176584740be4a33b911213de384f759/Acceleration2-m.jpg">
|
|
|
|
|
|
|
|
|
A propos de la **[formation Fidle](https://fidle.cnrs.fr/presentation)**
|
... | ... | |