... | @@ -9,11 +9,11 @@ allant des concepts fondamentaux aux architectures avancées (VAE, Transformers, |
... | @@ -9,11 +9,11 @@ allant des concepts fondamentaux aux architectures avancées (VAE, Transformers, |
|
Les séquences précédentes sont [disponibles en ligne sur notre chaine YouTube](https://youtube.com/@CNRS-FIDLE) :-)
|
|
Les séquences précédentes sont [disponibles en ligne sur notre chaine YouTube](https://youtube.com/@CNRS-FIDLE) :-)
|
|
La prochaine séquence est :
|
|
La prochaine séquence est :
|
|
|
|
|
|
## Séquence 16 : Jeudi 30 mars 2023, 14h
|
|
## Séquence 17 : Jeudi 12 avril 2023, 14h
|
|
|
|
|
|
|**Apprendre plus vite et de manière plus sobre, comment optimiser l’apprentissage ?**|
|
|
|** Passer à la vitesse supérieure : l’accélération matérielle ?**|
|
|
|--|
|
|
|--|
|
|
|**L'optimisation de l'apprentissage** est un enjeu environnemental essentiel, dont l'objectif est de permettre un apprentissage sobre, rapide et efficace, en s’appuyant sur un ensemble de techniques et d'outils tels que l'optimisation des hyperparamètres, la collecte de données de qualité, le choix du bon algorithme pour résoudre une tache spécifique, la normalisation de données, etc...<br><br> **Le _transfer learning_ ou apprentissage par transfert** est une technique de _machine learning_ qui consiste à utiliser un modèle préalablement entraîné à résoudre une tâche donnée à partir d'un grand ensemble de données (modèle pré-entrainé), en vue de lui permettre de résoudre une tâche similaire, généralement plus précise à partir d'un grand ou petit ensemble de données. Cette technique implique également d'ajuster les paramètres du modèle pré-entrainé pour mieux s'adapter au nouvel ensemble de données.<br><br>Au menu de cette séquence : <br>- Techniques d’optimisation<br>- Affinage des hyperparamètres<br>- Quand le recyclage est une force : Le transfert learning<br>- Pour un poids optimal des données, utiliser le bon format de données .<br><br>Séquence animée par Kamel Guerda (CNRS/IDRIS) et Léo Hunout (CNRS/IDRIS)<br>Durée : 2h<br><br>[<img width=250 src="uploads/88931b42a1381a0fe48af9bfeeb460ef/cible.png">](#) [<img width=250 src="uploads/b805df8789dec449ba7eac2e0d3553be/optimization.png">](#)
|
|
|**L'optimisation de l'apprentissage** est un enjeu environnemental essentiel, dont l'objectif est de permettre un apprentissage sobre, rapide et efficace, en s’appuyant sur un ensemble de techniques et d'outils tels que l'optimisation des hyperparamètres, la collecte de données de qualité, le choix du bon algorithme pour résoudre une tache spécifique, la normalisation de données, etc...<br><br> **Le _transfer learning_ ou apprentissage par transfert** est une technique de _machine learning_ qui consiste à utiliser un modèle préalablement entraîné à résoudre une tâche donnée à partir d'un grand ensemble de données (modèle pré-entrainé), en vue de lui permettre de résoudre une tâche similaire, généralement plus précise à partir d'un grand ou petit ensemble de données. Cette technique implique également d'ajuster les paramètres du modèle pré-entrainé pour mieux s'adapter au nouvel ensemble de données.<br><br>Au menu de cette séquence : <br>- Présentation de Jean-Zay et calcul sur GPU<br>- Distribution du calcul - Data Parallelism - Model Parallelism<br>- Hybrid Parallelism - Pipelines<br>- Deepspeed - Optimisation du Data parallelism <br> - Bonnes pratiques pour un apprentissage distribué<br> <br>Séquence animée par Kamel Guerda (CNRS/IDRIS) et Léo Hunout (CNRS/IDRIS)<br>Durée : 2h<br><br>[<img width=250 src="uploads/88931b42a1381a0fe48af9bfeeb460ef/cible.png">](#) [<img width=250 src="uploads/b805df8789dec449ba7eac2e0d3553be/optimization.png">](#)
|
|
|
|
|
|
A propos de la **[formation Fidle](https://fidle.cnrs.fr/presentation)**
|
|
A propos de la **[formation Fidle](https://fidle.cnrs.fr/presentation)**
|
|
Découvrez le **[programme 2022/23](Fidle à distance/Programme)**
|
|
Découvrez le **[programme 2022/23](Fidle à distance/Programme)**
|
... | | ... | |