... | ... | @@ -32,14 +32,14 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
Préparation des données - Apprentissage - Validation - Sous et sur apprentissage\
|
|
|
Fonctions d’activation - softmax
|
|
|
* Exemples proposés : Régression et Classification avec des DNN
|
|
|
* Durée : 3h
|
|
|
* Jeudi 25 novembre, 14h - Durée : 3h
|
|
|
|
|
|
### Séquence 2 : Réseaux convolutifs, partie 1
|
|
|
|
|
|
* Principes et concepts des **réseaux convolutifs (CNN)**
|
|
|
* Convolutions - Dropout - Pooling
|
|
|
* Exemple proposé : Classification de chiffres manuscrits
|
|
|
* Durée : 2h
|
|
|
* Jeudi 2 décembre, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 3 : Réseaux convolutifs, partie 2
|
|
|
|
... | ... | @@ -47,7 +47,7 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Rappel sur les convolutions - Monitoring et Tensorboard - Augmentation de données\
|
|
|
Passage à l'échelle (du notebook au batch) - Points de reprise (checkpoint)
|
|
|
* Exemple proposé : Classification de panneaux routiers
|
|
|
* Durée : 2h
|
|
|
* Jeudi 9 décembre, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 4 : Démystifier les outils mathématiques
|
|
|
|
... | ... | @@ -55,7 +55,7 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Principe de la backpropagation
|
|
|
* Mise en lumière de l'intérêt pratique des méthodes stochastiques
|
|
|
* Exemple proposé : Programmation à la main de l'apprentissage d'un réseau convolutif
|
|
|
* Durée : 2h30
|
|
|
* Jeudi 16 décembre, 14h - Durée : 2h30
|
|
|
|
|
|
### Séquence 5 : Données creuses de dimensions variables et stratégies d'évaluation des modèles
|
|
|
|
... | ... | @@ -63,21 +63,21 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Spécificités et gestion des données creuses/textuelles
|
|
|
* Principes de l'Embedding (Keras, CBOW, Skip-Gram), comment réduire les dimensions.
|
|
|
* Exemple proposé : Analyse de sentiment avec une analyse de critique de films.
|
|
|
* Durée : 2h
|
|
|
* Jeudi 6 janvier, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 6 : Données séquentielles : quand les données sont des séquences temporelles
|
|
|
|
|
|
* Données séquentielles et réseaux récurrents (RNN)
|
|
|
* RNN - LSTM - GRU - Spécificités des données séquentielles - Data Generator
|
|
|
* Exemple proposée : Prédiction d'une séquence temporelle avec une prédiction météorologique à 3h et 12h
|
|
|
* Durée : 2h
|
|
|
* Jeudi 20 janvier, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 7 : "Attention Is All You Need", quand les Transformers changent la donne
|
|
|
|
|
|
* Nouvelle evolution des modeles
|
|
|
* Fine tuning
|
|
|
* Cas d'usages : BERT, GPT
|
|
|
* Durée : 2h
|
|
|
* Jeudi 27 janvier - Durée : 2h
|
|
|
|
|
|
### Séquence 8 : Autoencodeur (AE) : un exemple d'apprentissage "self supervised"
|
|
|
|
... | ... | @@ -85,7 +85,7 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Espace latent - Convolution classiques et transposées
|
|
|
* Programmation procédurale avec Keras - GPU et batch
|
|
|
* Exemple proposé : Débruitage d'images fortement bruitées
|
|
|
* Durée : 2h
|
|
|
* Jeudi 3 février, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 9 : Variational Autoencoder (VAE) : apprentissage "self supervised", réseau génératif
|
|
|
|
... | ... | @@ -94,7 +94,7 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Projection gaussienne - Génération de données - Morphing dans l'espace latent
|
|
|
* Datasets clusterisés - GPU et batch
|
|
|
* Exemple proposé : Génération de portraits
|
|
|
* Durée : 2h
|
|
|
* Jeudi 10 février, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 10 : Generative Adversarial Networks (GAN)
|
|
|
|
... | ... | @@ -102,14 +102,14 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Generator - Discriminator - Apprentissage
|
|
|
* WGAN et WGAN-GP
|
|
|
* Exemple proposé : A définir
|
|
|
* Durée : 2h
|
|
|
* Jeudi 10 mars, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 11 : Un détour par PyTorch.
|
|
|
|
|
|
* Présentation générale
|
|
|
* Principes et objets clés pour programmer sous PyTorch
|
|
|
* Exemples : Classification et regression sous PyTorch
|
|
|
* Durée : 2h
|
|
|
* Jeudi 17 mars, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 12 : Passer à la vitesse supérieure : Jean-Zay et accélération GPU
|
|
|
|
... | ... | @@ -118,7 +118,7 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Hybrid Parallelism - Pipelines
|
|
|
* Deepspeed - Optimisation du Data parallelism
|
|
|
* Bonnes pratiques pour un apprentissage distribué
|
|
|
* Durée : 2h
|
|
|
* Jeudi 24 mars, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 13 : Introduction au Deep Reinforcement Learning
|
|
|
|
... | ... | @@ -126,7 +126,7 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Deep reinforcement Learning : pour passer à des espaces à hautes dimensionalités via des fonctions d'approximation (45 min)
|
|
|
* Cas d'usage et résultats (30 min)
|
|
|
* Illustrations via des vidéos.
|
|
|
* Durée : 2h
|
|
|
* Jeudi 31 mars, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 14 - AI, droit, société et éthique
|
|
|
|
... | ... | @@ -134,12 +134,12 @@ L'idée est de proposer un **découpage en séquences** relativement courtes, de |
|
|
* Cadre légal
|
|
|
* Privacy
|
|
|
* Session interactive
|
|
|
* Durée : 2h
|
|
|
* Jeudi 7 avril, 14h - Durée : 2h
|
|
|
|
|
|
### Séquence 15 : Clôture et bilan
|
|
|
|
|
|
* Pour aller au delà de ce premier contact...
|
|
|
* Conclusion et bilan
|
|
|
* Durée 1h
|
|
|
* Jeudi 14 avril, 14h - Durée 1h
|
|
|
|
|
|
![](uploads/fd909e4607c0e9858a8088b5f39f60f5/00-fidle-ender-03.svg) |
|
|
\ No newline at end of file |