... | ... | @@ -52,21 +52,21 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Historique et concepts fondamentaux des réseaux de neurones Fonction de perte - Descente de gradient - Optimisation - Hyperparamètres Préparation des données - Apprentissage - Validation - Sous et sur apprentissage Fonctions d’activation - softmax
|
|
|
- Exemples proposés : Régression et Classification avec des DNN
|
|
|
- Durée : 3h / Jeudi 17 novembre 2022, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 2 : Réseaux convolutifs, partie 1
|
|
|
- Principes et concepts des réseaux convolutifs (CNN)
|
|
|
- Convolutions - Dropout - Pooling
|
|
|
- Exemple proposé : Classification de chiffres manuscrits
|
|
|
- Durée : 2h / Jeudi 24 novembre 2022, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 3 : Réseaux convolutifs, partie 2
|
|
|
- Quand les datasets et les calculs grossissent, problématiques liées à la gestion des données
|
|
|
- Rappel sur les convolutions - Monitoring et Tensorboard - Augmentation de données Passage à l'échelle (du notebook au batch) - Points de reprise (checkpoint)
|
|
|
- Exemple proposé : Classification de panneaux routiers
|
|
|
- Durée : 2h / Jeudi 1er décembre 2022, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 4 : Démystifier les outils mathématiques
|
|
|
- Présentation mathématique de l'optimisation par descente de gradient
|
... | ... | @@ -74,7 +74,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Mise en lumière de l'intérêt pratique des méthodes stochastiques
|
|
|
- Exemple proposé : Programmation à la main de l'apprentissage d'un réseau convolutif
|
|
|
- Durée : 2h30 / Jeudi 8 décembre 2022, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
|
|
|
### Séquence 5 : <br>Stratégies d'évaluation des modèles<br>Données creuses et de type textuelles (Embedding)
|
... | ... | @@ -83,21 +83,21 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Principes de l'Embedding (Keras, CBOW, Skip-Gram), comment réduire les dimensions.
|
|
|
- Exemple proposé : Analyse de sentiment avec une analyse de critique de films.
|
|
|
- Durée : 2h / Jeudi 15 décembre 2022, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 6 : Quand les données sont des séquences, les réseaux récurrents (RNN)
|
|
|
- Données séquentielles et réseaux récurrents (RNN)
|
|
|
- RNN - LSTM - GRU - Spécificités des données séquentielles - Data Generator
|
|
|
- Exemple proposée : Prédiction d'une séquence temporelle avec une prédiction météorologique à 3h et 12h
|
|
|
- Durée : 2h / Jeudi 5 janvier 2023, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 7 : Un détour par PyTorch.
|
|
|
- Présentation générale
|
|
|
- Principes et objets clés pour programmer sous PyTorch
|
|
|
- Exemples : Classification et regression sous PyTorch
|
|
|
- Durée : 2h / Jeudi 12 janvier 2023, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 8 : "Attention Is All You Need", quand les Transformers changent la donne
|
|
|
- Utilisation et l'architecture classique des transformers
|
... | ... | @@ -108,7 +108,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Utilisation des transformers dans les autres domaines
|
|
|
- Durée : 2h / Jeudi 19 janvier 2023, 14h
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 9 : Travailler avec des données structurées : Graph Neural Network(GNN) (New !)
|
|
|
- Omniprésence et problématique des graphes
|
... | ... | @@ -117,7 +117,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Cas d’usages
|
|
|
- Durée : 2h / Jeudi 26 janvier 2023, 14h
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 10 : Autoencodeur (AE), un exemple d'apprentissage "self supervised"
|
|
|
- Principes et architecture d'un autoencodeur (AE)
|
... | ... | @@ -125,7 +125,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Programmation procédurale avec Keras - GPU et batch
|
|
|
- Exemple proposé : Débruitage d'images fortement bruitées
|
|
|
- Durée : 2h / Jeudi 2 février 2023
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 11 : Variational Autoencoder (VAE), jouer avec les espaces latents
|
|
|
- Principes et architecture d’un Variational AutoEncodeur (VAE)
|
... | ... | @@ -135,13 +135,13 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Exemple proposé : Génération de portraits
|
|
|
- Durée : 2h / Jeudi 9 février 2023, 14h
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 12 : Revue de projet Fidle
|
|
|
- Séquence participative et ouverte
|
|
|
- Durant cette séquence, chacun sera invité à présenter, s'il le souhaite, son ou ses projets
|
|
|
- Durée : 1 à 2h / Jeudi 2 mars 2023, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#roc)
|
|
|
|
|
|
|
|
|
### Séquence 13 : Generative Adversarial Networks (GAN)
|
... | ... | @@ -151,7 +151,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Exemple proposé : A définir
|
|
|
- Durée : 2h / Jeudi 9 mars 2023, 14h
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 14 : Diffusion model, text to image (New !)
|
|
|
- Principes
|
... | ... | @@ -159,7 +159,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Durée : 2h / Jeudi 16 mars 2023, 14h
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 15 - AI, droit, société et éthique
|
|
|
- Interprétabilité, reproductibilité, biais
|
... | ... | @@ -167,7 +167,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Privacy
|
|
|
- Session interactive
|
|
|
- Durée : 2h / Jeudi 23 mars 2023, 14h
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 16 : Apprendre plus vite et moins cher, optimiser l’apprentissage (New !)
|
|
|
- Techniques d’optimisation
|
... | ... | @@ -176,7 +176,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Pour un poids optimal des données, utiliser le bon format de données
|
|
|
- Durée : 2h / Jeudi 30 mars 2023, 14h
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 17 : Passer à la vitesse supérieure : l’accélération matérielle
|
|
|
- Présentation de Jean-Zay et calcul sur GPU
|
... | ... | @@ -187,7 +187,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Durée : 2h / Jeudi 6 avril 2023
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 18 : Des neurones pour la physique, les physics-informed neural networks (PINNS) (New !)
|
|
|
- Problématique et concepts
|
... | ... | @@ -195,7 +195,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Durée : 2h / Jeudi 13 avril 2023, 14h
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 19 : Introduction au Deep Reinforcement Learning
|
|
|
- Algorithme de Reinforcement Learning : Q-Learning, SARSA, etc (45 min)
|
... | ... | @@ -205,7 +205,7 @@ Contenus avancé, pour aller plus loin :-) |
|
|
- Durée : 3h / Jeudi 4 mai 2023, 14h
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)
|
|
|
<br>[back to home](#)
|
|
|
<br>[back to home](#toc)
|
|
|
|
|
|
### Séquence 20 : L’IA d’aujourd’hui et de bientôt demain, Bilan de saison
|
|
|
- Grandes avancées de l’année
|
... | ... | |