... | ... | @@ -107,11 +107,9 @@ Cette première partie est composées de 4 séquences, de novembre à décembre |
|
|
* **`Séquence 3 : Démo / illustration (LLM + génération d’image)`**
|
|
|
|
|
|
> **Durée : 2h / Jeudi 30 novembre 2023, 14h**
|
|
|
* Une démonstration complète pour tout voir et tout comprendre !
|
|
|
* Objectif : Mettre en œuvre une IA conversationnelle, capable de générer des images
|
|
|
* Configuration d'un Modèle de Langage (LLM)
|
|
|
* Utilisez un modèle de langage pour générer une description textuelle de l'image.
|
|
|
* Utilisez un modèle de génération d'image pour créer une image à partir d'une description
|
|
|
* Des démonstrations, génération de texte, code, images, audio, vidéo
|
|
|
* Des services disponibles pour des applications pratiques
|
|
|
* Des questions et échanges sur ces nouveaux outils
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
... | ... | @@ -148,8 +146,7 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
|
|
|
> **Durée : 2h / Jeudi 18 Janvier 2024, 14h**
|
|
|
* Présentation de l'apprentissage automatique et des différents types de modèles
|
|
|
* Transfer Learning
|
|
|
* Fine-Tuning de Modèles Pré-entraînés
|
|
|
* Transfer Learning, Fine-Tuning de Modèles dèjà entraînés
|
|
|
* Évaluation des performances des modèles
|
|
|
|
|
|
[Back to Home](#toc)
|
... | ... | @@ -160,13 +157,23 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Principes et concepts des réseaux convolutifs (CNN)
|
|
|
* Convolutions - Dropout - Pooling
|
|
|
* Monitoring et Tensorboard - Augmentation de données Passage à l'échelle
|
|
|
* Exemple simple de classification de panneaux routiers ou de detections d'objects
|
|
|
* Exemple simple de classification de panneaux routiers ou de detections d'objects, segmentation etc..
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 8 : RNN & Transformers`**
|
|
|
* **`Séquence 8 : RNN et Embedding`**
|
|
|
|
|
|
> **Durée: 2h / Jeudi 1 février 2024, 14h**
|
|
|
> **Durée: 2h / Jeudi 1 février 2024, 14h**
|
|
|
* Stratégies d'évaluation des modèles - Hold out, iterative hold out, k-fold, etc.
|
|
|
* Spécificités et gestion des données creuses/textuelles
|
|
|
* Principes de l'Embedding (Keras, CBOW, Skip-Gram), comment réduire les dimensions.
|
|
|
* Exemple proposé : Analyse de sentiment avec une analyse de critique de films.
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 9 : RNN & Transformers`**
|
|
|
|
|
|
> **Durée: 2h / Jeudi 8 février 2024, 14h**
|
|
|
* Au tout début étaient les RNN
|
|
|
* Utilisation et l'architecture classique des transformers
|
|
|
* Principe du mécanisme d'attention et du multi-head attention
|
... | ... | @@ -176,9 +183,19 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 9 : Autoencodeur (AE), un exemple d'apprentissage self supervised`**
|
|
|
* **`Séquence 10: Travailler avec des données structurées` : Graph Neural Network (GNN)**
|
|
|
|
|
|
> **Durée : 2h / jeudi 8 fevrier 2024 , 14h**
|
|
|
> **Durée : 2h / Jeudi 15 fevrier 2024, 14h**
|
|
|
- Omniprésence et problématique des graphes
|
|
|
- Approches classiques
|
|
|
- Les GNNs
|
|
|
- Cas d'usages
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 11 : Autoencodeur (AE), un exemple d'apprentissage self supervised`**
|
|
|
|
|
|
> **Durée : 2h / jeudi 7 Mars 2024 , 14h**
|
|
|
* Principes et architecture d'un autoencodeur (AE)
|
|
|
* Espace latent - Convolution classiques et transposées
|
|
|
* Programmation procédurale avec pytorch ligthning - GPU et batch
|
... | ... | @@ -186,9 +203,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 10 : Variational Autoencoder (VAE), jouer avec les espaces latents`**
|
|
|
* **`Séquence 12 : Variational Autoencoder (VAE), jouer avec les espaces latents`**
|
|
|
|
|
|
> **Durée : 2h / jeudi 15 fevrier 2024, 14h**
|
|
|
> **Durée : 2h / jeudi 15 Mars 2024, 14h**
|
|
|
* Principes et architecture d’un Variational AutoEncodeur (VAE)
|
|
|
* Projection gaussienne - Génération de données - Morphing dans l'espace latent
|
|
|
* Problématique liée aux gros datasets
|
... | ... | @@ -197,26 +214,16 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 11 : Generative Adversarial Networks (GAN)`**
|
|
|
* **`Séquence 13 : Generative Adversarial Networks (GAN)`**
|
|
|
|
|
|
> **Durée : 2h / jeudi 7 Mars 2024, 14h**
|
|
|
> **Durée : 2h / jeudi 21 Mars 2024, 14h**
|
|
|
* Principes et architecture d'un GAN
|
|
|
* Generator - Discriminator - Apprentissage
|
|
|
* WGAN et WGAN-GP
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 12: Travailler avec des données structurées` : Graph Neural Network (GNN)**
|
|
|
|
|
|
> **Durée : 2h / Jeudi 14 Mars 2024, 14h**
|
|
|
- Omniprésence et problématique des graphes
|
|
|
- Approches classiques
|
|
|
- Les GNNs
|
|
|
- Cas d'usages
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 13 : Diffusion model, text to image`**
|
|
|
* **`Séquence 14 : Diffusion model, text to image`**
|
|
|
|
|
|
> **Durée : 2h / jeudi 21 Mars 2024, 14h**
|
|
|
* Principe des Diffusion Model
|
... | ... | @@ -226,9 +233,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 14: Tactiques et stratégies du Deep Reinforcement Learning`**
|
|
|
* **`Séquence 15: Tactiques et stratégies du Deep Reinforcement Learning`**
|
|
|
|
|
|
> **Durée : 2h / Jeudi 28 Mars, 14h**
|
|
|
> **Durée : 3h / Jeudi 4 Avril, 14h**
|
|
|
* Algorithme de Reinforcement Learning : Q-Learning, SARSA, etc
|
|
|
* Deep reinforcement Learning : pour passer à des espaces à hautes dimensionalités via des d'approximation fonctions
|
|
|
* Cas d'usage, résultats et perspectives
|
... | ... | @@ -236,9 +243,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 15 : Des neurones pour la physique, les physics-informed neural networks (PINNS)`**
|
|
|
* **`Séquence 16 : Des neurones pour la physique, les physics-informed neural networks (PINNS)`**
|
|
|
|
|
|
> **Durée: 2h / Jeudi 4 avril 2024, 14h**
|
|
|
> **Durée: 2h / Jeudi 11 avril 2024, 14h**
|
|
|
* Problématique et concepts
|
|
|
* Qu'est ce qu'un PINNS
|
|
|
* Exemple de résolution de probléme diret ( cas classique)
|
... | ... | @@ -256,17 +263,6 @@ L'optimisation, tant au niveau des modèles que des algorithmes, est un pilier e |
|
|
|
|
|
Cette partie presentera 5 séquences :
|
|
|
|
|
|
* **`Séquence 16 : Fusion de modèle / multi-modalité`**
|
|
|
|
|
|
> **Durée : 2h / jeudi 11 avril, 14h**
|
|
|
- Présentation de la fusion de modèles et de l'apprentissage multi-modal
|
|
|
- Types de données multimodales (texte, image, audio, etc.).
|
|
|
- Méthodes de fusion (concaténation, pondération, modèles d'apprentissage profond, etc.)
|
|
|
- Préparation des données multimodales pour la fusion
|
|
|
- TP - Mise en œuvre de la fusion de modèles profonds.
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 17 : Apprendre plus vite et moins cher, optimiser l’apprentissage et réduire notre empreinte carbone`**
|
|
|
|
|
|
> **Durée : 2h / jeudi 2 mai, 14h**
|
... | ... | @@ -288,6 +284,19 @@ Cette partie presentera 5 séquences : |
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 18 : systèmes complexes et multi-modalité`**
|
|
|
|
|
|
> **Durée : 2h / jeudi 16 mai, 14h**
|
|
|
* Système de modèles IA
|
|
|
* Tools/plugins
|
|
|
* Présentation de la fusion de modèles et de l'apprentissage multi-modal
|
|
|
* Types de données multimodales (texte, image, audio, etc.).
|
|
|
* Méthodes de fusion (concaténation, pondération, modèles d'apprentissage profond, etc.)
|
|
|
* Préparation des données multimodales pour la fusion
|
|
|
* TP - Mise en œuvre de la fusion de modèles profonds.
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **`Séquence 19 : Nouveaux Frameworks d’apprentissage / Nouvelles Technos`**
|
|
|
|
|
|
> **Durée : 2h / Jeudi 23 mai, 14h**
|
... | ... | |