... | @@ -36,27 +36,26 @@ Ce programme est en cours de finition 😀 : |
... | @@ -36,27 +36,26 @@ Ce programme est en cours de finition 😀 : |
|
|
|
|
|
### [II. Résoudre mon problème avec de l’IA 🛰️](#toc2)
|
|
### [II. Résoudre mon problème avec de l’IA 🛰️](#toc2)
|
|
---
|
|
---
|
|
* **`Séquence 5`** : [Mathématiques, gradients everywhere !!!](#seq5)
|
|
* **`Séquence 5`** : [Mathématiques, gradients everywhere !!!](#seq5)
|
|
* **`Séquence 6`** : [Méthodologie des modèles/apprentissage + fine-tuning + TP ](#seq6)
|
|
* **`Séquence 6`** : [Méthodologie des modèles/apprentissage + fine-tuning + TP ](#seq6)
|
|
* **`Séquence 7`** : [Réseaux convolutifs CNN ](#seq7)
|
|
* **`Séquence 7`** : [Réseaux convolutifs CNN ](#seq7)
|
|
* **`Séquence 8`** : [RNN & Transformers](#seq8)
|
|
* **`Séquence 8`** : [RNN & Transformers](#seq8)
|
|
* **`Séquence 9`** : [Autoencodeur (AE), un exemple d'apprentissage self supervised](#seq9)
|
|
* **`Séquence 9`** : [Autoencodeur (AE), un exemple d'apprentissage self supervised](#seq9)
|
|
* **`Séquence 10`** : [Variational Autoencoder (VAE), jouer avec les espaces latents ](#seq10)
|
|
* **`Séquence 10`** : [Variational Autoencoder (VAE), jouer avec les espaces latents ](#seq10)
|
|
* **`Séquence 11`** : [Generative Adversarial Networks (GAN)](#seq11)
|
|
* **`Séquence 11`** : [Generative Adversarial Networks (GAN)](#seq11)
|
|
* **`Séquence 12`** : [Travailler avec des données structurées : Graph Neural Network (GNN)](#seq12)
|
|
* **`Séquence 12`** : [Travailler avec des données structurées : Graph Neural Network (GNN)](#seq12)
|
|
*
|
|
* **`Séquence 13`** : [Diffusion model, text to image ![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)](#seq13)
|
|
* **`Séquence 13`** : [Diffusion model, text to image ![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)](#seq13)
|
|
* **`Séquence 14**` : [Tactiques et stratégies du Deep Reinforcement Learning![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png) ](#seq14)
|
|
* **`Séquence 14**` : [Tactiques et stratégies du Deep Reinforcement Learning![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png) ](#seq14)
|
|
* **`Séquence 15`** : [Des neurones pour la physique, les physics-informed neural networks (PINNS) ![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)](#seq15)
|
|
* **`Séquence 15`** : [Des neurones pour la physique, les physics-informed neural networks (PINNS) ![](uploads/c43a9c778cef4e343062d267ee5f8ffb/00-fidle-piment-x1.png)](#seq15)
|
|
|
|
|
|
|
|
### [III. Acteur de l’IA, Optimisation, conception, etc. 🛠️ ](#toc3)
|
|
### [III. Acteur de l’IA, Optimisation, conception, etc. 🛠️ ](#toc3)
|
|
---
|
|
---
|
|
* **Séquence 16** : Fusion de modèle / multi-modalité
|
|
* **`Séquence 16`** : Fusion de modèle / multi-modalité
|
|
* **Séquence 17** : Apprendre plus vite et moins cher, optimiser l’apprentissage et réduire notre empreinte carbone
|
|
* **`Séquence 17`** : Apprendre plus vite et moins cher, optimiser l’apprentissage et réduire notre empreinte carbone
|
|
* **Séquence 18** : Passer à la vitesse supérieure : l’accélération matérielle
|
|
* **`Séquence 18`** : Passer à la vitesse supérieure : l’accélération matérielle
|
|
* **Séquence 19** : Nouveaux Frameworks d’apprentissage / Nouvelles Technos ![](uploads/bb2d1ee0632181e8d41dcdf9c2f1b517/00-fidle-piment-x2.png)
|
|
* **`Séquence 19`** : Nouveaux Frameworks d’apprentissage / Nouvelles Technos ![](uploads/bb2d1ee0632181e8d41dcdf9c2f1b517/00-fidle-piment-x2.png)
|
|
* **Séquence 20** : Cas pratiques / retour d’expérience
|
|
* **`Séquence 20`** : Cas pratiques / retour d’expérience
|
|
* **JDLS2024** : Perspective /Futur (JDLS) 👩🔬
|
|
* **`JDLS2024`** : Perspective /Futur (JDLS) 👩🔬
|
|
|
|
|
|
## **I. Bases, Concepts et enjeux** <a name='toc1'></a>
|
|
## **I. Bases, Concepts et enjeux** <a name='toc1'></a>
|
|
|
|
|
... | @@ -179,7 +178,7 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -179,7 +178,7 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
* Le processus et l’architecture du DDPM
|
|
* Le processus et l’architecture du DDPM
|
|
* Améliorations et optimisations des DDPM
|
|
* Améliorations et optimisations des DDPM
|
|
* Exemple proposé : Génération d’une garde robe
|
|
* Exemple proposé : Génération d’une garde robe
|
|
* **Séquence 14 : Tactiques et stratégies du Deep Reinforcement Learning**
|
|
* **Séquence 14: Tactiques et stratégies du Deep Reinforcement Learning**
|
|
|
|
|
|
> **Durée : 2h / Jeudi 28 Mars, 14h**
|
|
> **Durée : 2h / Jeudi 28 Mars, 14h**
|
|
* Algorithme de Reinforcement Learning : Q-Learning, SARSA, etc
|
|
* Algorithme de Reinforcement Learning : Q-Learning, SARSA, etc
|
... | | ... | |