| ... | @@ -57,7 +57,7 @@ Ce programme est en cours de finition 😀 : |
... | @@ -57,7 +57,7 @@ Ce programme est en cours de finition 😀 : |
|
|
* **`Séquence 20`** : [Cas pratiques / retour d’expérience ](#seq20)
|
|
* **`Séquence 20`** : [Cas pratiques / retour d’expérience ](#seq20)
|
|
|
* **`JDLS2024`** : [Perspective /Futur (JDLS) 👩🔬 ](#jdls)
|
|
* **`JDLS2024`** : [Perspective /Futur (JDLS) 👩🔬 ](#jdls)
|
|
|
|
|
|
|
|
## **`I. Bases, Concepts et enjeux`** <a name='toc1'></a>
|
|
# **`I. Bases, Concepts et enjeux`** <a name='toc1'></a>
|
|
|
|
|
|
|
|
L'apprentissage profond via des réseaux de neurones (Deep Learning) à totalement révolutionné l'Intelligence artificielle ces dernières années et ces incroyables avancées (ChatGPT, Stable Diffusion, DeepL, etc.) soulèvent de nombreuses questions liées à l'éthique, la sécurité, la vie privée et l'impact sur l'emploi.
|
|
L'apprentissage profond via des réseaux de neurones (Deep Learning) à totalement révolutionné l'Intelligence artificielle ces dernières années et ces incroyables avancées (ChatGPT, Stable Diffusion, DeepL, etc.) soulèvent de nombreuses questions liées à l'éthique, la sécurité, la vie privée et l'impact sur l'emploi.
|
|
|
|
|
|
| ... | @@ -114,7 +114,7 @@ Cette première partie est composées de 4 séquences, de novembre à décembre |
... | @@ -114,7 +114,7 @@ Cette première partie est composées de 4 séquences, de novembre à décembre |
|
|
[Back to Home](#toc)
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
|
|
|
|
|
|
## II. Résoudre mon problème avec de l’IA 🛰️ <a name='toc2'></a>
|
|
# `II. Résoudre mon problème avec de l’IA 🛰️ `<a name='toc2'></a>
|
|
|
|
|
|
|
|
L' IA est comme une boîte à outils magique qui peut résoudre toutes sortes de problèmes. Mais avant de pouvoir l'utiliser, il y a quelques choses que nous devons savoir. Imaginez que vous ayez une boîte à outils géniale, mais que vous ne sachiez pas comment l'utiliser. C'est là que les fondamentaux, la base Python et les mathématiques entrent en jeu.
|
|
L' IA est comme une boîte à outils magique qui peut résoudre toutes sortes de problèmes. Mais avant de pouvoir l'utiliser, il y a quelques choses que nous devons savoir. Imaginez que vous ayez une boîte à outils géniale, mais que vous ne sachiez pas comment l'utiliser. C'est là que les fondamentaux, la base Python et les mathématiques entrent en jeu.
|
|
|
|
|
|
| ... | @@ -140,6 +140,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -140,6 +140,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Transfer Learning
|
|
* Transfer Learning
|
|
|
* Fine-Tuning de Modèles Pré-entraînés
|
|
* Fine-Tuning de Modèles Pré-entraînés
|
|
|
* Évaluation des performances des modèles
|
|
* Évaluation des performances des modèles
|
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
* **Séquence 7 : Réseaux convolutifs CNN** <a name='seq7'>
|
|
* **Séquence 7 : Réseaux convolutifs CNN** <a name='seq7'>
|
|
|
|
|
|
|
|
> **Durée: 2h / Jeudi 25 Janvier 2024, 14h**
|
|
> **Durée: 2h / Jeudi 25 Janvier 2024, 14h**
|
| ... | @@ -147,6 +150,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -147,6 +150,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Convolutions - Dropout - Pooling
|
|
* Convolutions - Dropout - Pooling
|
|
|
* Monitoring et Tensorboard - Augmentation de données Passage à l'échelle
|
|
* Monitoring et Tensorboard - Augmentation de données Passage à l'échelle
|
|
|
* Exemple simple de classification de panneaux routiers ou de detections d'objects
|
|
* Exemple simple de classification de panneaux routiers ou de detections d'objects
|
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
* **Séquence 8 : RNN & Transformers** <a name='seq8'>
|
|
* **Séquence 8 : RNN & Transformers** <a name='seq8'>
|
|
|
|
|
|
|
|
> **Durée: 2h / Jeudi 1 février 2024, 14h**
|
|
> **Durée: 2h / Jeudi 1 février 2024, 14h**
|
| ... | @@ -156,6 +162,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -156,6 +162,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)
|
|
* Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)
|
|
|
* Pré-entraînement (BERT et GPT) et Fine tuning
|
|
* Pré-entraînement (BERT et GPT) et Fine tuning
|
|
|
* Utilisation des transformers dans les autres domaines
|
|
* Utilisation des transformers dans les autres domaines
|
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
* **Séquence 9 : Autoencodeur (AE), un exemple d'apprentissage self supervised** <a name='seq9'>
|
|
* **Séquence 9 : Autoencodeur (AE), un exemple d'apprentissage self supervised** <a name='seq9'>
|
|
|
|
|
|
|
|
> **Durée : 2h / jeudi 8 fevrier 2024 , 14h**
|
|
> **Durée : 2h / jeudi 8 fevrier 2024 , 14h**
|
| ... | @@ -163,6 +172,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -163,6 +172,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Espace latent - Convolution classiques et transposées
|
|
* Espace latent - Convolution classiques et transposées
|
|
|
* Programmation procédurale avec pytorch ligthning - GPU et batch
|
|
* Programmation procédurale avec pytorch ligthning - GPU et batch
|
|
|
* Exemple proposé : Débruitage d'images fortement bruitées
|
|
* Exemple proposé : Débruitage d'images fortement bruitées
|
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
* **Séquence 10 : Variational Autoencoder (VAE), jouer avec les espaces latents**
|
|
* **Séquence 10 : Variational Autoencoder (VAE), jouer avec les espaces latents**
|
|
|
|
|
|
|
|
> **Durée : 2h / jeudi 15 fevrier 2024, 14h**
|
|
> **Durée : 2h / jeudi 15 fevrier 2024, 14h**
|
| ... | @@ -171,12 +183,17 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -171,12 +183,17 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Problématique liée aux gros datasets
|
|
* Problématique liée aux gros datasets
|
|
|
* Datasets clusterisés - GPU et batch
|
|
* Datasets clusterisés - GPU et batch
|
|
|
* Exemple proposé : Génération de données
|
|
* Exemple proposé : Génération de données
|
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
* **Séquence 11 : Generative Adversarial Networks (GAN)** <a name='seq11'>
|
|
* **Séquence 11 : Generative Adversarial Networks (GAN)** <a name='seq11'>
|
|
|
|
|
|
|
|
> **Durée : 2h / jeudi 7 Mars 2024, 14h**
|
|
> **Durée : 2h / jeudi 7 Mars 2024, 14h**
|
|
|
* Principes et architecture d'un GAN
|
|
* Principes et architecture d'un GAN
|
|
|
* Generator - Discriminator - Apprentissage
|
|
* Generator - Discriminator - Apprentissage
|
|
|
* WGAN et WGAN-GP
|
|
* WGAN et WGAN-GP
|
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
* **Séquence 12: Travailler avec des données structurées : Graph Neural Network (GNN)** <a name='seq12'>
|
|
* **Séquence 12: Travailler avec des données structurées : Graph Neural Network (GNN)** <a name='seq12'>
|
|
|
|
|
|
|
|
> **Durée : 2h / Jeudi 14 Mars 2024, 14h**
|
|
> **Durée : 2h / Jeudi 14 Mars 2024, 14h**
|
| ... | @@ -184,6 +201,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -184,6 +201,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
- Approches classiques
|
|
- Approches classiques
|
|
|
- Les GNNs
|
|
- Les GNNs
|
|
|
- Cas d'usages
|
|
- Cas d'usages
|
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
* **Séquence 13 : Diffusion model, text to image** <a name='seq13'>
|
|
* **Séquence 13 : Diffusion model, text to image** <a name='seq13'>
|
|
|
|
|
|
|
|
> **Durée : 2h / jeudi 21 Mars 2024, 14h**
|
|
> **Durée : 2h / jeudi 21 Mars 2024, 14h**
|
| ... | @@ -191,6 +211,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -191,6 +211,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Le processus et l’architecture du DDPM
|
|
* Le processus et l’architecture du DDPM
|
|
|
* Améliorations et optimisations des DDPM
|
|
* Améliorations et optimisations des DDPM
|
|
|
* Exemple proposé : Génération d’une garde robe
|
|
* Exemple proposé : Génération d’une garde robe
|
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
* **Séquence 14: Tactiques et stratégies du Deep Reinforcement Learning** <a name='seq14'>
|
|
* **Séquence 14: Tactiques et stratégies du Deep Reinforcement Learning** <a name='seq14'>
|
|
|
|
|
|
|
|
> **Durée : 2h / Jeudi 28 Mars, 14h**
|
|
> **Durée : 2h / Jeudi 28 Mars, 14h**
|
| ... | @@ -198,7 +221,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -198,7 +221,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Deep reinforcement Learning : pour passer à des espaces à hautes dimensionalités via des d'approximation fonctions
|
|
* Deep reinforcement Learning : pour passer à des espaces à hautes dimensionalités via des d'approximation fonctions
|
|
|
* Cas d'usage, résultats et perspectives
|
|
* Cas d'usage, résultats et perspectives
|
|
|
* Illustrations via des vidéos.
|
|
* Illustrations via des vidéos.
|
|
|
*
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
* **Séquence 15 : Des neurones pour la physique, les physics-informed neural networks (PINNS)** <a name='seq15'>
|
|
* **Séquence 15 : Des neurones pour la physique, les physics-informed neural networks (PINNS)** <a name='seq15'>
|
|
|
|
|
|
|
|
> **Durée: 2h / Jeudi 4 avril 2024, 14h**
|
|
> **Durée: 2h / Jeudi 4 avril 2024, 14h**
|
| ... | @@ -211,7 +236,7 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
... | @@ -211,7 +236,7 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
|
|
|
|
|
[Back to Home](#toc)
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
|
## III. Acteur de l’IA, Optimisation, conception, etc. 🛠️ <a name='toc3'></a>
|
|
# `III. Acteur de l’IA, Optimisation, conception, etc. 🛠️ `<a name='toc3'></a>
|
|
|
---
|
|
---
|
|
|
|
|
|
|
|
L' IA est devenue l'un des domaines technologiques les plus influents de notre époque, révolutionnant divers secteurs de l'industrie et de la recherche. Au cœur de cette révolution se trouvent les acteurs de l'IA, des chercheurs et des ingénieurs qui conçoivent, développent et optimisent des systèmes intelligents capables d'apprendre et de prendre des décisions autonomes.
|
|
L' IA est devenue l'un des domaines technologiques les plus influents de notre époque, révolutionnant divers secteurs de l'industrie et de la recherche. Au cœur de cette révolution se trouvent les acteurs de l'IA, des chercheurs et des ingénieurs qui conçoivent, développent et optimisent des systèmes intelligents capables d'apprendre et de prendre des décisions autonomes.
|
| ... | |
... | |
| ... | | ... | |