... | ... | @@ -57,7 +57,7 @@ Ce programme est en cours de finition 😀 : |
|
|
* **`Séquence 20`** : [Cas pratiques / retour d’expérience ](#seq20)
|
|
|
* **`JDLS2024`** : [Perspective /Futur (JDLS) 👩🔬 ](#jdls)
|
|
|
|
|
|
## **`I. Bases, Concepts et enjeux`** <a name='toc1'></a>
|
|
|
# **`I. Bases, Concepts et enjeux`** <a name='toc1'></a>
|
|
|
|
|
|
L'apprentissage profond via des réseaux de neurones (Deep Learning) à totalement révolutionné l'Intelligence artificielle ces dernières années et ces incroyables avancées (ChatGPT, Stable Diffusion, DeepL, etc.) soulèvent de nombreuses questions liées à l'éthique, la sécurité, la vie privée et l'impact sur l'emploi.
|
|
|
|
... | ... | @@ -114,7 +114,7 @@ Cette première partie est composées de 4 séquences, de novembre à décembre |
|
|
[Back to Home](#toc)
|
|
|
|
|
|
|
|
|
## II. Résoudre mon problème avec de l’IA 🛰️ <a name='toc2'></a>
|
|
|
# `II. Résoudre mon problème avec de l’IA 🛰️ `<a name='toc2'></a>
|
|
|
|
|
|
L' IA est comme une boîte à outils magique qui peut résoudre toutes sortes de problèmes. Mais avant de pouvoir l'utiliser, il y a quelques choses que nous devons savoir. Imaginez que vous ayez une boîte à outils géniale, mais que vous ne sachiez pas comment l'utiliser. C'est là que les fondamentaux, la base Python et les mathématiques entrent en jeu.
|
|
|
|
... | ... | @@ -140,13 +140,19 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Transfer Learning
|
|
|
* Fine-Tuning de Modèles Pré-entraînés
|
|
|
* Évaluation des performances des modèles
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **Séquence 7 : Réseaux convolutifs CNN** <a name='seq7'>
|
|
|
|
|
|
> **Durée: 2h / Jeudi 25 Janvier 2024, 14h**
|
|
|
* Principes et concepts des réseaux convolutifs (CNN)
|
|
|
* Convolutions - Dropout - Pooling
|
|
|
* Monitoring et Tensorboard - Augmentation de données Passage à l'échelle
|
|
|
* Exemple simple de classification de panneaux routiers ou de detections d'objects
|
|
|
* Exemple simple de classification de panneaux routiers ou de detections d'objects
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **Séquence 8 : RNN & Transformers** <a name='seq8'>
|
|
|
|
|
|
> **Durée: 2h / Jeudi 1 février 2024, 14h**
|
... | ... | @@ -155,14 +161,20 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Principe du mécanisme d'attention et du multi-head attention
|
|
|
* Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)
|
|
|
* Pré-entraînement (BERT et GPT) et Fine tuning
|
|
|
* Utilisation des transformers dans les autres domaines
|
|
|
* Utilisation des transformers dans les autres domaines
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **Séquence 9 : Autoencodeur (AE), un exemple d'apprentissage self supervised** <a name='seq9'>
|
|
|
|
|
|
> **Durée : 2h / jeudi 8 fevrier 2024 , 14h**
|
|
|
* Principes et architecture d'un autoencodeur (AE)
|
|
|
* Espace latent - Convolution classiques et transposées
|
|
|
* Programmation procédurale avec pytorch ligthning - GPU et batch
|
|
|
* Exemple proposé : Débruitage d'images fortement bruitées
|
|
|
* Exemple proposé : Débruitage d'images fortement bruitées
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **Séquence 10 : Variational Autoencoder (VAE), jouer avec les espaces latents**
|
|
|
|
|
|
> **Durée : 2h / jeudi 15 fevrier 2024, 14h**
|
... | ... | @@ -170,13 +182,18 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Projection gaussienne - Génération de données - Morphing dans l'espace latent
|
|
|
* Problématique liée aux gros datasets
|
|
|
* Datasets clusterisés - GPU et batch
|
|
|
* Exemple proposé : Génération de données
|
|
|
* Exemple proposé : Génération de données
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
* **Séquence 11 : Generative Adversarial Networks (GAN)** <a name='seq11'>
|
|
|
|
|
|
> **Durée : 2h / jeudi 7 Mars 2024, 14h**
|
|
|
* Principes et architecture d'un GAN
|
|
|
* Generator - Discriminator - Apprentissage
|
|
|
* WGAN et WGAN-GP
|
|
|
* WGAN et WGAN-GP
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **Séquence 12: Travailler avec des données structurées : Graph Neural Network (GNN)** <a name='seq12'>
|
|
|
|
|
|
> **Durée : 2h / Jeudi 14 Mars 2024, 14h**
|
... | ... | @@ -184,13 +201,19 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
- Approches classiques
|
|
|
- Les GNNs
|
|
|
- Cas d'usages
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **Séquence 13 : Diffusion model, text to image** <a name='seq13'>
|
|
|
|
|
|
> **Durée : 2h / jeudi 21 Mars 2024, 14h**
|
|
|
* Principe des Diffusion Model
|
|
|
* Le processus et l’architecture du DDPM
|
|
|
* Améliorations et optimisations des DDPM
|
|
|
* Exemple proposé : Génération d’une garde robe
|
|
|
* Exemple proposé : Génération d’une garde robe
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **Séquence 14: Tactiques et stratégies du Deep Reinforcement Learning** <a name='seq14'>
|
|
|
|
|
|
> **Durée : 2h / Jeudi 28 Mars, 14h**
|
... | ... | @@ -198,7 +221,9 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
* Deep reinforcement Learning : pour passer à des espaces à hautes dimensionalités via des d'approximation fonctions
|
|
|
* Cas d'usage, résultats et perspectives
|
|
|
* Illustrations via des vidéos.
|
|
|
*
|
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
* **Séquence 15 : Des neurones pour la physique, les physics-informed neural networks (PINNS)** <a name='seq15'>
|
|
|
|
|
|
> **Durée: 2h / Jeudi 4 avril 2024, 14h**
|
... | ... | @@ -211,7 +236,7 @@ Cette deuxième partie est composées de 11 séquences, de Janvier à Avril 2024 |
|
|
|
|
|
[Back to Home](#toc)
|
|
|
|
|
|
## III. Acteur de l’IA, Optimisation, conception, etc. 🛠️ <a name='toc3'></a>
|
|
|
# `III. Acteur de l’IA, Optimisation, conception, etc. 🛠️ `<a name='toc3'></a>
|
|
|
---
|
|
|
|
|
|
L' IA est devenue l'un des domaines technologiques les plus influents de notre époque, révolutionnant divers secteurs de l'industrie et de la recherche. Au cœur de cette révolution se trouvent les acteurs de l'IA, des chercheurs et des ingénieurs qui conçoivent, développent et optimisent des systèmes intelligents capables d'apprendre et de prendre des décisions autonomes.
|
... | ... | |