Fidle est une Formation d’Introduction au **Deep Learning**, en 20 séquences. L’objectif de la formation est de presenter les concepts fondamentaux du deep learning puis d’aller jusqu’aux architectures avancées(VAE, Transformers, GAN, ...).
Fidle est une Formation d’Introduction au **Deep Learning**, en 20 séquences. L’objectif de la formation est de presenter les concepts fondamentaux du deep learning puis d’aller jusqu’aux architectures avancées(VAE, Transformers, GAN, ...).
Cette formation est totalement **libre sur youtube, gratuite et ouverte à toutes et à tous** ! Toutes les séquences sont [disponibles en ligne sur notre chaine YouTube](https://youtube.com/@CNRS-FIDLE) :-)
## Prochaine séquence
| **Séquence 8 : Jeudi 1er février 14h :**<br>**Données creuses et embedding - Données séquentielles et réseaux de Neurones Récurrents (RNN)** |
| Une **double séquence** :-) pour aborder **deux familles de réseaux incontournables**, permettant de traiter deux types de données essentielles, les **données creuses** et les **données séquentielles**.<br><br>Dans une **première partie**, nous nous intéresserons aux **données creuses** et nous verrons comment les techniques d'**embedding** ont pu révolutionner le traitement du langage naturel et des données à très grandes dimensions :<br>- One Hot Encoding<br>- Embedding<br>- Exemples : Classification de critiques de cinéma (sentiment analysis)<br><br>Dans la **seconde partie**, nous étudierons les **réseaux de neurones récurrents (RNN)**, permettant de travailler avec des données séquentielles :<br>- Principe des neurones récurrents<br>- Cellules et réseaux récurrents (LSTM, GRU)<br>- Exemples : Prédiction de la trajectoire d'une coccinelle virtuelle !<br><br>Cette séquences est un prérequis important à la séquences sur les **transformers**.<br>Durée : 2h30 |
| En direct sur notre chaine **YouTube** - https://www.youtube.com/@CNRS-FIDLE |
<table>
<tr>
<th>
<b>Séquence 9 : Jeudi 8 février 14h : <br>"Attention Is All You Need", quand les Transformers changent la donne !</b>