| Une **double séquence** :-) pour aborder **deux familles de réseaux incontournables**, permettant de traiter deux types de données essentielles, les **données creuses** et les **données séquentielles**.<br><br>Dans une **première partie**, nous nous intéresserons aux **données creuses** et nous verrons comment les techniques d'**embedding** ont pu révolutionner le traitement du langage naturel et des données à très grandes dimensions :<br>- One Hot Encoding<br>- Embedding<br>- Exemples : Classification de critiques de cinéma (sentiment analysis)<br><br>Dans la **seconde partie**, nous étudierons les **réseaux de neurones récurrents (RNN)**, permettant de travailler avec des données séquentielles :<br>- Principe des neurones récurrents<br>- Cellules et réseaux récurrents (LSTM, GRU)<br>- Exemples : Prédiction de la trajectoire d'une coccinelle virtuelle !<br><br>Cette séquences est un prérequis important à la séquences sur les **transformers**.<br>Durée : 2h30 |
<b>Séquence 9 : Jeudi 8 février 14h : <br>"Attention Is All You Need", quand les Transformers changent la donne !</b>
| En direct sur notre chaine **YouTube** - https://www.youtube.com/@CNRS-FIDLE |