@@ -21,26 +21,21 @@ Cette formation est totalement **libre sur youtube, gratuite et ouverte à toute
...
@@ -21,26 +21,21 @@ Cette formation est totalement **libre sur youtube, gratuite et ouverte à toute
De ChatGPT à DeepL ou AlphaFold, les **Transformers** sont **omniprésents** et ont<br>objectivement **révolutionnés****le monde de l'IA** :-)
De ChatGPT à DeepL ou AlphaFold, les **Transformers** sont **omniprésents** et ont<br>objectivement **révolutionnés****le monde de l'IA** :-)
Proposé par **Ashish Vaswani**\[1\] en **2017**, sous le titre **"Attention Is All You Need"**,\
Proposé par **Ashish Vaswani**\[1\] en **2017**, sous le titre **"Attention Is All You Need"**, les **Transformers** sont des réseaux de type "séquence to sequences", tout comme les RNN vus lors de la dernière séquence. Leur force réside dans leur capacité à **pondérer l'importance** de **chaque terme** de la séquence et à être fortement parallélisables.<br>
les **Transformers** sont des réseaux de type "séquence to sequences", tout comme \
les RNN vus lors de la dernière séquence. Leur force réside dans leur capacité \
Au menu de cet épisode :<br>
à **pondérer l'importance** de **chaque terme** de la séquence et à être fortement \
- **Concept** et **utilisation** des transformers<br>
parallélisables.<br>
- Principe du **mécanisme d'attention** et du **multi-head attention**<br>
Au menu de cet épisode :\
- **Architectures** des transformers (auto-regressive, auto-encoding et encoder decoder)<br>
- **Concept** et **utilisation** des transformers\
- **Pré-entraînement** (BERT et GPT)<br>
- Principe du **mécanisme d'attention** et du **multi-head attention**\
- **Fine tuning**<br>
- **Architectures** des transformers (auto-regressive, auto-encoding et encoder decoder)\
- **Utilisation** des transformers dans les autres domaines<br>
- **Pré-entraînement** (BERT et GPT)\
- **Fine tuning**\
- **Utilisation** des transformers dans les autres domaines\
\
Cette séquences est un prérequis important à la séquences sur les **transformers**.\
Durée : 2h00
Durée : 2h00
</td>
</td>
</tr>
</tr>
<tr>
<tr>
<td>
<td>
En direct sur notre chaine **YouTube** - https://www.youtube.com/@CNRS-FIDLE
En direct sur notre chaine **YouTube** - https://www.youtube.com/@CNRS-FIDLE