... | @@ -19,7 +19,7 @@ Cette formation est totalement **libre sur youtube, gratuite et ouverte à toute |
... | @@ -19,7 +19,7 @@ Cette formation est totalement **libre sur youtube, gratuite et ouverte à toute |
|
|
|
|
|
[<img src="uploads/4797adb819344ac2e7b36bff0ebd94db/Live-9a-xs.png" width=400px>](https://www.youtube.com/@CNRS-FIDLE)
|
|
[<img src="uploads/4797adb819344ac2e7b36bff0ebd94db/Live-9a-xs.png" width=400px>](https://www.youtube.com/@CNRS-FIDLE)
|
|
|
|
|
|
De ChatGPT à DeepL ou AlphaFold, les **Transformers** sont **omniprésents** et ont<br>objectivement **révolutionnés** **le monde de l'IA** :-)
|
|
De ChatGPT à DeepL ou AlphaFold, les **Transformers** sont **omniprésents** et ont objectivement **révolutionnés** **le monde de l'IA** :-)
|
|
|
|
|
|
Proposé par **Ashish Vaswani** \[1\] en **2017**, sous le titre **"Attention Is All You Need"**, les **Transformers** sont des réseaux de type "séquence to sequences", tout comme les RNN vus lors de la dernière séquence. Leur force réside dans leur capacité à **pondérer l'importance** de **chaque terme** de la séquence et à être fortement parallélisables.<br>
|
|
Proposé par **Ashish Vaswani** \[1\] en **2017**, sous le titre **"Attention Is All You Need"**, les **Transformers** sont des réseaux de type "séquence to sequences", tout comme les RNN vus lors de la dernière séquence. Leur force réside dans leur capacité à **pondérer l'importance** de **chaque terme** de la séquence et à être fortement parallélisables.<br>
|
|
|
|
|
... | | ... | |