diff --git a/README.ipynb b/README.ipynb
index 70e1a729ece6ebac732e1d4f3b4d8e8771839528..9e90c1992ee10ef28bd7715a4c9d1756d3cbcd62 100644
--- a/README.ipynb
+++ b/README.ipynb
@@ -3,13 +3,13 @@
   {
    "cell_type": "code",
    "execution_count": 1,
-   "id": "organized-glance",
+   "id": "committed-compensation",
    "metadata": {
     "execution": {
-     "iopub.execute_input": "2021-03-26T17:14:55.585747Z",
-     "iopub.status.busy": "2021-03-26T17:14:55.585295Z",
-     "iopub.status.idle": "2021-03-26T17:14:55.594533Z",
-     "shell.execute_reply": "2021-03-26T17:14:55.593815Z"
+     "iopub.execute_input": "2021-04-06T14:32:12.633972Z",
+     "iopub.status.busy": "2021-04-06T14:32:12.633082Z",
+     "iopub.status.idle": "2021-04-06T14:32:12.655867Z",
+     "shell.execute_reply": "2021-04-06T14:32:12.656581Z"
     },
     "jupyter": {
      "source_hidden": true
@@ -39,12 +39,12 @@
        "\n",
        "**- Prochain rendez-vous -**  \n",
        "\n",
-       "\n",
-       "|**Jeudi 1er avril, 14h, Séquence 7 : <br>Le Supercalculateur Jean Zay - Accélération GPU et apprentissage distribué.**|\n",
+       "|**Jeudi 8 avril, 14h, Séquence 8 : <br>Démystifier les outils mathématiques pour l'apprentissage des réseaux de neurones.**|\n",
        "|--|\n",
-       "|Accès et utilisation de Jean Zay.<br>Optimisation des accélérations GPU<br>Apprentissage distribué sur plusieurs GPU<br>Exemple proposé :<br>Mise en œuvre d'une classification \"from scratch\" d'Imagenet optimisée et distribuée sur plusieurs GPU.|\n",
+       "|Mise en jambe : Qu-est ce qu'une descente de gradient ?<br>Partie 1 : Comment est calculé le gradient dans les réseaux de neurones (retro-propagation) ?<br> Partie 2 : Comment le réseau transforme couche après couche une donnée d'entrée en prédiction ?<br>Partie 3 : \"Stochastique\"... c'est quoi ? Quel intérêt pour l'apprentissage des réseaux de neurones ?<br><br>Illustrations :<br> - Mise en jambe : Descente de gradient en régression linéaire (le réseau de neurones le plus simple !)<br> - Partie 1 : Rétro-propagation 'à la main' sur un réseau avec des couches denses et convolutionnelles<br> - Partie 2 : Transformation d'un image couche après couche dans un réseau convolutionnel|\n",
        "|Durée : 2h - Les paramètres de diffusion seront [précisés la veille dans le wiki](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref) |\n",
        "\n",
+       "\n",
        "A propos de **[Fidle à distance](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref)**\\\n",
        "Voir le [programme](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/Pr%C3%A9sentation#programme-)\\\n",
        "Voir ou revoir les [vidéos](https://www.youtube.com/channel/UC4Sukzudhbwr6fs10cXrJsQ)\n",
diff --git a/README.md b/README.md
index d8172655464c157606043566e7fb50aca58d9e8d..54683c448331c77aad6c93accadbfc4cd9ec1022 100644
--- a/README.md
+++ b/README.md
@@ -18,12 +18,12 @@ https://www.youtube.com/channel/UC4Sukzudhbwr6fs10cXrJsQ
 
 **- Prochain rendez-vous -**  
 
-
-|**Jeudi 1er avril, 14h, Séquence 7 : <br>Le Supercalculateur Jean Zay - Accélération GPU et apprentissage distribué.**|
+|**Jeudi 8 avril, 14h, Séquence 8 : <br>Démystifier les outils mathématiques pour l'apprentissage des réseaux de neurones.**|
 |--|
-|Accès et utilisation de Jean Zay.<br>Optimisation des accélérations GPU<br>Apprentissage distribué sur plusieurs GPU<br>Exemple proposé :<br>Mise en œuvre d'une classification "from scratch" d'Imagenet optimisée et distribuée sur plusieurs GPU.|
+|Mise en jambe : Qu-est ce qu'une descente de gradient ?<br>Partie 1 : Comment est calculé le gradient dans les réseaux de neurones (retro-propagation) ?<br> Partie 2 : Comment le réseau transforme couche après couche une donnée d'entrée en prédiction ?<br>Partie 3 : "Stochastique"... c'est quoi ? Quel intérêt pour l'apprentissage des réseaux de neurones ?<br><br>Illustrations :<br> - Mise en jambe : Descente de gradient en régression linéaire (le réseau de neurones le plus simple !)<br> - Partie 1 : Rétro-propagation 'à la main' sur un réseau avec des couches denses et convolutionnelles<br> - Partie 2 : Transformation d'un image couche après couche dans un réseau convolutionnel|
 |Durée : 2h - Les paramètres de diffusion seront [précisés la veille dans le wiki](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref) |
 
+
 A propos de **[Fidle à distance](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref)**\
 Voir le [programme](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/Pr%C3%A9sentation#programme-)\
 Voir ou revoir les [vidéos](https://www.youtube.com/channel/UC4Sukzudhbwr6fs10cXrJsQ)