diff --git a/README.ipynb b/README.ipynb index 70e1a729ece6ebac732e1d4f3b4d8e8771839528..9e90c1992ee10ef28bd7715a4c9d1756d3cbcd62 100644 --- a/README.ipynb +++ b/README.ipynb @@ -3,13 +3,13 @@ { "cell_type": "code", "execution_count": 1, - "id": "organized-glance", + "id": "committed-compensation", "metadata": { "execution": { - "iopub.execute_input": "2021-03-26T17:14:55.585747Z", - "iopub.status.busy": "2021-03-26T17:14:55.585295Z", - "iopub.status.idle": "2021-03-26T17:14:55.594533Z", - "shell.execute_reply": "2021-03-26T17:14:55.593815Z" + "iopub.execute_input": "2021-04-06T14:32:12.633972Z", + "iopub.status.busy": "2021-04-06T14:32:12.633082Z", + "iopub.status.idle": "2021-04-06T14:32:12.655867Z", + "shell.execute_reply": "2021-04-06T14:32:12.656581Z" }, "jupyter": { "source_hidden": true @@ -39,12 +39,12 @@ "\n", "**- Prochain rendez-vous -** \n", "\n", - "\n", - "|**Jeudi 1er avril, 14h, Séquence 7 : <br>Le Supercalculateur Jean Zay - Accélération GPU et apprentissage distribué.**|\n", + "|**Jeudi 8 avril, 14h, Séquence 8 : <br>Démystifier les outils mathématiques pour l'apprentissage des réseaux de neurones.**|\n", "|--|\n", - "|Accès et utilisation de Jean Zay.<br>Optimisation des accélérations GPU<br>Apprentissage distribué sur plusieurs GPU<br>Exemple proposé :<br>Mise en œuvre d'une classification \"from scratch\" d'Imagenet optimisée et distribuée sur plusieurs GPU.|\n", + "|Mise en jambe : Qu-est ce qu'une descente de gradient ?<br>Partie 1 : Comment est calculé le gradient dans les réseaux de neurones (retro-propagation) ?<br> Partie 2 : Comment le réseau transforme couche après couche une donnée d'entrée en prédiction ?<br>Partie 3 : \"Stochastique\"... c'est quoi ? Quel intérêt pour l'apprentissage des réseaux de neurones ?<br><br>Illustrations :<br> - Mise en jambe : Descente de gradient en régression linéaire (le réseau de neurones le plus simple !)<br> - Partie 1 : Rétro-propagation 'à la main' sur un réseau avec des couches denses et convolutionnelles<br> - Partie 2 : Transformation d'un image couche après couche dans un réseau convolutionnel|\n", "|Durée : 2h - Les paramètres de diffusion seront [précisés la veille dans le wiki](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref) |\n", "\n", + "\n", "A propos de **[Fidle à distance](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref)**\\\n", "Voir le [programme](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/Pr%C3%A9sentation#programme-)\\\n", "Voir ou revoir les [vidéos](https://www.youtube.com/channel/UC4Sukzudhbwr6fs10cXrJsQ)\n", diff --git a/README.md b/README.md index d8172655464c157606043566e7fb50aca58d9e8d..54683c448331c77aad6c93accadbfc4cd9ec1022 100644 --- a/README.md +++ b/README.md @@ -18,12 +18,12 @@ https://www.youtube.com/channel/UC4Sukzudhbwr6fs10cXrJsQ **- Prochain rendez-vous -** - -|**Jeudi 1er avril, 14h, Séquence 7 : <br>Le Supercalculateur Jean Zay - Accélération GPU et apprentissage distribué.**| +|**Jeudi 8 avril, 14h, Séquence 8 : <br>Démystifier les outils mathématiques pour l'apprentissage des réseaux de neurones.**| |--| -|Accès et utilisation de Jean Zay.<br>Optimisation des accélérations GPU<br>Apprentissage distribué sur plusieurs GPU<br>Exemple proposé :<br>Mise en œuvre d'une classification "from scratch" d'Imagenet optimisée et distribuée sur plusieurs GPU.| +|Mise en jambe : Qu-est ce qu'une descente de gradient ?<br>Partie 1 : Comment est calculé le gradient dans les réseaux de neurones (retro-propagation) ?<br> Partie 2 : Comment le réseau transforme couche après couche une donnée d'entrée en prédiction ?<br>Partie 3 : "Stochastique"... c'est quoi ? Quel intérêt pour l'apprentissage des réseaux de neurones ?<br><br>Illustrations :<br> - Mise en jambe : Descente de gradient en régression linéaire (le réseau de neurones le plus simple !)<br> - Partie 1 : Rétro-propagation 'à la main' sur un réseau avec des couches denses et convolutionnelles<br> - Partie 2 : Transformation d'un image couche après couche dans un réseau convolutionnel| |Durée : 2h - Les paramètres de diffusion seront [précisés la veille dans le wiki](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref) | + A propos de **[Fidle à distance](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/En%20bref)**\ Voir le [programme](https://gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Fidle%20%C3%A0%20distance/Pr%C3%A9sentation#programme-)\ Voir ou revoir les [vidéos](https://www.youtube.com/channel/UC4Sukzudhbwr6fs10cXrJsQ)