Bonjour, merci pour cette vidéo d'une incroyable clarté ! Je cherchais depuis longtemps une explication "à la main" de la backpropagation, je trouve ici mon bonheur ! Une remarque cependant : je pense qu'il y a une erreur dans les indices utilisés dans la formule apparaissant à 1:24:36, qui a gêné ma compréhension et qui pourrait être source de confusion pour d'autres également. Afin de conserver une cohérence dans les notations, la loss devrait être dérivée par rapport à ol_p (plutôt que ol_k ; p = entrée = couche l & k = sortie = couhe l+1 dans la notation w_pk), et la somme devrait être indicée par k (variant de 1 à N_l+1 et de 1 à K pour la dernière couche) plutôt que par p ; [ou de façon alternative, mais qui selon moi embrouillerait davantage l'esprit : remplacer tous les k des expressions à droite de l'égalité par des p et remplacer wl-pk par wl_kp]. D'ailleurs, dans la slide suivante vous utilisez bien la notation "dérivée de la loss par rapport à ol_p".
Merci beaucoup pour ce retour ! Nous allons regarder et corriger cela :-) Notez également qu'une nouvelle version de cette séquence, enregistrée cette année, est disponible sur notre chaine :-)
Comment dire ? C’est juste la meilleure vidéos que j’ai pu voir sur ce sujet. Rien à dire top top 👍🏻👍🏻 J’avais une reproche sur les premières vidéos de dire que vous avancez avec un problème composé (la convolution + les réseaux de neurones) ce qui complique la compréhension mais l’exemple donné ici était très intelligent puisqu’il s’est concentré sur les dnn sans la partie convolution et application de filtres/traitement préliminaire d’image Merci
Juste génial, merci pour l'effort pédagogique manifeste ! Il me semble que pour quelques diapos, les indices des fonctions (numéro de couche, numéro du neurone etc ...) n'étaient pas forcément précisés/rappelés, mais c'est un problème qui se résolvait en écoutant !
Vous devriez pouvoir trouver quelques retour d'expérience concernant les Macs sur : gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Using%20Fidle/Manual%20installation Désolé, nous n'avons pas de Mac nous-même ;-) Bon courage !
Bonjour, merci pour cette vidéo d'une incroyable clarté ! Je cherchais depuis longtemps une explication "à la main" de la backpropagation, je trouve ici mon bonheur !
Une remarque cependant : je pense qu'il y a une erreur dans les indices utilisés dans la formule apparaissant à 1:24:36, qui a gêné ma compréhension et qui pourrait être source de confusion pour d'autres également. Afin de conserver une cohérence dans les notations, la loss devrait être dérivée par rapport à ol_p (plutôt que ol_k ; p = entrée = couche l & k = sortie = couhe l+1 dans la notation w_pk), et la somme devrait être indicée par k (variant de 1 à N_l+1 et de 1 à K pour la dernière couche) plutôt que par p ; [ou de façon alternative, mais qui selon moi embrouillerait davantage l'esprit : remplacer tous les k des expressions à droite de l'égalité par des p et remplacer wl-pk par wl_kp]. D'ailleurs, dans la slide suivante vous utilisez bien la notation "dérivée de la loss par rapport à ol_p".
Merci beaucoup pour ce retour !
Nous allons regarder et corriger cela :-)
Notez également qu'une nouvelle version de cette séquence, enregistrée cette année, est disponible sur notre chaine :-)
Genial la partie 2 pour bien comprendre ! Merci !
Merci beaucoup pour votre retour :-)
Comment dire ?
C’est juste la meilleure vidéos que j’ai pu voir sur ce sujet.
Rien à dire top top 👍🏻👍🏻
J’avais une reproche sur les premières vidéos de dire que vous avancez avec un problème composé (la convolution + les réseaux de neurones) ce qui complique la compréhension mais l’exemple donné ici était très intelligent puisqu’il s’est concentré sur les dnn sans la partie convolution et application de filtres/traitement préliminaire d’image
Merci
Merci beaucoup pour votre retour !
Juste génial, merci pour l'effort pédagogique manifeste !
Il me semble que pour quelques diapos, les indices des fonctions (numéro de couche, numéro du neurone etc ...) n'étaient pas forcément précisés/rappelés, mais c'est un problème qui se résolvait en écoutant !
Tout à fait
Merci pour ce cours très éclairant, dommage qu il y ait autant de publicité...
sorry
Vraiment génial, hyper pédagogique. Serait-il possible ultérieurement d'ajouter des références sur chaque sujets, peut-être en fin de séquence ?
Sur le site de fidle il y a des références
Bonjour Messieur, est-ce que vous pouvez me guider de télécharger les environnements, j'ai pas pu télécharger fidle sur mon Mac :(
Vous devriez pouvoir trouver quelques retour d'expérience concernant les Macs sur :
gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Using%20Fidle/Manual%20installation
Désolé, nous n'avons pas de Mac nous-même ;-)
Bon courage !
Top
Merci
0.97+0.02+0.07
Merci pour ce retour, nous regarderons cela pour notre prochaine session maths, début janvier :-)
@@CNRS-FIDLE rien de grave, et aussi merci !