Seq. 04 / Démystifier les maths (Live)

Поделиться
HTML-код
  • Опубликовано: 9 янв 2025

Комментарии • 20

  •  11 месяцев назад

    Bonjour, merci pour cette vidéo d'une incroyable clarté ! Je cherchais depuis longtemps une explication "à la main" de la backpropagation, je trouve ici mon bonheur !
    Une remarque cependant : je pense qu'il y a une erreur dans les indices utilisés dans la formule apparaissant à 1:24:36, qui a gêné ma compréhension et qui pourrait être source de confusion pour d'autres également. Afin de conserver une cohérence dans les notations, la loss devrait être dérivée par rapport à ol_p (plutôt que ol_k ; p = entrée = couche l & k = sortie = couhe l+1 dans la notation w_pk), et la somme devrait être indicée par k (variant de 1 à N_l+1 et de 1 à K pour la dernière couche) plutôt que par p ; [ou de façon alternative, mais qui selon moi embrouillerait davantage l'esprit : remplacer tous les k des expressions à droite de l'égalité par des p et remplacer wl-pk par wl_kp]. D'ailleurs, dans la slide suivante vous utilisez bien la notation "dérivée de la loss par rapport à ol_p".

    • @CNRS-FIDLE
      @CNRS-FIDLE  11 месяцев назад

      Merci beaucoup pour ce retour !
      Nous allons regarder et corriger cela :-)
      Notez également qu'une nouvelle version de cette séquence, enregistrée cette année, est disponible sur notre chaine :-)

  • @xzprimealexandre4486
    @xzprimealexandre4486 Год назад +1

    Genial la partie 2 pour bien comprendre ! Merci !

    • @CNRS-FIDLE
      @CNRS-FIDLE  Год назад

      Merci beaucoup pour votre retour :-)

  • @Smarttradingchannel
    @Smarttradingchannel Год назад

    Comment dire ?
    C’est juste la meilleure vidéos que j’ai pu voir sur ce sujet.
    Rien à dire top top 👍🏻👍🏻
    J’avais une reproche sur les premières vidéos de dire que vous avancez avec un problème composé (la convolution + les réseaux de neurones) ce qui complique la compréhension mais l’exemple donné ici était très intelligent puisqu’il s’est concentré sur les dnn sans la partie convolution et application de filtres/traitement préliminaire d’image
    Merci

    • @CNRS-FIDLE
      @CNRS-FIDLE  Год назад

      Merci beaucoup pour votre retour !

  • @random.random356
    @random.random356 Год назад

    Juste génial, merci pour l'effort pédagogique manifeste !
    Il me semble que pour quelques diapos, les indices des fonctions (numéro de couche, numéro du neurone etc ...) n'étaient pas forcément précisés/rappelés, mais c'est un problème qui se résolvait en écoutant !

  • @alexandraczeladka2884
    @alexandraczeladka2884 Год назад

    Merci pour ce cours très éclairant, dommage qu il y ait autant de publicité...

  • @louis-fiacrefranchetdesper1132

    Vraiment génial, hyper pédagogique. Serait-il possible ultérieurement d'ajouter des références sur chaque sujets, peut-être en fin de séquence ?

    • @CNRS-FIDLE
      @CNRS-FIDLE  Год назад

      Sur le site de fidle il y a des références

  • @hanhtrinhennuocphapcualong638
    @hanhtrinhennuocphapcualong638 2 года назад +1

    Bonjour Messieur, est-ce que vous pouvez me guider de télécharger les environnements, j'ai pas pu télécharger fidle sur mon Mac :(

    • @CNRS-FIDLE
      @CNRS-FIDLE  2 года назад

      Vous devriez pouvoir trouver quelques retour d'expérience concernant les Macs sur :
      gricad-gitlab.univ-grenoble-alpes.fr/talks/fidle/-/wikis/Using%20Fidle/Manual%20installation
      Désolé, nous n'avons pas de Mac nous-même ;-)
      Bon courage !

  • @YGPT
    @YGPT Год назад

    Top

  • @ever_lord
    @ever_lord Год назад

    0.97+0.02+0.07

    • @CNRS-FIDLE
      @CNRS-FIDLE  Год назад

      Merci pour ce retour, nous regarderons cela pour notre prochaine session maths, début janvier :-)

    • @ever_lord
      @ever_lord Год назад

      @@CNRS-FIDLE rien de grave, et aussi merci !