La Backpropagation (Addestramento Reti Neurali)

Поделиться
HTML-код
  • Опубликовано: 1 окт 2024
  • In questo video vediamo la teoria dietro al sistema di addestramento tramite backpropagation!
    Qui il video precedente: • Cos'è una RETE NEURALE?
    ❗️ Se ti è piaciuto il video, metti like, lascia un commento e condividi ❗️
    ⭐️ Chi sono ⭐️
    Lead mobile developer, master’s degree student, Dungeon Master, 3d printer, ant keeper, 海賊王に俺はなる!
    🔔 Social 🔔
    🌐 𝐒𝐈𝐓𝐎: www.emmanuelev...
    📢 𝐂𝐀𝐍𝐀𝐋𝐄 𝐓𝐄𝐋𝐄𝐆𝐑𝐀𝐌: t.me/willyrs89
    Facebook: / willyrs89
    Instagram: / willyrstube
    Github: github.com/Emm...
    Twitch: / willyrs89
    🎥 Serie 🎥
    Computer quantistico: • Computer quantistico i...
    Tensorflow: • Tensorflow zero to hero
    Intelligenza artificiale: • Intelligenza Artificia...
    Stampa 3d: • Stampa 3D
    Videogame: • Videogame
    Live dev: • Game Dev
  • НаукаНаука

Комментарии • 13

  • @jhonnyhyskaj9186
    @jhonnyhyskaj9186 3 месяца назад

    Bravo boss

  • @adltech1633
    @adltech1633 9 месяцев назад

    Ho visto adesso il video, ottimo. Dispiace che abbia solo 10 commenti (momento in cui scrivo).

  • @infopage8113
    @infopage8113 Год назад

    Bravo Willy! Spieghi che mi sembra tutto così facile e comprensibile come non mai!

  • @giorgiomartinez3452
    @giorgiomartinez3452 3 года назад +1

    Ciao, ho un dubbio: perché la derivata parziale di z_l su w_l è pari ad a_(L-1)?

    • @WiLLyRS89
      @WiLLyRS89  3 года назад +1

      Perché z_l = w_l * a_(l-1) + b_l e siccome devo fare la derivata parziale rispetto a w_l devo trattare le altre parti come se fossero costanti, quindi d( w_l * k + c ) = k, ovvero a_(l-1). È come fare la derivata di ad esempio 2x+1, fa 2

    • @giorgiomartinez3452
      @giorgiomartinez3452 3 года назад

      @@WiLLyRS89 Grazie mille!

  • @AinurBigOne
    @AinurBigOne 3 года назад

    Sempre chiaro e informativo, best channel EU

  • @marinopasotti3946
    @marinopasotti3946 2 года назад

    Spiegazioni sempre chiare ed essenziali, anche se i concetti non sono semplici. Ottima sintesi.

  • @puveggioso
    @puveggioso 2 года назад

    Domanda stupida: per "un solo caso" (10:48) intendi un solo input i_0? Da qui mi sono perso un po'

    • @WiLLyRS89
      @WiLLyRS89  2 года назад +1

      Si, quello che faccio vedere è la formula con 1 input e 1 output, ma nella realtà ci sono più neuroni di input, uno o più neuroni di output, e in più gli input sono raggruppati in batch

  • @mysteriousXsecret
    @mysteriousXsecret 2 года назад

    Ma quella che hai scritto a 5:56 corrisponde alla sum-of-square?

    • @WiLLyRS89
      @WiLLyRS89  2 года назад

      Non conoscevo questo termine specifico ma cercando su wiki direi di sì! È la funzione di costo "standard"