1T - La Base delle Reti Neurali | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano

Поделиться
HTML-код
  • Опубликовано: 27 дек 2024

Комментарии • 34

  • @albertocola9166
    @albertocola9166 4 года назад +5

    Grazie. Mi hai aperto un mondo! saper spiegare é un sottoinsieme del sapere, saper spiegare rendendo interessante quello che si dice é un sottoinsieme del saper spiegare, essere comprensibili ad un ventaglio di ascoltatori è... continua tu! bravo

  • @__bolognini__
    @__bolognini__ 2 года назад

    Grazie, grazie e ancora grazie. Finalmente sono riuscito a trovare un video in italiano

    • @adrianobanuta2588
      @adrianobanuta2588 4 месяца назад

      @__bolognini__ OK! però vedi di studiare l'inglese che tra un po' senza quello, non andrai nemmeno dal giornalaio. Bye

  • @mrbluff14
    @mrbluff14 Год назад

    Grazie, sto cominciando a capire

  • @gioespoo
    @gioespoo 2 года назад

    Sei molto bravo, Complimenti !

  • @adrianobanuta2588
    @adrianobanuta2588 4 месяца назад

    Interessante. Ma fisicamente di quali componenti si avvalgono queste reti? Utilizzano sempre componenti di base quali transistors, diodi, resistori e condensatori?

  • @danielebaldoni2181
    @danielebaldoni2181 3 года назад

    Grazie per i contenuti...molto interessante. In italiano poi è un grande aiuto

    • @SimoneIovane
      @SimoneIovane  3 года назад

      Grazie :) Per spiegazioni teoriche piu' dettagliate ti rimando a questa playlist: ruclips.net/p/PLQoXJIMtxJDr5j47lbU6lhNO3RxJsUcQR

  • @enrealdisko
    @enrealdisko 4 года назад +1

    Fantastico Simo, non sapevo le reti neurali potessero essere cosi interessanti :D

  • @adrianobanuta2588
    @adrianobanuta2588 4 месяца назад

    6:25 Domandina: Ma W e b sono valori forniti dall'operatore (programmatore?) oppure dal neurone?

    • @SimoneIovane
      @SimoneIovane  4 месяца назад +1

      Sono inizializzati randomicamente. Tuttavia si potrebbe fare un video intero su che distribuzione usare per generare i valori random.

  • @sudtracks2048
    @sudtracks2048 Год назад

    interessantissimo, complimenti.

  • @milenacordara2742
    @milenacordara2742 Год назад

    Complimenti veramente un bel lavoro. Concetti comunque sempre attuali. Grazie.

  • @GennaroDanieleAcciaro707
    @GennaroDanieleAcciaro707 4 года назад

    Ottimo video, chiarissimo

    • @SimoneIovane
      @SimoneIovane  4 года назад

      Grazie Gennaro ;) Nuovi video in arrivo!

  • @jhovy2007
    @jhovy2007 3 года назад

    con esempi numerici sarebbe ottimo. Poi non ho capito una cosa il parametro w è uguale per tutti i valori o variano per ogni singolo valore?

    • @SimoneIovane
      @SimoneIovane  3 года назад

      Ciao!, ti linko la playlist aggiornata con esempi numerici e teoria: ruclips.net/p/PLQoXJIMtxJDr5j47lbU6lhNO3RxJsUcQR

  • @paolodavid2861
    @paolodavid2861 4 года назад

    Molto Chiaro, bel video ;)

  • @TheGiovisan
    @TheGiovisan 4 года назад

    Ciao. Potresti darmi un link relativo alla formula del calcolo della pendenza della retta tangente su un punto? grazie

    • @SimoneIovane
      @SimoneIovane  4 года назад +2

      Ciao! Ti consiglio questo (Inglese): bit.ly/3mhNVFK . Se sei gia' a conoscenza di cosa siano i limiti matematici ecco un' altra spiegazione: bit.ly/2ZvRrm8 . Spero ti siano utili, altrimenti scrivimi ancora!

  • @spaziolavorospaziolavoro9761
    @spaziolavorospaziolavoro9761 4 года назад

    bravo !!!

  • @ricfio.professional
    @ricfio.professional 4 года назад

    al minuto 5:20 dici che y^1 = f(x1*w+b).... ma immagino che la formula giusta sia invece:
    y^1 = f(x1) = x1*w+b

    • @SimoneIovane
      @SimoneIovane  4 года назад

      Ciao grazie per il commento, nel video la formula e' corretta, il risultato di x1*w+b verra' processato dalla funzione f, spiegata al 1:48. Faro' dei video piu' esplicativi su questa parte. So che possono trarre in confusione :)

    • @ricfio.professional
      @ricfio.professional 4 года назад +1

      Ciao @@SimoneIovane e grazie per la risposta... evidentemente dovrò studiarmi meglio la teoria, si vede che avevo capito male

    • @SimoneIovane
      @SimoneIovane  4 года назад

      @@ricfio.professional Tranquillo! per altri dubbi, precisazioni scrivi pure nei commenti :)

  • @daniellachiche270
    @daniellachiche270 3 года назад

    Bravo. Spieghi lentamente.

  • @antaniperdue3148
    @antaniperdue3148 4 года назад

    ciao, ottimo video, credo ci sia un errore al minuto 8.06, dentro la parentesi i termini che sottrai hanno il pedice anche loro poiche' componenti di un vettore. Nel video fai riferimento solo alla derivata parziale rispetto a W ma essendo la funzione C come la chiami tu dipendente anche dalla soglia in realta' abbiamo a che fare con una superficie nello spazio che potrebbe avere anche piu' di un minimo, quindi il minimo non va ricercato solo in una derivata poiche' potresti avere il minimo della derivata parziale in W che non corrisponde al minimo nella superficie rappresentata dalla tua funzione.

    • @SimoneIovane
      @SimoneIovane  4 года назад

      Ciao grazie per il commento! 🙃 effettivamente ho dimenticato di mettere il pedice alla y al minuto 8:06. Per quanto riguarda l'intercetta b, al minuto 10:19 esplicito che la ricerca del minimo va considerata anche tenendo conto di b. Ho voluto omettere il concetto di gradiente per evitare di appesantire la lezione. Probabilmente avrei dovuto inserirlo nel disegno 📈

  • @SportyxChannel
    @SportyxChannel 3 года назад +1

    ciao simone, complimenti per i video ma ti segnalo un'imprecisione. La Loss function (che sono di vario tipo a seconda che siano NN per classificazione o regressione... ad esempio nei casi di regressione la più nota è MSE) sono relativi ai singoli esempi mentre invece la Cost function è la media delle loss.

    • @SimoneIovane
      @SimoneIovane  3 года назад +2

      Ciao! Si me ne ero reso conto :) infatti ho fatto un altro video ruclips.net/video/PLkCwQ4c5vM/видео.html dove spiego correttamente.

  • @Aero-Jr-Youtube
    @Aero-Jr-Youtube Год назад

    spiegato non tanto bene, soprattutto per chi non ha mai studiato questi concetti (e.s.: metodo del gradiente per l'aggiornamento dei pesi). Le relu possono portare a divergenze paurose, meglio usare le funzioni logistiche che sono derivabili all'infinito...

    • @SimoneIovane
      @SimoneIovane  Год назад

      Ciao, grazie per il commento. Se sei alle prime armi/non hai mai studiato quesri concetti fai riferimento qui: ruclips.net/video/0qOFHUPLsw0/видео.html. Cerco di spiegare in maniera piu comprensibile possibile in caso non hai troppa familiarita con i concetti.