Simone Iovane
Simone Iovane
  • Видео 17
  • Просмотров 100 822
Reti Neurali - Back Propagation | Teoria di Deep Learning | Deep Learning Tutorial Italiano
In questo video vado a spiegare in dettaglio la Back Propagation o Propagazione all'indietro. Questo meccanismo rappresenta la base per il training delle reti neurali ed e' cio' che permette ai neuroni artificiali di imparare.
►►Telegram per ricevere aggiornamenti.
Contatto: @enomis926
Canale: t.me/dllab​
►►LinkedIn.
Contatto: www.linkedin.com/in/simone-io...​
►►Libri Utili.
Inglese:
amzn.to/3caLdPu
amzn.to/2PbT46d
Italiano:
amzn.to/3sb2BsJ
___________________________________________
Il Deep Learning (Apprendimento Profondo) è quel campo di ricerca del Machine Learning (Apprendimento Automatico) e dell'intelligenza artificiale che fa riferimento agli algoritmi ispirati alla funzione dei componenti del...
Просмотров: 8 931

Видео

Reti Neurali - Funzione di Costo | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 4,8 тыс.3 года назад
In questo video vado a spiegare in dettaglio la Loss Function / Funzione di Perdita e la Cost Function / Funzione di Costo. Queste due funzioni sono utili per definire la performance di un modello di Rete Neurale ed inoltre sono utili per il training. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/...
Reti Neurali - Funzione di Attivazione | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 4,7 тыс.3 года назад
In questo video vado a spiegare in dettaglio due delle funzioni di attivazione piu' comuni nel campo delle reti neurali: La Sigmoid e la ReLU. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ Il Deep Learning (Apprendi...
Come funziona la Rete Neurale | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 9 тыс.3 года назад
In questo video vado a mostrare qualche dettaglio in piu' riguardo al neurone, che ci aiutera' a capire il funzionamento della rete neurale. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ Il Deep Learning (Apprendime...
Calcolo Matriciale | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 2,7 тыс.3 года назад
In questo video andro' a spiegare le basi del calcolo matriciale, il quale serve a capire il meccanismo con cui funzionano le reti neurali. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ Il Deep Learning (Apprendimen...
Reti Neurali - Cosa è un Neurone | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 4,5 тыс.3 года назад
Corso introduttivo di teoria al Deep Learning: In questo video andro' a spiegare brevemente cosa e' un neurone, componente fondamentale delle reti neurali. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ Il Deep Learn...
4P - Gradient Descent con Momentum | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 1,9 тыс.4 года назад
In questo video andiamo a vedere con un esempio pratico l'influenza che il momentum ha sul gradient descent durante il training della rete neurale. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ #TutorialRetiNeurali ...
4T - Gradient Descent con Momentum | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 1,9 тыс.4 года назад
In questo video spiego la teoria su come migliorare il Batch/ Mini Batch Gradient Descent utilizzando la tecnica del Momentum. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ #TutorialRetiNeurali #DeepLearningIta
3P - Gradient Descent in Python | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 2,6 тыс.4 года назад
Andiamo a vedere con un esempio pratico la differenza tra: Batch Gradient Descent, Mini Batch Gradient Descent e Stochastic Gradient Descent. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ #TutorialRetiNeurali #DeepL...
3T - BGD vs MBGD vs SGD | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 3,1 тыс.4 года назад
In questo video vado a spiegare in modo molto semplice la differenza fra i 3 modi per effettuare la discesa del gradiente (Gradient Descent) ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ #TutorialRetiNeurali #DeepLearningIta
TensorFlow Developer Certificate - SUB ENG | Pass the TensorFlow Exam
Просмотров 3,7 тыс.4 года назад
In questo video vi spiego come passare e preparare l'esame nella maniera piu' veloce possibile, quali risorse andare a vedere senza perdere tempo. Vi spiego inoltre come impostare l'ambiente di sviluppo senza perdere tempo con errori di vario genere. Link al corso: www.coursera.org/specializations/tensorflow-in-practice?#courses Link al libro: amzn.to/3caLdPu ►►Telegram per ricevere aggiornamen...
2P - Progettiamo una Rete Neurale | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 6 тыс.4 года назад
In questo video andro' a spiegre come progettare la prima Rete Neurale Con TensorFlow. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ #TutorialRetiNeurali #DeepLearningIta
2T - Che cosa è una Rete Neurale | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 5 тыс.4 года назад
In questo video spiego che cosa e' una rete neurale. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ #TutorialRetiNeurali #DeepLearningIta
1P - Intro all'uso di TensorFlow | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 11 тыс.4 года назад
Andiamo a creare un semplice modello TensorFlow con un neurone e lo andiamo ad allenare. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ #TutorialRetiNeurali #DeepLearningIta
Usare Python senza installazione | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 9 тыс.4 года назад
Usare Python senza installazione | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
1T - La Base delle Reti Neurali | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 9 тыс.4 года назад
1T - La Base delle Reti Neurali | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Intro - Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 12 тыс.4 года назад
Intro - Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano

Комментарии

  • @incodemytheincomeacademy4275
    @incodemytheincomeacademy4275 18 дней назад

    Ciao Simone, grazie per il video e complimenti per la tua certificazione. Ho un paio di domande a cui spero tu possa rispondermi: 1) Libro e corsi vari che suggerisci sono tutti in inglese? Non c'è nulla in italiano? 2) Sto seguendo un paio di corsi di Python (uno dei quali è del tuo amico Edoardo che tra l'altro sto adorando perché spiega veramente benissimo), perché da quello che avevo capito e mi hanno consigliato, il linguaggio Python è fondamentale per introdursi nel mondo del ML e del DL, più in generale nel mondo della AI, ma da quello che ho sentito nel tuo video, mi sembra che suggerisci tutto un altro percorso, (TensorFlow con la relativa certificazione). Potresti fare chiarezza su questo aspetto? Grazie mille e complimenti ancora. Guarderò sicuramente TUTTI i tuoi video!

  • @toreadorangard
    @toreadorangard 2 месяца назад

    Questa è una descrizione matematica di come è fatta una rete ma non spieghi perché esistono le reti. Il motivo fondamentale è che un teorema afferma che qualsiasi funzione continua su un compatto può essere approssimata bene quanto si vuole da funzioni vettoriali lineari e da una funzione di attivazione. Te lo dico perché dopo il centesimo video che vedo sull'argomento, mi sono accorto che nessuno affronta il problema fondamentale: catturare le caratteristiche di un insieme di dati (cogliere ad esempio relazioni, classificare, etc.) Progettare una rete immagino passi per questa esigenza.

  • @adrianobanuta2588
    @adrianobanuta2588 3 месяца назад

    Interessante. Ma fisicamente di quali componenti si avvalgono queste reti? Utilizzano sempre componenti di base quali transistors, diodi, resistori e condensatori?

  • @adrianobanuta2588
    @adrianobanuta2588 3 месяца назад

    6:25 Domandina: Ma W e b sono valori forniti dall'operatore (programmatore?) oppure dal neurone?

    • @SimoneIovane
      @SimoneIovane 3 месяца назад

      Sono inizializzati randomicamente. Tuttavia si potrebbe fare un video intero su che distribuzione usare per generare i valori random.

  • @superp8380
    @superp8380 5 месяцев назад

    mi piacerebbe sapere a cosa serve il bias.

  • @massimellow
    @massimellow 6 месяцев назад

    Video molto chiaro solo una domanda : cosa rappresenta "b" ?

  • @matteocernuto8795
    @matteocernuto8795 7 месяцев назад

    Ciao Simone, volevamo ringraziarti io e il mio amico che stiamo preparando l'esame di Fondations of Deep Learning e i tuoi video soprattuto quelli sulla Back Propagation e sul Batch Gradient Descent ci hanno aiutato a comprendere meglio il contenuto. Grazie

    • @matteocernuto8795
      @matteocernuto8795 6 месяцев назад

      Ciao Simone ti do questo aggiornamento io e i miei amici che abbiamo uitlizzato i tuoi video abbiamo preso 30, 27 e 27. Grazie ancora

  • @prof.lorenzoderossi3381
    @prof.lorenzoderossi3381 8 месяцев назад

    Grande!

  • @alberto.polini
    @alberto.polini 10 месяцев назад

    Davvero un'ottima spiegazione💪

  • @milenacordara2742
    @milenacordara2742 11 месяцев назад

    Complimenti veramente un bel lavoro. Concetti comunque sempre attuali. Grazie.

  • @Aero-Jr-Youtube
    @Aero-Jr-Youtube Год назад

    ogni neurone dovrebbe avere un bias. E.s: 6 neuroni totali, 6 bias, quindi in totale dovremmo avere 9+6+2+6 parametri

  • @Aero-Jr-Youtube
    @Aero-Jr-Youtube Год назад

    spiegato non tanto bene, soprattutto per chi non ha mai studiato questi concetti (e.s.: metodo del gradiente per l'aggiornamento dei pesi). Le relu possono portare a divergenze paurose, meglio usare le funzioni logistiche che sono derivabili all'infinito...

    • @SimoneIovane
      @SimoneIovane Год назад

      Ciao, grazie per il commento. Se sei alle prime armi/non hai mai studiato quesri concetti fai riferimento qui: ruclips.net/video/0qOFHUPLsw0/видео.html. Cerco di spiegare in maniera piu comprensibile possibile in caso non hai troppa familiarita con i concetti.

  • @sudtracks2048
    @sudtracks2048 Год назад

    interessantissimo, complimenti.

  • @FiBunnyCci
    @FiBunnyCci Год назад

    Nice video

  • @trollrequiem0444
    @trollrequiem0444 Год назад

    Ciao Simone, grazie per il video! potresti fornire esempi di problemi che hai trovato durante il vero esame?

  • @mick74batti
    @mick74batti Год назад

    Come decidi quale parte dei dati è usata per il training e quale per il test?

  • @riccardoaprile9690
    @riccardoaprile9690 Год назад

    Non continuerai la serie?

  • @mrbluff14
    @mrbluff14 Год назад

    Grazie, sto cominciando a capire

  • @mrbluff14
    @mrbluff14 Год назад

    Ciao, ho problemi con google colab, mi dice valore non definito, poi dopo molti tentativi mi funziona bene, però non posso perdere ogni volta mezz'ora o più, come devo procedere? Grazie

  • @mrbluff14
    @mrbluff14 Год назад

    risolto, grazie

  • @mrbluff14
    @mrbluff14 Год назад

    NameError: name 'b' is not defined, cosa devo fare?, non riesco a proseguire. Grazie

  • @mrbluff14
    @mrbluff14 Год назад

    Ottimo, grazie

  • @asphoarkimete9500
    @asphoarkimete9500 Год назад

    complimenti spettacolare ,spero che in questa serie arriverai anche a modelli di generazione immagini e reti TTS per sintetizzatori

  • @clav7711
    @clav7711 Год назад

    purtroppo non conosco nulla di questi aspetti, ma devo dire che spieghi molto bene

  • @Sanjism-y9k
    @Sanjism-y9k Год назад

    Ciao simone non riesco a capire questa cosa , riesci a spiegarmi grazie in anticipo ! ax= axs[i// ncols,i% ncols] P.S: Un ultima cosa ma se io vorrei confrontare i risultati della 'predict' che salvo in y_pred, con i risultati della y come faccio ? In quanto la return è formato da 10 output ( che presumo sono i numero di neuroni ) ma come faccio a ritornare solo 5 ,1,6,7,8 cioè un numero cosi che lo posso confrontare con la y . Non dovrebbe gia la 'softmax' fare questo lavoro ? Grazie in anticipo sono alle prime armi !

    • @TommasoLumare
      @TommasoLumare Год назад

      Ciao, la y_pred contiene le 10 probabilità del layer di output per ogni singola immagine. Io ho fatto come segue per estrapolarmi i valori e confrontarli con la y, cioè con l'array dei valori reali: y_pred = model.predict(X)[0:10] # Prendo la predizione delle prime 10 immagini y_pred[4,] # Probabilità di ogni singolo neurone del layer di output per la quinta immagine [10 neuroni dove il primo neurone rappresenta 0, il secondo 1 e così via] y_pred_finale = [] for numero_immagine in range(10): y_pred_finale.append(np.where(y_pred[numero_immagine,] == y_pred[numero_immagine,].max())[0][0]) # Calcolo l'indice a cui si trova il valore massimo di probabilità che corrisponde al numero predetto np.array(y_pred_finale, dtype=np.uint8) # Valori predetti y[0:10] # Vedo i primi 10 valori effettivi

  • @Sanjism-y9k
    @Sanjism-y9k Год назад

    Video Che vedremo in un secondo Momentum ! :D

  • @Sanjism-y9k
    @Sanjism-y9k Год назад

    Grande Simo ! Mentre ho stoppato il video per andare a cercare come si zooma un secondo dopo lo avevi spiegato grande ! :D

  • @Sanjism-y9k
    @Sanjism-y9k Год назад

    Grazie Simone ! Video utilissimi !

  • @Sanjism-y9k
    @Sanjism-y9k Год назад

    Grazie Simone ! Numero Uno !

  • @Sanjism-y9k
    @Sanjism-y9k Год назад

    Spiegazioni Perfette ! Grazie !

  • @Sanjism-y9k
    @Sanjism-y9k Год назад

    Grande molto easy!

  • @Sanjism-y9k
    @Sanjism-y9k Год назад

    Grazie ! ;)

  • @simonerogato3779
    @simonerogato3779 Год назад

    Questo video rappresenta almeno 2 capitoli buoni di un librone di Deep Learning e senza escludere roba importante. Consiglio di studiare anche il gradient checking e l'inizializzazione stocastica dei parametri iniziali e del tuning degli hyperparameters. Per il resto è top. Gran bel lavoro

  • @cuccurese
    @cuccurese Год назад

    Che significa oggi sono senza capelli :D ?

  • @cuccurese
    @cuccurese 2 года назад

    Piu' chiaro di cosi' non si puo'.

  • @pinalife2017
    @pinalife2017 2 года назад

    sei un grande!

  • @__bolognini__
    @__bolognini__ 2 года назад

    Grazie, grazie e ancora grazie. Finalmente sono riuscito a trovare un video in italiano

    • @adrianobanuta2588
      @adrianobanuta2588 3 месяца назад

      @__bolognini__ OK! però vedi di studiare l'inglese che tra un po' senza quello, non andrai nemmeno dal giornalaio. Bye

  • @Muplex24
    @Muplex24 2 года назад

    Ciao Simone, sei uno dei pochi italiani che ha fatto dei video decenti su CoLab. Sencondo me l'argomento è potente e pian piano sarà sempre più diffuso. Se cerchi di fare dei video con tante visualizzazioni sul tubo credo che questo argomento uscirà dalla nicchia e sarà sempre più diffuso. Potresti pensare di fare esercizi / esempi che poi la gente copia e ri-adatta ai suoi scopi....ad esempio io trovo tanta roba per machine learning su immagini, ma poco o niente su file audio.... Saluti, Nicola

  • @deepnomusic
    @deepnomusic 2 года назад

    GRAZIE!! Spiegazione eccellente, complimenti

  • @lorenzorappuoli6023
    @lorenzorappuoli6023 2 года назад

    Ciao Simone, grazie mille per questo video! Avrei una domanda sull'esame a cui non riesco a trovare una risposta nel forum di tf: i dataset per l'esame come vengono passati? Arrivano dei csv e/o degli zip oppure si scaricano tensorflow_datasets?

  • @martinorecchia9600
    @martinorecchia9600 2 года назад

    Grazie Simone, ho capito in profondità questa tecnica fantastica. Sei un Walt Disney della statistica.

  • @QQuale
    @QQuale 2 года назад

    Sei un grande. Hai la capacità di spiegare queste cose complesse in un modo semplicissimo e chiarissimo. Davvero complimenti.

  • @xxguestxxy
    @xxguestxxy 2 года назад

    Complimenti per i video. Ho una domanda riguardo il numero di neuroni sull'ultimo layer. Qui dici che dato che il valore in uscita può essere 0 o 1 allora metti un solo neurone. Però se ad esempio in uscita posso avere 10 valori diversi, l'ultimo layer da quanti neuroni dovrebbe essere composto? grazie mille e complimenti

  • @gioespoo
    @gioespoo 2 года назад

    Sei molto bravo, Complimenti !

  • @timimartin238
    @timimartin238 2 года назад

    ottima spiegazione .grazie sto provando di fare una esercitazione su lo stesso argomento e ho riscontrato questo errore : ValueError: Data cardinality is ambiguous: x sizes: 309 y sizes: 133 Make sure all arrays contain the same number of samples.

  • @nicolamanconi6057
    @nicolamanconi6057 2 года назад

    Ciao Simone, grazie per il video e complimenti. Volevo chiederti se nel libro sono presenti anche esercizi per far pratica mentre si studia. Grazie ancora

  • @albertarzumanov9136
    @albertarzumanov9136 2 года назад

    Ciao Simone! Vorrei farti una domanda se possibile! Non mi è chiaro perchè dici che se la grandenzza del batch è più piccola il gradiente è più grande e quindi il passo del gradiente è più grande... Potresti essere più chiaro? Grazie e ottimo video!

    • @SimoneIovane
      @SimoneIovane 2 года назад

      Ciao! Al diminuire della batch size la tua stima del gradiente ha una varianza piu' grande e quindi molto piu' variabile. Di conseguenza puoi avere dei passi piu' piccoli ed altri piu' grandi. Forse non l'ho spiegato molto bene nel video.

  • @Expertech
    @Expertech 2 года назад

    Simone complimenti! Ma poi da quest'ultimo video non hai prodotto più nulla? I due corsi: "Teoria di Deep Learning" e "Reti Neurali e Deep Learning con TensorFlow" sono composti da 6 + 10 lezioni o continuano? Grazie.

  • @ivanodivano96
    @ivanodivano96 3 года назад

    CIao SImone, perchè non fai anche video con esempi pratici, in cui da un problema arrivi alla soluzione (magari in Python come avevi gia fatto)?? Sarebbero molto utili. Piu che altro vorrei capire quali funzioni di attivazione utilizzare, i passi per costruire il modello ecc).

    • @SimoneIovane
      @SimoneIovane 3 года назад

      ruclips.net/video/OkF7UjAI9Jw/видео.html :)

    • @ivanodivano96
      @ivanodivano96 3 года назад

      Si quelli vecchi lì avevo gia visto. Pensavo più a come scegliere le funzioni di attivazione, il numero di dei parametri(neuroni, layer), ecc.

  • @chapmanezinga9652
    @chapmanezinga9652 3 года назад

    Courage bro