- Видео 17
- Просмотров 100 822
Simone Iovane
Италия
Добавлен 29 июл 2011
Reti Neurali - Back Propagation | Teoria di Deep Learning | Deep Learning Tutorial Italiano
In questo video vado a spiegare in dettaglio la Back Propagation o Propagazione all'indietro. Questo meccanismo rappresenta la base per il training delle reti neurali ed e' cio' che permette ai neuroni artificiali di imparare.
►►Telegram per ricevere aggiornamenti.
Contatto: @enomis926
Canale: t.me/dllab
►►LinkedIn.
Contatto: www.linkedin.com/in/simone-io...
►►Libri Utili.
Inglese:
amzn.to/3caLdPu
amzn.to/2PbT46d
Italiano:
amzn.to/3sb2BsJ
___________________________________________
Il Deep Learning (Apprendimento Profondo) è quel campo di ricerca del Machine Learning (Apprendimento Automatico) e dell'intelligenza artificiale che fa riferimento agli algoritmi ispirati alla funzione dei componenti del...
►►Telegram per ricevere aggiornamenti.
Contatto: @enomis926
Canale: t.me/dllab
►►LinkedIn.
Contatto: www.linkedin.com/in/simone-io...
►►Libri Utili.
Inglese:
amzn.to/3caLdPu
amzn.to/2PbT46d
Italiano:
amzn.to/3sb2BsJ
___________________________________________
Il Deep Learning (Apprendimento Profondo) è quel campo di ricerca del Machine Learning (Apprendimento Automatico) e dell'intelligenza artificiale che fa riferimento agli algoritmi ispirati alla funzione dei componenti del...
Просмотров: 8 931
Видео
Reti Neurali - Funzione di Costo | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 4,8 тыс.3 года назад
In questo video vado a spiegare in dettaglio la Loss Function / Funzione di Perdita e la Cost Function / Funzione di Costo. Queste due funzioni sono utili per definire la performance di un modello di Rete Neurale ed inoltre sono utili per il training. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/...
Reti Neurali - Funzione di Attivazione | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 4,7 тыс.3 года назад
In questo video vado a spiegare in dettaglio due delle funzioni di attivazione piu' comuni nel campo delle reti neurali: La Sigmoid e la ReLU. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ Il Deep Learning (Apprendi...
Come funziona la Rete Neurale | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 9 тыс.3 года назад
In questo video vado a mostrare qualche dettaglio in piu' riguardo al neurone, che ci aiutera' a capire il funzionamento della rete neurale. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ Il Deep Learning (Apprendime...
Calcolo Matriciale | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 2,7 тыс.3 года назад
In questo video andro' a spiegare le basi del calcolo matriciale, il quale serve a capire il meccanismo con cui funzionano le reti neurali. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ Il Deep Learning (Apprendimen...
Reti Neurali - Cosa è un Neurone | Teoria di Deep Learning | Deep Learning Tutorial Italiano
Просмотров 4,5 тыс.3 года назад
Corso introduttivo di teoria al Deep Learning: In questo video andro' a spiegare brevemente cosa e' un neurone, componente fondamentale delle reti neurali. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ Il Deep Learn...
4P - Gradient Descent con Momentum | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 1,9 тыс.4 года назад
In questo video andiamo a vedere con un esempio pratico l'influenza che il momentum ha sul gradient descent durante il training della rete neurale. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ #TutorialRetiNeurali ...
4T - Gradient Descent con Momentum | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 1,9 тыс.4 года назад
In questo video spiego la teoria su come migliorare il Batch/ Mini Batch Gradient Descent utilizzando la tecnica del Momentum. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ #TutorialRetiNeurali #DeepLearningIta
3P - Gradient Descent in Python | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 2,6 тыс.4 года назад
Andiamo a vedere con un esempio pratico la differenza tra: Batch Gradient Descent, Mini Batch Gradient Descent e Stochastic Gradient Descent. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ #TutorialRetiNeurali #DeepL...
3T - BGD vs MBGD vs SGD | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 3,1 тыс.4 года назад
In questo video vado a spiegare in modo molto semplice la differenza fra i 3 modi per effettuare la discesa del gradiente (Gradient Descent) ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ #TutorialRetiNeurali #DeepLearningIta
TensorFlow Developer Certificate - SUB ENG | Pass the TensorFlow Exam
Просмотров 3,7 тыс.4 года назад
In questo video vi spiego come passare e preparare l'esame nella maniera piu' veloce possibile, quali risorse andare a vedere senza perdere tempo. Vi spiego inoltre come impostare l'ambiente di sviluppo senza perdere tempo con errori di vario genere. Link al corso: www.coursera.org/specializations/tensorflow-in-practice?#courses Link al libro: amzn.to/3caLdPu ►►Telegram per ricevere aggiornamen...
2P - Progettiamo una Rete Neurale | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 6 тыс.4 года назад
In questo video andro' a spiegre come progettare la prima Rete Neurale Con TensorFlow. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ #TutorialRetiNeurali #DeepLearningIta
2T - Che cosa è una Rete Neurale | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 5 тыс.4 года назад
In questo video spiego che cosa e' una rete neurale. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ #TutorialRetiNeurali #DeepLearningIta
1P - Intro all'uso di TensorFlow | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 11 тыс.4 года назад
Andiamo a creare un semplice modello TensorFlow con un neurone e lo andiamo ad allenare. ►►Telegram per ricevere aggiornamenti. Contatto: @enomis926 Canale: t.me/dllab ►►LinkedIn. Contatto: www.linkedin.com/in/simone-iovane-ab2555106/ ►►Libri Utili. Inglese: amzn.to/3caLdPu amzn.to/2PbT46d Italiano: amzn.to/3sb2BsJ #TutorialRetiNeurali #DeepLearningIta
Usare Python senza installazione | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 9 тыс.4 года назад
Usare Python senza installazione | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
1T - La Base delle Reti Neurali | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 9 тыс.4 года назад
1T - La Base delle Reti Neurali | Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Intro - Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Просмотров 12 тыс.4 года назад
Intro - Reti Neurali e Deep Learning - TensorFlow Tutorial Italiano
Ciao Simone, grazie per il video e complimenti per la tua certificazione. Ho un paio di domande a cui spero tu possa rispondermi: 1) Libro e corsi vari che suggerisci sono tutti in inglese? Non c'è nulla in italiano? 2) Sto seguendo un paio di corsi di Python (uno dei quali è del tuo amico Edoardo che tra l'altro sto adorando perché spiega veramente benissimo), perché da quello che avevo capito e mi hanno consigliato, il linguaggio Python è fondamentale per introdursi nel mondo del ML e del DL, più in generale nel mondo della AI, ma da quello che ho sentito nel tuo video, mi sembra che suggerisci tutto un altro percorso, (TensorFlow con la relativa certificazione). Potresti fare chiarezza su questo aspetto? Grazie mille e complimenti ancora. Guarderò sicuramente TUTTI i tuoi video!
Questa è una descrizione matematica di come è fatta una rete ma non spieghi perché esistono le reti. Il motivo fondamentale è che un teorema afferma che qualsiasi funzione continua su un compatto può essere approssimata bene quanto si vuole da funzioni vettoriali lineari e da una funzione di attivazione. Te lo dico perché dopo il centesimo video che vedo sull'argomento, mi sono accorto che nessuno affronta il problema fondamentale: catturare le caratteristiche di un insieme di dati (cogliere ad esempio relazioni, classificare, etc.) Progettare una rete immagino passi per questa esigenza.
Interessante. Ma fisicamente di quali componenti si avvalgono queste reti? Utilizzano sempre componenti di base quali transistors, diodi, resistori e condensatori?
6:25 Domandina: Ma W e b sono valori forniti dall'operatore (programmatore?) oppure dal neurone?
Sono inizializzati randomicamente. Tuttavia si potrebbe fare un video intero su che distribuzione usare per generare i valori random.
mi piacerebbe sapere a cosa serve il bias.
Video molto chiaro solo una domanda : cosa rappresenta "b" ?
Ciao Simone, volevamo ringraziarti io e il mio amico che stiamo preparando l'esame di Fondations of Deep Learning e i tuoi video soprattuto quelli sulla Back Propagation e sul Batch Gradient Descent ci hanno aiutato a comprendere meglio il contenuto. Grazie
Ciao Simone ti do questo aggiornamento io e i miei amici che abbiamo uitlizzato i tuoi video abbiamo preso 30, 27 e 27. Grazie ancora
Grande!
Davvero un'ottima spiegazione💪
Complimenti veramente un bel lavoro. Concetti comunque sempre attuali. Grazie.
ogni neurone dovrebbe avere un bias. E.s: 6 neuroni totali, 6 bias, quindi in totale dovremmo avere 9+6+2+6 parametri
spiegato non tanto bene, soprattutto per chi non ha mai studiato questi concetti (e.s.: metodo del gradiente per l'aggiornamento dei pesi). Le relu possono portare a divergenze paurose, meglio usare le funzioni logistiche che sono derivabili all'infinito...
Ciao, grazie per il commento. Se sei alle prime armi/non hai mai studiato quesri concetti fai riferimento qui: ruclips.net/video/0qOFHUPLsw0/видео.html. Cerco di spiegare in maniera piu comprensibile possibile in caso non hai troppa familiarita con i concetti.
interessantissimo, complimenti.
Nice video
Ciao Simone, grazie per il video! potresti fornire esempi di problemi che hai trovato durante il vero esame?
Come decidi quale parte dei dati è usata per il training e quale per il test?
Non continuerai la serie?
Grazie, sto cominciando a capire
Ciao, ho problemi con google colab, mi dice valore non definito, poi dopo molti tentativi mi funziona bene, però non posso perdere ogni volta mezz'ora o più, come devo procedere? Grazie
risolto, grazie
NameError: name 'b' is not defined, cosa devo fare?, non riesco a proseguire. Grazie
Ottimo, grazie
complimenti spettacolare ,spero che in questa serie arriverai anche a modelli di generazione immagini e reti TTS per sintetizzatori
purtroppo non conosco nulla di questi aspetti, ma devo dire che spieghi molto bene
Ciao simone non riesco a capire questa cosa , riesci a spiegarmi grazie in anticipo ! ax= axs[i// ncols,i% ncols] P.S: Un ultima cosa ma se io vorrei confrontare i risultati della 'predict' che salvo in y_pred, con i risultati della y come faccio ? In quanto la return è formato da 10 output ( che presumo sono i numero di neuroni ) ma come faccio a ritornare solo 5 ,1,6,7,8 cioè un numero cosi che lo posso confrontare con la y . Non dovrebbe gia la 'softmax' fare questo lavoro ? Grazie in anticipo sono alle prime armi !
Ciao, la y_pred contiene le 10 probabilità del layer di output per ogni singola immagine. Io ho fatto come segue per estrapolarmi i valori e confrontarli con la y, cioè con l'array dei valori reali: y_pred = model.predict(X)[0:10] # Prendo la predizione delle prime 10 immagini y_pred[4,] # Probabilità di ogni singolo neurone del layer di output per la quinta immagine [10 neuroni dove il primo neurone rappresenta 0, il secondo 1 e così via] y_pred_finale = [] for numero_immagine in range(10): y_pred_finale.append(np.where(y_pred[numero_immagine,] == y_pred[numero_immagine,].max())[0][0]) # Calcolo l'indice a cui si trova il valore massimo di probabilità che corrisponde al numero predetto np.array(y_pred_finale, dtype=np.uint8) # Valori predetti y[0:10] # Vedo i primi 10 valori effettivi
Video Che vedremo in un secondo Momentum ! :D
😂
Grande Simo ! Mentre ho stoppato il video per andare a cercare come si zooma un secondo dopo lo avevi spiegato grande ! :D
Grazie Simone ! Video utilissimi !
Grazie Simone ! Numero Uno !
Spiegazioni Perfette ! Grazie !
Grande molto easy!
Grazie ! ;)
Questo video rappresenta almeno 2 capitoli buoni di un librone di Deep Learning e senza escludere roba importante. Consiglio di studiare anche il gradient checking e l'inizializzazione stocastica dei parametri iniziali e del tuning degli hyperparameters. Per il resto è top. Gran bel lavoro
Che significa oggi sono senza capelli :D ?
Li avevo tagliati :)
@@SimoneIovane hahaahha
Piu' chiaro di cosi' non si puo'.
sei un grande!
Grazie, grazie e ancora grazie. Finalmente sono riuscito a trovare un video in italiano
@__bolognini__ OK! però vedi di studiare l'inglese che tra un po' senza quello, non andrai nemmeno dal giornalaio. Bye
Ciao Simone, sei uno dei pochi italiani che ha fatto dei video decenti su CoLab. Sencondo me l'argomento è potente e pian piano sarà sempre più diffuso. Se cerchi di fare dei video con tante visualizzazioni sul tubo credo che questo argomento uscirà dalla nicchia e sarà sempre più diffuso. Potresti pensare di fare esercizi / esempi che poi la gente copia e ri-adatta ai suoi scopi....ad esempio io trovo tanta roba per machine learning su immagini, ma poco o niente su file audio.... Saluti, Nicola
GRAZIE!! Spiegazione eccellente, complimenti
Ciao Simone, grazie mille per questo video! Avrei una domanda sull'esame a cui non riesco a trovare una risposta nel forum di tf: i dataset per l'esame come vengono passati? Arrivano dei csv e/o degli zip oppure si scaricano tensorflow_datasets?
Se non ricordo male tensorflow dataset!
@@SimoneIovane grazie mille per la risposta!
Grazie Simone, ho capito in profondità questa tecnica fantastica. Sei un Walt Disney della statistica.
Sei un grande. Hai la capacità di spiegare queste cose complesse in un modo semplicissimo e chiarissimo. Davvero complimenti.
Complimenti per i video. Ho una domanda riguardo il numero di neuroni sull'ultimo layer. Qui dici che dato che il valore in uscita può essere 0 o 1 allora metti un solo neurone. Però se ad esempio in uscita posso avere 10 valori diversi, l'ultimo layer da quanti neuroni dovrebbe essere composto? grazie mille e complimenti
10 neuroni! :)
Sei molto bravo, Complimenti !
ottima spiegazione .grazie sto provando di fare una esercitazione su lo stesso argomento e ho riscontrato questo errore : ValueError: Data cardinality is ambiguous: x sizes: 309 y sizes: 133 Make sure all arrays contain the same number of samples.
Ciao Simone, grazie per il video e complimenti. Volevo chiederti se nel libro sono presenti anche esercizi per far pratica mentre si studia. Grazie ancora
Certo! :)
Ciao Simone! Vorrei farti una domanda se possibile! Non mi è chiaro perchè dici che se la grandenzza del batch è più piccola il gradiente è più grande e quindi il passo del gradiente è più grande... Potresti essere più chiaro? Grazie e ottimo video!
Ciao! Al diminuire della batch size la tua stima del gradiente ha una varianza piu' grande e quindi molto piu' variabile. Di conseguenza puoi avere dei passi piu' piccoli ed altri piu' grandi. Forse non l'ho spiegato molto bene nel video.
Simone complimenti! Ma poi da quest'ultimo video non hai prodotto più nulla? I due corsi: "Teoria di Deep Learning" e "Reti Neurali e Deep Learning con TensorFlow" sono composti da 6 + 10 lezioni o continuano? Grazie.
CIao SImone, perchè non fai anche video con esempi pratici, in cui da un problema arrivi alla soluzione (magari in Python come avevi gia fatto)?? Sarebbero molto utili. Piu che altro vorrei capire quali funzioni di attivazione utilizzare, i passi per costruire il modello ecc).
ruclips.net/video/OkF7UjAI9Jw/видео.html :)
Si quelli vecchi lì avevo gia visto. Pensavo più a come scegliere le funzioni di attivazione, il numero di dei parametri(neuroni, layer), ecc.
Courage bro