Grazie. Mi hai aperto un mondo! saper spiegare é un sottoinsieme del sapere, saper spiegare rendendo interessante quello che si dice é un sottoinsieme del saper spiegare, essere comprensibili ad un ventaglio di ascoltatori è... continua tu! bravo
Interessante. Ma fisicamente di quali componenti si avvalgono queste reti? Utilizzano sempre componenti di base quali transistors, diodi, resistori e condensatori?
Ciao! Ti consiglio questo (Inglese): bit.ly/3mhNVFK . Se sei gia' a conoscenza di cosa siano i limiti matematici ecco un' altra spiegazione: bit.ly/2ZvRrm8 . Spero ti siano utili, altrimenti scrivimi ancora!
ciao simone, complimenti per i video ma ti segnalo un'imprecisione. La Loss function (che sono di vario tipo a seconda che siano NN per classificazione o regressione... ad esempio nei casi di regressione la più nota è MSE) sono relativi ai singoli esempi mentre invece la Cost function è la media delle loss.
ciao, ottimo video, credo ci sia un errore al minuto 8.06, dentro la parentesi i termini che sottrai hanno il pedice anche loro poiche' componenti di un vettore. Nel video fai riferimento solo alla derivata parziale rispetto a W ma essendo la funzione C come la chiami tu dipendente anche dalla soglia in realta' abbiamo a che fare con una superficie nello spazio che potrebbe avere anche piu' di un minimo, quindi il minimo non va ricercato solo in una derivata poiche' potresti avere il minimo della derivata parziale in W che non corrisponde al minimo nella superficie rappresentata dalla tua funzione.
Ciao grazie per il commento! 🙃 effettivamente ho dimenticato di mettere il pedice alla y al minuto 8:06. Per quanto riguarda l'intercetta b, al minuto 10:19 esplicito che la ricerca del minimo va considerata anche tenendo conto di b. Ho voluto omettere il concetto di gradiente per evitare di appesantire la lezione. Probabilmente avrei dovuto inserirlo nel disegno 📈
Ciao grazie per il commento, nel video la formula e' corretta, il risultato di x1*w+b verra' processato dalla funzione f, spiegata al 1:48. Faro' dei video piu' esplicativi su questa parte. So che possono trarre in confusione :)
spiegato non tanto bene, soprattutto per chi non ha mai studiato questi concetti (e.s.: metodo del gradiente per l'aggiornamento dei pesi). Le relu possono portare a divergenze paurose, meglio usare le funzioni logistiche che sono derivabili all'infinito...
Ciao, grazie per il commento. Se sei alle prime armi/non hai mai studiato quesri concetti fai riferimento qui: ruclips.net/video/0qOFHUPLsw0/видео.html. Cerco di spiegare in maniera piu comprensibile possibile in caso non hai troppa familiarita con i concetti.
Grazie. Mi hai aperto un mondo! saper spiegare é un sottoinsieme del sapere, saper spiegare rendendo interessante quello che si dice é un sottoinsieme del saper spiegare, essere comprensibili ad un ventaglio di ascoltatori è... continua tu! bravo
Grazie 😉
Grazie, grazie e ancora grazie. Finalmente sono riuscito a trovare un video in italiano
@__bolognini__ OK! però vedi di studiare l'inglese che tra un po' senza quello, non andrai nemmeno dal giornalaio. Bye
Grazie per i contenuti...molto interessante. In italiano poi è un grande aiuto
Grazie :) Per spiegazioni teoriche piu' dettagliate ti rimando a questa playlist: ruclips.net/p/PLQoXJIMtxJDr5j47lbU6lhNO3RxJsUcQR
Sei molto bravo, Complimenti !
Fantastico Simo, non sapevo le reti neurali potessero essere cosi interessanti :D
Grazie, sto cominciando a capire
interessantissimo, complimenti.
Interessante. Ma fisicamente di quali componenti si avvalgono queste reti? Utilizzano sempre componenti di base quali transistors, diodi, resistori e condensatori?
Ottimo video, chiarissimo
Grazie Gennaro ;) Nuovi video in arrivo!
Complimenti veramente un bel lavoro. Concetti comunque sempre attuali. Grazie.
Molto Chiaro, bel video ;)
Grazie :)
6:25 Domandina: Ma W e b sono valori forniti dall'operatore (programmatore?) oppure dal neurone?
Sono inizializzati randomicamente. Tuttavia si potrebbe fare un video intero su che distribuzione usare per generare i valori random.
bravo !!!
con esempi numerici sarebbe ottimo. Poi non ho capito una cosa il parametro w è uguale per tutti i valori o variano per ogni singolo valore?
Ciao!, ti linko la playlist aggiornata con esempi numerici e teoria: ruclips.net/p/PLQoXJIMtxJDr5j47lbU6lhNO3RxJsUcQR
Ciao. Potresti darmi un link relativo alla formula del calcolo della pendenza della retta tangente su un punto? grazie
Ciao! Ti consiglio questo (Inglese): bit.ly/3mhNVFK . Se sei gia' a conoscenza di cosa siano i limiti matematici ecco un' altra spiegazione: bit.ly/2ZvRrm8 . Spero ti siano utili, altrimenti scrivimi ancora!
ciao simone, complimenti per i video ma ti segnalo un'imprecisione. La Loss function (che sono di vario tipo a seconda che siano NN per classificazione o regressione... ad esempio nei casi di regressione la più nota è MSE) sono relativi ai singoli esempi mentre invece la Cost function è la media delle loss.
Ciao! Si me ne ero reso conto :) infatti ho fatto un altro video ruclips.net/video/PLkCwQ4c5vM/видео.html dove spiego correttamente.
ciao, ottimo video, credo ci sia un errore al minuto 8.06, dentro la parentesi i termini che sottrai hanno il pedice anche loro poiche' componenti di un vettore. Nel video fai riferimento solo alla derivata parziale rispetto a W ma essendo la funzione C come la chiami tu dipendente anche dalla soglia in realta' abbiamo a che fare con una superficie nello spazio che potrebbe avere anche piu' di un minimo, quindi il minimo non va ricercato solo in una derivata poiche' potresti avere il minimo della derivata parziale in W che non corrisponde al minimo nella superficie rappresentata dalla tua funzione.
Ciao grazie per il commento! 🙃 effettivamente ho dimenticato di mettere il pedice alla y al minuto 8:06. Per quanto riguarda l'intercetta b, al minuto 10:19 esplicito che la ricerca del minimo va considerata anche tenendo conto di b. Ho voluto omettere il concetto di gradiente per evitare di appesantire la lezione. Probabilmente avrei dovuto inserirlo nel disegno 📈
al minuto 5:20 dici che y^1 = f(x1*w+b).... ma immagino che la formula giusta sia invece:
y^1 = f(x1) = x1*w+b
Ciao grazie per il commento, nel video la formula e' corretta, il risultato di x1*w+b verra' processato dalla funzione f, spiegata al 1:48. Faro' dei video piu' esplicativi su questa parte. So che possono trarre in confusione :)
Ciao @@SimoneIovane e grazie per la risposta... evidentemente dovrò studiarmi meglio la teoria, si vede che avevo capito male
@@ricfio.professional Tranquillo! per altri dubbi, precisazioni scrivi pure nei commenti :)
Bravo. Spieghi lentamente.
spiegato non tanto bene, soprattutto per chi non ha mai studiato questi concetti (e.s.: metodo del gradiente per l'aggiornamento dei pesi). Le relu possono portare a divergenze paurose, meglio usare le funzioni logistiche che sono derivabili all'infinito...
Ciao, grazie per il commento. Se sei alle prime armi/non hai mai studiato quesri concetti fai riferimento qui: ruclips.net/video/0qOFHUPLsw0/видео.html. Cerco di spiegare in maniera piu comprensibile possibile in caso non hai troppa familiarita con i concetti.