Grazie. Mi hai aperto un mondo! saper spiegare é un sottoinsieme del sapere, saper spiegare rendendo interessante quello che si dice é un sottoinsieme del saper spiegare, essere comprensibili ad un ventaglio di ascoltatori è... continua tu! bravo
Interessante. Ma fisicamente di quali componenti si avvalgono queste reti? Utilizzano sempre componenti di base quali transistors, diodi, resistori e condensatori?
Ciao! Ti consiglio questo (Inglese): bit.ly/3mhNVFK . Se sei gia' a conoscenza di cosa siano i limiti matematici ecco un' altra spiegazione: bit.ly/2ZvRrm8 . Spero ti siano utili, altrimenti scrivimi ancora!
Ciao grazie per il commento, nel video la formula e' corretta, il risultato di x1*w+b verra' processato dalla funzione f, spiegata al 1:48. Faro' dei video piu' esplicativi su questa parte. So che possono trarre in confusione :)
ciao, ottimo video, credo ci sia un errore al minuto 8.06, dentro la parentesi i termini che sottrai hanno il pedice anche loro poiche' componenti di un vettore. Nel video fai riferimento solo alla derivata parziale rispetto a W ma essendo la funzione C come la chiami tu dipendente anche dalla soglia in realta' abbiamo a che fare con una superficie nello spazio che potrebbe avere anche piu' di un minimo, quindi il minimo non va ricercato solo in una derivata poiche' potresti avere il minimo della derivata parziale in W che non corrisponde al minimo nella superficie rappresentata dalla tua funzione.
Ciao grazie per il commento! 🙃 effettivamente ho dimenticato di mettere il pedice alla y al minuto 8:06. Per quanto riguarda l'intercetta b, al minuto 10:19 esplicito che la ricerca del minimo va considerata anche tenendo conto di b. Ho voluto omettere il concetto di gradiente per evitare di appesantire la lezione. Probabilmente avrei dovuto inserirlo nel disegno 📈
ciao simone, complimenti per i video ma ti segnalo un'imprecisione. La Loss function (che sono di vario tipo a seconda che siano NN per classificazione o regressione... ad esempio nei casi di regressione la più nota è MSE) sono relativi ai singoli esempi mentre invece la Cost function è la media delle loss.
spiegato non tanto bene, soprattutto per chi non ha mai studiato questi concetti (e.s.: metodo del gradiente per l'aggiornamento dei pesi). Le relu possono portare a divergenze paurose, meglio usare le funzioni logistiche che sono derivabili all'infinito...
Ciao, grazie per il commento. Se sei alle prime armi/non hai mai studiato quesri concetti fai riferimento qui: ruclips.net/video/0qOFHUPLsw0/видео.html. Cerco di spiegare in maniera piu comprensibile possibile in caso non hai troppa familiarita con i concetti.
Grazie. Mi hai aperto un mondo! saper spiegare é un sottoinsieme del sapere, saper spiegare rendendo interessante quello che si dice é un sottoinsieme del saper spiegare, essere comprensibili ad un ventaglio di ascoltatori è... continua tu! bravo
Grazie 😉
Grazie, grazie e ancora grazie. Finalmente sono riuscito a trovare un video in italiano
@__bolognini__ OK! però vedi di studiare l'inglese che tra un po' senza quello, non andrai nemmeno dal giornalaio. Bye
Grazie, sto cominciando a capire
Sei molto bravo, Complimenti !
Interessante. Ma fisicamente di quali componenti si avvalgono queste reti? Utilizzano sempre componenti di base quali transistors, diodi, resistori e condensatori?
Grazie per i contenuti...molto interessante. In italiano poi è un grande aiuto
Grazie :) Per spiegazioni teoriche piu' dettagliate ti rimando a questa playlist: ruclips.net/p/PLQoXJIMtxJDr5j47lbU6lhNO3RxJsUcQR
Fantastico Simo, non sapevo le reti neurali potessero essere cosi interessanti :D
6:25 Domandina: Ma W e b sono valori forniti dall'operatore (programmatore?) oppure dal neurone?
Sono inizializzati randomicamente. Tuttavia si potrebbe fare un video intero su che distribuzione usare per generare i valori random.
interessantissimo, complimenti.
Complimenti veramente un bel lavoro. Concetti comunque sempre attuali. Grazie.
Ottimo video, chiarissimo
Grazie Gennaro ;) Nuovi video in arrivo!
con esempi numerici sarebbe ottimo. Poi non ho capito una cosa il parametro w è uguale per tutti i valori o variano per ogni singolo valore?
Ciao!, ti linko la playlist aggiornata con esempi numerici e teoria: ruclips.net/p/PLQoXJIMtxJDr5j47lbU6lhNO3RxJsUcQR
Molto Chiaro, bel video ;)
Grazie :)
Ciao. Potresti darmi un link relativo alla formula del calcolo della pendenza della retta tangente su un punto? grazie
Ciao! Ti consiglio questo (Inglese): bit.ly/3mhNVFK . Se sei gia' a conoscenza di cosa siano i limiti matematici ecco un' altra spiegazione: bit.ly/2ZvRrm8 . Spero ti siano utili, altrimenti scrivimi ancora!
bravo !!!
al minuto 5:20 dici che y^1 = f(x1*w+b).... ma immagino che la formula giusta sia invece:
y^1 = f(x1) = x1*w+b
Ciao grazie per il commento, nel video la formula e' corretta, il risultato di x1*w+b verra' processato dalla funzione f, spiegata al 1:48. Faro' dei video piu' esplicativi su questa parte. So che possono trarre in confusione :)
Ciao @@SimoneIovane e grazie per la risposta... evidentemente dovrò studiarmi meglio la teoria, si vede che avevo capito male
@@ricfio.professional Tranquillo! per altri dubbi, precisazioni scrivi pure nei commenti :)
Bravo. Spieghi lentamente.
ciao, ottimo video, credo ci sia un errore al minuto 8.06, dentro la parentesi i termini che sottrai hanno il pedice anche loro poiche' componenti di un vettore. Nel video fai riferimento solo alla derivata parziale rispetto a W ma essendo la funzione C come la chiami tu dipendente anche dalla soglia in realta' abbiamo a che fare con una superficie nello spazio che potrebbe avere anche piu' di un minimo, quindi il minimo non va ricercato solo in una derivata poiche' potresti avere il minimo della derivata parziale in W che non corrisponde al minimo nella superficie rappresentata dalla tua funzione.
Ciao grazie per il commento! 🙃 effettivamente ho dimenticato di mettere il pedice alla y al minuto 8:06. Per quanto riguarda l'intercetta b, al minuto 10:19 esplicito che la ricerca del minimo va considerata anche tenendo conto di b. Ho voluto omettere il concetto di gradiente per evitare di appesantire la lezione. Probabilmente avrei dovuto inserirlo nel disegno 📈
ciao simone, complimenti per i video ma ti segnalo un'imprecisione. La Loss function (che sono di vario tipo a seconda che siano NN per classificazione o regressione... ad esempio nei casi di regressione la più nota è MSE) sono relativi ai singoli esempi mentre invece la Cost function è la media delle loss.
Ciao! Si me ne ero reso conto :) infatti ho fatto un altro video ruclips.net/video/PLkCwQ4c5vM/видео.html dove spiego correttamente.
spiegato non tanto bene, soprattutto per chi non ha mai studiato questi concetti (e.s.: metodo del gradiente per l'aggiornamento dei pesi). Le relu possono portare a divergenze paurose, meglio usare le funzioni logistiche che sono derivabili all'infinito...
Ciao, grazie per il commento. Se sei alle prime armi/non hai mai studiato quesri concetti fai riferimento qui: ruclips.net/video/0qOFHUPLsw0/видео.html. Cerco di spiegare in maniera piu comprensibile possibile in caso non hai troppa familiarita con i concetti.