Ciao Simone! grazie per i tuoi video davvero molto chiari! posso chiederti sulla base di cosa al 6.15 circa scegli 16 neuroni? non ho capito questo passaggio. grazie mille
Grazie! il numero di neuroni e' una numero chiamato hyperparameter. E' un numero che non ha un vero e proprio criterio di scelta, si utilizzano tecniche di hyperparameter tuning, che in praticano scelgono il numero che da performances migliori.
@@SimoneIovane quindi, se ho capito bene, la scelta del numero di neuroni si può basare su un ragionamento empirico e si vanno a valutare via via le performance in base ai paramentri che hai illustrato? grazie mille:)
Ciao Simone molto interessante tutta la serie. Volevo chiederti perché nei primi strati relu e poi sigmoid? Ho capito il sigmoid finale perché è una sorta di logistico ma cosa succederebbe se io mettessi tutte funzioni di attivazione sigmoid? Si può scegliere una funzione diversa per I primi layers?
Grazie! Esiste il concetto di "Vanishing Gradient", che spieghero' nei prossimi video. Essendo che la derivata dell sigmoid ha un massimo in 0.5, avrai un update del gradiente molto piccolo in quanto, facendo il prodotto di derivate molto minori di 1, alla fine si avra' un gradiente molto molto piccolo e quindi una rete che non "impara". Le funzioni ReLu e SeLu invece hanno un massimo in 1 io che le rende piu' stabili.
Complimenti per i video. Ho una domanda riguardo il numero di neuroni sull'ultimo layer. Qui dici che dato che il valore in uscita può essere 0 o 1 allora metti un solo neurone. Però se ad esempio in uscita posso avere 10 valori diversi, l'ultimo layer da quanti neuroni dovrebbe essere composto? grazie mille e complimenti
Ciao Simone, grazie per i tuoi video. Una paio di domande, come mai nell'esempio precedente del video ruclips.net/video/OkF7UjAI9Jw/видео.html&ab_channel=SimoneIovane non hai specificato nessuna activation function? Qui tutti e tre i layer ne hanno una. Perchè i primi due layer hanno entrambi una ReLU come activation e solo per il primo hai specificato il param input_shape? Grazie ancora.
Ciao! Grazie :) Se non hai bisogno di vincolare il tuo output a dei valori (ex 0,1) non metti alcuna activation function altrimenti non si riuscirebbe a prevedere i valori della y. "input_shape" serve al framework per inizializzare la prima matrice dei pesi, se ci pensi la prima matrice ha numero di righe uguale al numero delle features. Le altre matrici dei layers possono essere inferite guardando le matrici precedenti. Spero sia stato chiaro!
Grande Simo ! Mentre ho stoppato il video per andare a cercare come si zooma un secondo dopo lo avevi spiegato grande ! :D
Grazie mille, mi sto affacciando al mondo dell'AI e visto questo video credo che comincerò dall'inizio a guardare tutta la tua serie!
Grazie 😊 spero ti siano chiari!
Grazie Simone, molto utile!
Ottimo, video molto interessante.
Come decidi quale parte dei dati è usata per il training e quale per il test?
Ciao Simone! grazie per i tuoi video davvero molto chiari! posso chiederti sulla base di cosa al 6.15 circa scegli 16 neuroni? non ho capito questo passaggio. grazie mille
Grazie! il numero di neuroni e' una numero chiamato hyperparameter. E' un numero che non ha un vero e proprio criterio di scelta, si utilizzano tecniche di hyperparameter tuning, che in praticano scelgono il numero che da performances migliori.
@@SimoneIovane quindi, se ho capito bene, la scelta del numero di neuroni si può basare su un ragionamento empirico e si vanno a valutare via via le performance in base ai paramentri che hai illustrato? grazie mille:)
@@giovannichinellato7928 Esattamente così!
Ciao Simone molto interessante tutta la serie. Volevo chiederti perché nei primi strati relu e poi sigmoid? Ho capito il sigmoid finale perché è una sorta di logistico ma cosa succederebbe se io mettessi tutte funzioni di attivazione sigmoid? Si può scegliere una funzione diversa per I primi layers?
Grazie! Esiste il concetto di "Vanishing Gradient", che spieghero' nei prossimi video. Essendo che la derivata dell sigmoid ha un massimo in 0.5, avrai un update del gradiente molto piccolo in quanto, facendo il prodotto di derivate molto minori di 1, alla fine si avra' un gradiente molto molto piccolo e quindi una rete che non "impara". Le funzioni ReLu e SeLu invece hanno un massimo in 1 io che le rende piu' stabili.
Complimenti per i video. Ho una domanda riguardo il numero di neuroni sull'ultimo layer. Qui dici che dato che il valore in uscita può essere 0 o 1 allora metti un solo neurone. Però se ad esempio in uscita posso avere 10 valori diversi, l'ultimo layer da quanti neuroni dovrebbe essere composto? grazie mille e complimenti
10 neuroni! :)
Ciao Simone, grazie per i tuoi video.
Una paio di domande, come mai nell'esempio precedente del video ruclips.net/video/OkF7UjAI9Jw/видео.html&ab_channel=SimoneIovane non hai specificato nessuna activation function? Qui tutti e tre i layer ne hanno una.
Perchè i primi due layer hanno entrambi una ReLU come activation e solo per il primo hai specificato il param input_shape?
Grazie ancora.
Ciao! Grazie :) Se non hai bisogno di vincolare il tuo output a dei valori (ex 0,1) non metti alcuna activation function altrimenti non si riuscirebbe a prevedere i valori della y.
"input_shape" serve al framework per inizializzare la prima matrice dei pesi, se ci pensi la prima matrice ha numero di righe uguale al numero delle features. Le altre matrici dei layers possono essere inferite guardando le matrici precedenti. Spero sia stato chiaro!
Che significa oggi sono senza capelli :D ?
Li avevo tagliati :)
@@SimoneIovane hahaahha