Questo è il miglior video che ho visto fino ad ora su questo argomento. Lo hai spiegato in modo semplice e comprensibile pur entrando nel dettaglio del paper scientifico. Sei un punto di riferimento per chi vuole approfondire seriamente gli aspetti scientifici e tecnologici che ruotano intorno al mondo AI. Complimenti!
Complimenti Simone, sei una ventata d'aria fresca, e spieghi in modo ineccepibile ❤, tu insieme a menti emergenti state facendo un lavoro eccezionale 🎉
Ciao Simone, non riesco a capire perché Google pubblichi queste su ricerche, prima ancora di aver sviluppato un prodotto da poi rilasciare. Nulla vieta che un competitor prenda spunto da questo e riesca ad uscire fuori con qualcosa di pronto prima di Google stesso.
se pubblicano il paper significa che già lo tengono implementato ed hanno un vantaggio di almeno 3 mesi rispetto a chi lo legge ora e deve implementarlo.
Ottime info Simone. Certamente se non si conosce il razionale dietro la matematica del machine learning e dei modelli, non è facile spiegare da un punto di vista tecnico l'architettura degli stessi e in cosa esse stesse si differenziano. Il tuo supporto consente ai meno "avvezzi", di poter tuttavia comprendere a un buon livello d'astrazione, cosa sono e come funzionano. La logica dietro "l'effetto sorpresa" ed i meccanismi dell'aggiornamento dinamico della memoria di per sè non sono molto complessi da un punto di vista matematico, ma la genialata è proprio la loro integrazione nel contesto preesistente e l'intuizione che vi sta dietro.
ho una curiosità Simone: ma nel caso della rete neurale Transformer, l'attenzione è appresa dalla rete neurale durante il training o è scritta in codice e basta?
@@simone_rizzo98 si ok, questa è una distinzione che facciamo noi. Ma, ad esempio, dove risiede? E' solamente fisica? Come funziona? E' sempre la stessa memoria ma che funziona in due maniere diverse? La nostra memoria è affettiva non binaria, altro esempio
Questo è il miglior video che ho visto fino ad ora su questo argomento. Lo hai spiegato in modo semplice e comprensibile pur entrando nel dettaglio del paper scientifico. Sei un punto di riferimento per chi vuole approfondire seriamente gli aspetti scientifici e tecnologici che ruotano intorno al mondo AI. Complimenti!
graziee che bel commento!
Sono arrivato fino al 16:43 senza capire lo scopo di tutto questo quando BOOOOM! in 2 parole mi hai chiarito tutto! Grazie
menomale allora che sei arrivato fino a quel punto!
Grazie per la spiegazione! Continua così!
Avanti tutta!
Ottimo video! Grazie
Ormai aspetto solo i tuoi video per le novità vere sulle ai ahahha
Pure io XD
mi rendete veramente felice e contento del lavoro che sto facendo su youtube, stiamo creando una bella community!
Complimenti Simone, sei una ventata d'aria fresca, e spieghi in modo ineccepibile ❤, tu insieme a menti emergenti state facendo un lavoro eccezionale 🎉
graziee per i supporto!!
Ciao Simone, non riesco a capire perché Google pubblichi queste su ricerche, prima ancora di aver sviluppato un prodotto da poi rilasciare. Nulla vieta che un competitor prenda spunto da questo e riesca ad uscire fuori con qualcosa di pronto prima di Google stesso.
Esatto mi chiedo da tempo la stessa cosa anche io
se pubblicano il paper significa che già lo tengono implementato ed hanno un vantaggio di almeno 3 mesi rispetto a chi lo legge ora e deve implementarlo.
Grazie mille Simone!
Bravo simo
Ottime info Simone. Certamente se non si conosce il razionale dietro la matematica del machine learning e dei modelli, non è facile spiegare da un punto di vista tecnico l'architettura degli stessi e in cosa esse stesse si differenziano. Il tuo supporto consente ai meno "avvezzi", di poter tuttavia comprendere a un buon livello d'astrazione, cosa sono e come funzionano. La logica dietro "l'effetto sorpresa" ed i meccanismi dell'aggiornamento dinamico della memoria di per sè non sono molto complessi da un punto di vista matematico, ma la genialata è proprio la loro integrazione nel contesto preesistente e l'intuizione che vi sta dietro.
Ok grazie, bell'intervento!
Cari saluti
Ciao Giovanni grazie per il commento!
è interessante rimanere sempre sul pezzo sulle ultime ricerche.
vi mantengo aggiornati!
Grazie Simo
ho una curiosità Simone: ma nel caso della rete neurale Transformer, l'attenzione è appresa dalla rete neurale durante il training o è scritta in codice e basta?
è appresa durante il training
@@simone_rizzo98 ok
😮interessante
Grazie per la presentazione molto chiara
prego è un piacere!
e c'è gia una libreria non ufficiale che implementa l'architettura descritta nel paper....
poo fantastico grazie, vado subito a vedermela!
A che indirizzo la troviamo?
Sei un grande! Donerei
addirittura, graziee
Come si chiama il file reader?
è un reader online smallpdf.com/edit-pdf
Sei fortissimo...
addirittura!
💪
come si fa a creare qualcosa che assomigli al cervello/memoria umana se non sappiamo veramente come funziona?
sappiamo che abbiamo una memoria a lungo termine ed una a breve termine
@@simone_rizzo98 si ok, questa è una distinzione che facciamo noi.
Ma, ad esempio, dove risiede? E' solamente fisica? Come funziona?
E' sempre la stessa memoria ma che funziona in due maniere diverse?
La nostra memoria è affettiva non binaria, altro esempio
Ma perché sorridi in modo strano? Sembra un tic nervoso
si è un tic quando penso avvolte mi viene
Ma saranno cazzi suoi
@@simone_rizzo98 a volte* 🙌