Inibire i pattern implica decidere cosa censurare. Significa manipolare le risposte e potenzialmente indirizzare verso risposte correlate solo a una certa idea politica, ad esempio. Questo mi spaventa molto. Il video è molto esplicativo e semplice da comprendere, grazie! Preziosissimo. 😺
Uno dei video più interessanti che ho visto ultimamente! Un tema poco tecnico ma molto filosofico è : chi decide cosa è giusto e sbagliato? é giusto inibire certi pattern e valorizzarne altri solo perché nella nostra cultura c'è una certa etica e una certa morale! Se i bottoni li schiacciano gli americani temo che tutte queste intelligenze diventeranno una melma inutilizzabile per le cose serie.
Video interessante, un approfondimento chiaro. Sarebbe interessante capire se vi sono analogie tra follia umana ed allucinazione indotta dar rafforzamento di pattern dell AI…
Gran bel video grazie. Avrei una domanda: è possibile riuscire a tenersi informati settimanalmente sull'attualità in Italia e nel mondo tramite l'I.A.? Nel caso su quale criterio sceglie quali sono le notizie da primeggiare?
Il linea teorica sì, ma è davvero difficile. I modelli di "probing" su Neuronpedia si possono scaricare da HuggingFace e quindi potresti teoricamente usarli per capire quanto si attiva il neurone. In più i modelli di probing ci sono solo per un paio di modelli di Gemma. Insomma, è più un qualcosa da fare per un progetto di ricerca che un qualcosa da domenica sera. Finetuning e Abliterazione sono in confronto molto più semplici.
Video interessantissimo ! Se non sono Out of Topic vorrei capire quando gli LLM utilizzano le reti neurali e quando invece mappano i testi nei db vettoriali per estrarre le informazioni. Sarebbe simpatico magari con un piccolo codice pyton di esempio o altrimenti uno schema logico. Grazie mille ancora per quello che fate !
Ciao! Allora, è una questione un po' complicata: Per com'è presa la domanda così com'è, gli LLM sono la rete neurale. Che all'occorrenza si può costruire un soprasistema, conosciuto come RAG, dove, nella sua forma più semplice, si fa una mappatura vettoriale tra il testo di input e i vari testi di contesto. La RAG si fa quando si chiedono informazioni specifiche rispetto ad un database, come ad esempio un codice specifico o praticamente per avere risposte basate sulle fonti. Dall'altro canto la confusione può nascere anche dal fatto che gli LLM usano un "embedding" molto nascosto all'utente. Lì, l'argomento è parecchio complicato e ci sarebbe parecchio da spiegare.
Questo pone un problema gigantesco di eticità delle case produttrici di IA. Chi controlla che certi pattern non siano arbitrariamente aumentati (magari in modo non evidente) per instillare idee indotte negli utenti? E' una questione etica molto spinosa
Per questo è bene usare le App o siti ufficiali solo come modelli di linguaggio e non come fornitori di informazioni, preferendo le implementazioni delle singole aziende, se apro quello dell'azienda X so che ci saranno i bias dell'azienda X e li conosco, altrimenti non lo so ma mi potrei lasciare influenzare
tutto perfetto ma ...perchè parlare a questa velocità?? E' semplicemente assurdo...Si tratta di concetti da metabolizzare! E' così complesso da capire? Mah!!!!
Inibire i pattern implica decidere cosa censurare. Significa manipolare le risposte e potenzialmente indirizzare verso risposte correlate solo a una certa idea politica, ad esempio. Questo mi spaventa molto.
Il video è molto esplicativo e semplice da comprendere, grazie! Preziosissimo. 😺
Uno dei video più interessanti che ho visto ultimamente! Un tema poco tecnico ma molto filosofico è : chi decide cosa è giusto e sbagliato? é giusto inibire certi pattern e valorizzarne altri solo perché nella nostra cultura c'è una certa etica e una certa morale! Se i bottoni li schiacciano gli americani temo che tutte queste intelligenze diventeranno una melma inutilizzabile per le cose serie.
Condivido la tua riflessione
Se poteste farlo, disloghereste con una IA molto più avanzata rispetto a quella descritta?
Finalmente un contenuto per chi desidera andare oltre la superficie. 🤷♂️
...molto chiaro, sintetico e dettagliato, complimenti!
Bellissimo video, strainteressante la parte sui pattern e l'interpretabilità, urge uno o più video d'approfondimento!
Bel video complimenti
Chiarissimo, grazie mille🎉
Ottimo video, spunti super interessanti!
Wow, molto interessante 😮
Video interessante, un approfondimento chiaro. Sarebbe interessante capire se vi sono analogie tra follia umana ed allucinazione indotta dar rafforzamento di pattern dell AI…
Che interessante
Gran bel video grazie. Avrei una domanda: è possibile riuscire a tenersi informati settimanalmente sull'attualità in Italia e nel mondo tramite l'I.A.? Nel caso su quale criterio sceglie quali sono le notizie da primeggiare?
Lo steering è davvero interessantissimo, è possibile farlo su un LLM hostato in locale?
Il linea teorica sì, ma è davvero difficile. I modelli di "probing" su Neuronpedia si possono scaricare da HuggingFace e quindi potresti teoricamente usarli per capire quanto si attiva il neurone. In più i modelli di probing ci sono solo per un paio di modelli di Gemma. Insomma, è più un qualcosa da fare per un progetto di ricerca che un qualcosa da domenica sera. Finetuning e Abliterazione sono in confronto molto più semplici.
Video interessantissimo ! Se non sono Out of Topic vorrei capire quando gli LLM utilizzano le reti neurali e quando invece mappano i testi nei db vettoriali per estrarre le informazioni. Sarebbe simpatico magari con un piccolo codice pyton di esempio o altrimenti uno schema logico. Grazie mille ancora per quello che fate !
Ciao!
Allora, è una questione un po' complicata:
Per com'è presa la domanda così com'è, gli LLM sono la rete neurale. Che all'occorrenza si può costruire un soprasistema, conosciuto come RAG, dove, nella sua forma più semplice, si fa una mappatura vettoriale tra il testo di input e i vari testi di contesto.
La RAG si fa quando si chiedono informazioni specifiche rispetto ad un database, come ad esempio un codice specifico o praticamente per avere risposte basate sulle fonti. Dall'altro canto la confusione può nascere anche dal fatto che gli LLM usano un "embedding" molto nascosto all'utente. Lì, l'argomento è parecchio complicato e ci sarebbe parecchio da spiegare.
Questo pone un problema gigantesco di eticità delle case produttrici di IA. Chi controlla che certi pattern non siano arbitrariamente aumentati (magari in modo non evidente) per instillare idee indotte negli utenti?
E' una questione etica molto spinosa
Per questo è bene usare le App o siti ufficiali solo come modelli di linguaggio e non come fornitori di informazioni, preferendo le implementazioni delle singole aziende, se apro quello dell'azienda X so che ci saranno i bias dell'azienda X e li conosco, altrimenti non lo so ma mi potrei lasciare influenzare
se saltassi il pattern al 100% praticamente risponderebbe qualcosa come "pizza pizza pizza pizza"
comunque mettere altre pizze sopra una pizza mi sembra un'ottima risposta 🤣
Mi piacerebbe contattarti, è possibile?
Credo saresti molto interessato a ciò che ti proporrei.
😮
benedetta censura ..l' anima della libertà.. 😀
non ho capito un caizer
tutto perfetto ma ...perchè parlare a questa velocità?? E' semplicemente assurdo...Si tratta di concetti da metabolizzare! E' così complesso da capire? Mah!!!!
puoi rallentare il video
Se può esservi utile, i primi 2 link nella descrizione del video al momento non funzionano.
Ciao! Grazie per l'avviso, ora dovresti aprirli senza problemi :)