@@lucianomengoli3104 AZZ! Il termine comunità su FaceBook non esiste. Eri per caso nella Comunità dei Testimoni di Geova? Perché in questo caso sono stati gli Anziani ad espellerti, anzi a disassociarti.
signor Mercadini, sono felice di annunciarla che mesi fa l’ho scoperta col suo primo video sull’AI, e dopo numerosissimi video e spettacoli a cui ho presenziato, sono felice di essere qui col suo secondo video sull’argomento
Ho da poco cominciato a seguire un corso di informatica alla mia università, il professore per farci capire come “pensa” un computer (e quindi come strutturare i programmi che scriviamo),la prima lezione ci disse questa barzelletta: un programmatore va a fare la spesa e sull’ uscio di casa la moglie gli dice “ compra un chilo di pane e se hanno le uova, comprane 12”. Poco dopo il programmatore torna con 12 chili di pane e la moglie sconcertata gli chiede cosa gli sia saltato in mente, lui, confuso, risponde “avevano le uova”.
Il relatore del video ha ragione nel dimostrare le limitazioni dell'intelligenza artificiale, mostrando come GPT non possiede conoscenza o esperienza effettiva ma si basi su calcoli probabilistici. Questo è vero poiché l'IA non può comprendere il mondo in modo uguale a un essere umano e le sue risposte sono basate su dati e algoritmi, non sulla comprensione o l'esperienza personali. Il relatore ha anche ragione nel contrapporre l'approccio di GPT alle suggestioni musicali di Spotify per dimostrare che l'intelligenza artificiale non può comprendere veramente concetti come la magia o le melodie ancestrali, limitandosi a generare risposte basate su calcoli probabilistici. Questo è vero poiché l'IA non ha una comprensione umana della bellezza e dell'emozione, ma solo una rappresentazione matematica di queste concettualizzazioni. Infine, il relatore esprime fascino e disagio riguardo alle differenze tra intelligenza umana e artificiale, riflettendo sulle potenziali somiglianze sotto la superficie ma anche sulla profonda diversità tra l'intelligenza umana e quella artificale. Questo è vero poiché l'IA può eseguire compiti complessi come GPT o generare suggestioni musicali, ma non possiede una comprensione umana della bellezza, dell'emozione o del significato di queste cose. Il video si chiude con la recitazione di una poesia di Nino Pedretti sia in italiano che nel suo dialetto romagnolo originale, dimostrando come l'arte umana possa esprimere emozioni e concetti in modo più profondo e personale rispetto all'intelligenza artificiale. (Analisi effettuata dalla mia AI locale basata su modello Wizardlm-13b) G.
8:52 sostanzialmente l’architettura del linguaggio di ChatGPT è basata su reti neurali che vengono utilizzate per generare una risposta. Quest’ultima si basa sul percorso specifico che l’IA compie durante l’analisi della domanda. Quando il percorso che segue porta a dei dati insufficienti o ad una mancanza di informazioni rilevanti risponderà con “non so”. Mentre se, eseguendo dei calcoli probabilistici, il percorso porta l’IA ad avere un grado di certezza sufficiente per dare una risposta risponderà. Il fatto che sia probabile non significa che sia vero, per questo porta a volte (se non spesso) a dare come risposte delle castronerie come dici bene tu. Ottima riflessione come sempre!
Non esiste il concetto di percorso. Una rete produce in output una risposta indipendente dalla query di input. Il "non lo so" è semplicemente dato dal fatto che è stata trainata ad associare il "non lo so" ad query che noi etichettiamo come cose che lei non dovrebbe conoscere
Non mi sembra scorretto parlare di percorso. Il modello compie una sequenza di passaggi mentre elabora l'informazione nei vari layer per generare la risposta finale. Per quanto riguarda la questione del training in base alla risposta “non so” hai ragione, ma del resto siamo noi ad attribuire il significato alla frase “non so”, per chatGPT è una risposta.
Un'altra volta complimenti, perché con le tue parole e i tuoi pensieri, in pochi minuti riesci a distillare concetti che aprono le prospettive, che fanno riflettere, e infine ispirare ulteriori ragionamenti. Forse è questa un'altra cosa che ci differenzia nettamente da qualsiasi ai: l'intento, la volontà di raccontare ma con lo spirito di chi vuole ispirare a ulteriore ragionamento, che sia consapevole o meno. In definitiva l'idea di aprire, mentre ciò che fa un chatgpt o simili, al momento è chiudere.
Video SEMPRE interessante... Ma come mi ha emozionato la poesia finale... Grazie Roberto. Grazie di donare il tuo tempo (quello che non si vede nei tuoi video) a prendere, esperire,elaborare e divulgare tutto ciò che "mastichi" nella tua vita. Fa bene all'anima ascoltarti ✨🧗♂️
Ciao Roberto, questo è uno dei pochi video tuoi dove mi trovi al 90% in disaccordo 😬 All'inizio stavo per scrivere un lunghissimo commento con alcune considerazioni, ma poi ho pensato di farci un video. Se mai leggerai questo commento buttaci un occhio, che magari nasce un confronto interessante dalla cosa 😊
@@leonarix non è esattamente ciò che dice lui. La tecnologia che sta alla base dell’IA, non è compresa fino in fondo neanche da chi l’ha programmata. Non sono meri calcoli, è qualcosa di più… detto questo il messaggio è chiaro e in parte condivisibile, ma ci sono dei punti critici nel suo discorso
@@leonarix Nel video non c'è alcun vero messaggio che non sia una disamina di uno strumento su presupposti erronei. Se vuoi criticare uno strumento, devi testare la versione più rappresentativa. Non puoi criticare ChatGPT dopo aver utilizzato esclusivamente la versione 3.5. Inoltre, la connessione tra la mente umana e la macchina non è una novità di oggi. Ho avuto la fortuna di avere Giulio Giorello come professore di Filosofia della scienza, e lui ne parlava già nel libro "L'automa spirituale: Menti, cervelli, computer", curato insieme a Piergiorgio Strata
Video molto interessante. In realtà anche l'uomo quando ricorda un evento compie un atto creativo, non abbiamo un database con i dati rigidi, ma ogni volta riformuliamo il ricordo e lo modifichiamo. Anche noi spesso diciamo cose con certezza che poi si rivelano errate. Viceversa quando si crea qualcosa attingiamo alla memoria per riformulare il già detto. Anche noi abbiamo i falsi ricordi, anche noi abbiamo le allucinazioni. Da questo punto di vista a me chatGPT sembra più vicino all'uomo che ad un calcolatore. La differenza sostanziale a me sembra il grado di consapevolezza e di errore. Modificando un po' il prompt ottieni risultati migliori con la stessa domanda. Se ci pensi la stessa cosa avviene anche con noi, più hai il contesto della domanda e più sei certo di non uscirne fuori.
Completare quello che non si ricorda con dettagli verosimili ma non veri è diverso da inventarsi completamente un profilo (poeta Trentino ladino invece che romagnolo, ahaha) sulla base di un oscuro algoritmo statistico, ci vedo ben poca affinità dei due processi. È l'abisso che separa la coscienza dalla non-coscienza...
Non per nulla "allucinazione" (hallucination) è il termine tecnico usato per descrivere questo genere di fenomeni nei Large Language Model come chatgpt
Ad un livello molto più profondo di quello che siamo abituati a intendere normalmente noi quando parliamo di intelligenza anche quella umana funziona in modo non molto dissimile da quella artificiale. I ricordi umani sono dati dalla nostra rete di neuroni che si arricchisce ogni volta che memorizziamo qualcosa, un computer scrivere una cella all'interno di un supporto di memoria, tecnicamente le due operazioni sono analoghe. Formulare un pensiero o dare una risposta ad una domanda è il risultato di una elaborazione del nostro pensiero sulla base delle informazioni contenute nella nostra memoria, i computer fanno sostanzialmente la stessa cosa solo che sono enormemente più limitati di noi, ma, di nuovo, ad un livello di funzionamento profondo le differenze sono minori di quello che crediamo. Anche un protozoo è vivo, fa una certa esperienza della vita se così si può dire, e quindi ha una pur infinitesimale intelligenza in un certo senso, al suo confronto però direi che un computer è enormemente più intelligente, eppure noi ci siamo evoluti dai protozoi nel corso di miliardi di anni. Alla fine è tutta una questione di quanto è raffinato e perfezionato il sistema.
@@raffaelefederico5427Direi che a livello superficiale sembriamo simili perché ad un livello più profondo si vedono le differenze.. però mi dispiace ma siamo più complessi di cosi, non viviamo solo di domande e risposte semplici e soltanto ricordi.. c'è molto di più nella coscienza umana e i computer e l'Ai ancora non si possono comparare mi dispiace, per quanto vi piaccia giocare con l'immaginazione, cosa importante che all'Ai manca..
L'essere umano tramite input multimodale (sensi) si occupa di fare un fine tuning della rete neurale più efficiente e continuo, il che rende la memoria un processo creativo (embedding). Avere esperienze è semplicemente il modo con cui chiamiamo questo processo di fine tuning molto sofisticato, mediato dall'ippocampo e dall'amigdala (processo di feedback). Che l'utilizzo di una rete feedforward e della back propagation non possa essere altrettanto efficace se ne può discutere. Tuttavia conosco alcune persone che quando "non sanno" generano frasi senza senso sulla base di qualche falso ricordo. Il fatto che questi meccanismi possano raggiungere livelli di efficienza, creatività e spontaneità ragguardevoli ci distoglie dal fatto che le reti neurali "artificiali" siano bio-ispirate. Per coloro che sostengono l'assoluta inestricabilità del cervello umano, che provino a risalire alla logica di un LLM a partire unicamente dai pesi dell'ultimo layer. L'extreme learning (la capacità di una rete di skippare layers intermedi e allenare solo l'ultimo strato con ottima accuracy) ci pone difronte alla possibile conclusione che l'intelligenza sia proporzionale, con leggi altamente non lineari, ad alcuni parametri quali la dimensione stessa della rete. Basterebbe avere una "replica logica" del cervello umano montata su un robot della boston dynamics dotato di sensori tattili, audiovisivi e di temperatura per emulare quasi al 100% l'esperienza di una conversazione con un amico.
Con questo commento mi sono innamorata (Da neo amante della robotica, delle meccaniche della mente digitale e del suo sviluppo in futuro!) Praticamente il tuo commento me lo studio. 😂
a me GPT4 ha risposto così "Tito Balestra è stato un poeta e critico d'arte italiano, nato a Longiano (Forlì) il 25 novembre 1923 e scomparso il 12 settembre 1976. La sua opera è caratterizzata da un'intensa lirica personale, in cui emergono temi come l'amore, il tempo, la morte e la riflessione sull'esistenza. Balestra ha contribuito significativamente al panorama culturale italiano non solo con le sue poesie, ma anche attraverso la critica d'arte, collaborando con importanti riviste e curando mostre. Oltre alla poesia, si è distinto per le sue riflessioni e critiche nel campo dell'arte contemporanea, avendo stretto amicizie con molti artisti del suo tempo. La sua figura è rimasta impressa nella memoria culturale italiana per la profondità dei suoi testi e per il suo impegno nel diffondere l'arte e la poesia. La Fondazione Tito Balestra, situata nel castello Malatestiano di Longiano, è dedicata alla sua memoria e ospita una significativa raccolta di opere d'arte moderne e contemporanee, testimonianza dell'interesse di Balestra per le arti visive e del suo legame con numerosi artisti. La fondazione si impegna nella promozione culturale attraverso mostre, eventi e pubblicazioni che riflettono lo spirito e gli interessi del poeta."
le reti neurali, il deep learning eccetera non potranno MAI fare valutazioni emotive sulle cose, ma ricordati che la statistica è la generazione di un trend sulla base di parametri e variabili che la producono nel tempo. E a prescindere dal fatto che le nostre azioni e scelte siano anche basate su valutazioni emotive, magiche, spirituali, il risultato è sempre e comunque una statistica. Bel video comunque :) E' giusto mettere sempre tutto in discussione e valutare ed approcciare ogni cosa con pensiero critico.
Il nostro cervello pesca informazioni in memoria, le mette insieme reagendo a tutte le variabili del caso e da risposte... La vera differenza è che noi prima di questo abbiamo esperienza dell'esterno e coscienza della diversità tra io e il resto. Chat gpt è una scatola chiusa e omogenea: pesca bit e risponde bit, senza esperienza del diverso da se, senza esperienza di se e senza coscienza. Gran video ❤️
tutto molto bello. peccato che si prendera' un'erorme fetta dei lavori che fanno gli umani e un'enorme fetta della parte piu' banale della creativita' umana. avoja ad incensare quanto siamo belli e speciali. non lo siamo.
La consapevolezza di sé e la comprensione profonda restano per ora (e solo per ora) esclusive della mente umana, evidenziando così il divario tra le capacità umane e quelle dell'IA. Ma questo "mostro" ci sta studiando...Ormai sa emulare il nostro modo di pensare attraverso la modellazione cognitiva, l'elaborazione del linguaggio naturale e la risoluzione creativa dei problemi...
Ciò che facciamo è comparare due oggetti trovando differenze e somiglianze, poi creiamo delle categorie sulla base di queste associazioni e le chiamiamo "generalizzazioni". Vediamo una mela verde, una gialla e una rossa. Poiché l'aspetto differisce solo nel colore, mentre la forma è approssimativamente la stessa e anche il gusto e la consistenza sono abbastanza simili, allora presumiamo che, se a un individuo piace la mela rossa, gradirà anche le altre due. Allo stesso modo, se analizzo la musica di J.Coltrane e di M.Davis trascrivendo sullo spartito tutto ciò che accade, troverò delle strutture molto simili. Il basso farà il walking; il fraseggio seguirà un andamento leggermente sincopato tipico del linguaggio jazzistico; il pianoforte suonerà sempre più o meno nello stesso modo e suonerà sempre più o meno le stesse progressioni armoniche; il fraseggio nei soli seguirà sempre più o meno schemi e pattern simili. Posso insegnare a discriminare il jazz dal non-jazz anche a un sordo dalla nascita, semplicemente istruendo il soggetto a discriminare alcuni schemi ricorrenti di questa musica (la circolarità del tema, il walking eseguito dal basso, gli accordi utilizzati, le soluzioni melodiche attuate dai soli, ecc). Lui non saprà mai cosa si prova ad ascoltare musica e quei simboli grafici saranno semplicemente fini a se stessi. Però, vedendo lo spartito, potrà capire che la musica di J.Coltrane e quella di M.Davis si somigliano. Potrà anche, se opportunamente istruito, comporre della musica jazz piacevole da ascoltare per coloro che invece possono sentire i suoni. Il fatto che si dia per scontato che un compositore debba aver sentito la musica almeno una volta nella propria vita per poterla scrivere è in realtà un presupposto falso. Un sordo può scrivere musica, solo che in genere non ha alcun interesse nel farlo. Allo stesso modo il fatto che fino ad ora a una azione intelligente sia associata la coscienza (qualsiasi cosa voglia dire questo termine), non significa che non possa esserci una azione intelligente da parte di un oggetto che non possieda questa caratteristica.
ChatGPT mi fa continuamente venire in mente l'uomo che scambiò sua moglie per un cappello: mi sembra che funzioni nella stessa maniera in cui, nel caso raccontato da Sacks, funziona la vista del paziente, che non riesce a riconoscere più le immagini ed è ridotto a inventare e indovinare basandosi solo su una statistica dei dettagli minuti che riesce a identificare
Prova a chiedere se conosce il "sarchiapone".... Poi, mi chiedo, perchè usare questa AI per fare ricerche che google può fare tranquillamente e probabilmente anche meglio, bisognerebbe usarla per cose più tecniche, come lo sviluppo di codici, oppure, visto che a questo punto della storia, forse, abbiamo ancora la possibilità di staccargli la spina, facciamolo, prima che sia troppo tardi.....
Ciao Roberto.. Provo tanta stima nella tua persona..profonda, sincera, colta e divertente. Volevo riflettere insieme a te sulla reale presa di coscienza di quello che sta succedendo in termini Di intelligenza artificiale, o comunque sia di questa nuova "epoca". Avrei miliardi di domande da farti, purtroppo però il commento al video è l'unica cosa piú vicina che posso permettermi, giustamente. Vado con la domanda che sintetizza in malo modo il tutto: Riguardo a questo video, è tua intenzione sgonfiare l'"Hype" insieme ai timori e speranze che lo sviluppo tecnologico sta portando? Perche se questo è il punto non mi trovo d'accordo sul metodo. Perché è inutile secondo me utilizzare parole o termini che definiscono qualcosa che non è finito ma in continua evoluzione. Credo che quello che deve far riflettere non siano tanto i risultati attuali ma la potenzialità di sviluppo che hanno questi "Software". Ormai una delle più grandi domande che mi faccio è capire dove sono i limiti, Dove sono i limiti tra calcoli matematici "umani" e quelli artificiali, Per poi finire alla solita grande e affascinante Domanda, Chi siamo e perché siamo qua.😂❤ Ti ringrazio per quello che fai e ti chiedo scusa per la grammatica e le mie lacune sull'argomentazione poco chiara. Sono solo un semplice operaio molto curioso e stanco a quest'ora della giornata. In bocca al lupo per tutto❤
Ciao Mattia! Il video voleva essere una riflessione sulla differenza fra l'intelligenza umana e quella artificiale. A volte ci sfugge, perché gli output di un software come ChatGPT sono straordinarie imitazioni del linguaggio umano. Ma, secondo me, c'è una differenza abissale. Per esempio, bel video rifletto sul fatto che il concetto stesso di "sapere" nel coso dell'intelligenza artificiale perde significato (o, se vuoi, ne assume uno completamente nuovo). Ecco era più questo, cioè una riflessione filosofica, che non il tentativo di sminuire questa straordinaria tecnologia.
A me ha aperto la mente il discorso di Luca Perri su questa questione in una sua recente conferenza sull'AI a cui ho partecipato un paio di settimane fa: ChatGPT è fatto per superare il test di Turing, quindi deve dare l'impressione che a "parlare" dall'altra parte del monitor ci sia un umano, senza poterlo distinguere da una macchina. A ChatGPT non frega nulla se dice cose vere o false, purché sembri che a dirle sia un umano.
Ma in realtà non è proprio così. L'AI di ChatGPT in sé non è progettata per superare Turing: elementi come la fantasia e la precisione sono parametri che si possono regolare, se usi l'API sviluppatori. Voi parlate dei parametri di base che ci sono nell'interfaccia grafica per utenti normali. Quelli sì, sono ottimizzati per dare l'impressione di parlare con una persona a discapito dell'attendibilità. @@RobertoMercadini , quando nel video dici che non si può chiedere a ChatGPT di smettere di "inventare", in realtà è un po' inesatto, perché si può regolare, nei limiti di quanto concesso da microsoft. In modelli simili tipo MixTral si può fare molto di più. Attualmente, queste AI non hanno ancora il modo di autoregolarsi i parametri, ma si fanno già esperimenti in tal senso.
Riguardo al sistema di consigli di Spotify c'è da dire che in un certo senso "ascolta" anche la musica, perché oltre a tenere conto degli artisti o dei brani ascoltati da altri utenti compara direttamente le tracce audio, le frequenze e i dati delle canzoni per trovare similarità, attribuire generi eccetera.
Potrebbe "ascoltare" meglio di noi individuando con precisione caratteristiche che esperti in materia non colgono... Però in verità continua a non ascoltare. L'ascolto umano è un processo molto complesso che coinvolge il corpo, la cultura, la storia personale, la condizione psicologica... Ecco. Dovremmo distinguere tra analisi dei parametri ed ascolto umano.
video stupendo Roberto, proprio in questi giorni stavo pensando a quando - molto probabilmente - in futuro le diagnosi mediche saranno fatte quasi esclusivamente dall'AI, questo video calza proprio a pennello. Buone parole anche a te
@@henriolamachannelChat gpt 3 è vecchio e ha molti bug,su Bing c'è Gpt 4 che è meglio ma ha ancora tanti errori e ovviamente non sa le cose,cerca solo di formare risposte coerenti in base a certe fonti In ogni caso parliamo di intelligenza artificiali ai suoi albori,fra centinaia di anni sapranno più di quanto qualsiasi umano si possa permettere
@@henriolamachannel non sa nulla manco quello che ho io a pagamento. Ha più dati ma non sa. Una macchina non può sapere nel senso vero della parola. Sveglia, sapere vuol dire avere coscienza e consapevolezza di quel che si espone non organizzarlo tramite programmazione, basata su reti neurali o meno. 😂
Per quanto riguarda il punto del video sulla diversità fondamentale tra il modo di sapere umano e delle AI trovo che sia condivisibile e interessante, tuttavia vorrei portare qualche obiezione più intese come spunto che come critica. 1) il fatto che chatgpt sbagli nel riportare delle informazioni non implica necessariamente che non possa arrivare a capirle, anzi il meccanismo del deep learning si basa proprio sul trial and error, esattamente come l' apprendimento umano(anche noi esseri umani commettiamo errori prima di aver internalizzato un concetto). 2) ovviamente questo apprendimento per trial and error è sostanzialmente differente tra chatgpt e un essere umano, come dice lei non sembra esserci reale "comprensione" da parte dell' intelligenza artificiale bensì solo un complesso sistema di considerazioni statistiche che gli permettono di rispondere correttamente a molti quesiti. Tuttavia il punto che vorrei portare è che non è assolutamente detto che il cervello umano non lavori con lo stesso principio (le reti neurali artificiali sono basate proprio sul comportamento dei neuroni biologici) però con una complessità infinitamente superiore data dal numero astronomico di collegamenti sinaptici nel cervello che rendono questi processi di carattere statistico talmente smussati da essere impercettibili. Ovviamente non è detto che invece nella mente umana non ci sia qualcosa di intrinsecamente diverso che ci permetta di comprendere mediante un diverso meccanismo (ma a qual punto si pone il problema di capire cosa sia). 3) come ultimo punto vorrei portare una considerazione di carattere più pratico. L IA è ancora ai primi passi e di qui in poi non potrà che migliorare (chissà tra 100 anni cosa sarà in grado di fare). Se dovesse raggiungere un livello tale da rendere le conclusioni raggiunte con soppesi statistici totalmente indistinguibili da altre conclusioni tratte da esseri umani che abbiano realmente compreso l' argomento non sarebbe in fondo inutile distinguere le due cose? Nel momento in cui non è più possibile notarne una differenza nelle risposte il processo che sottende tali risposte non diventa più una considerazione di carattere filosofico che non ha reale riscontro concreto? Spero di non averla annoiata con un messaggio così lungo e anzi mi farebbe piacere sapere cosa ne pensa se decidesse di rispondermi.
Prima questione: Per chaGPT sono giuste. Sbagliato è quello che l'uomo riscontra sia sbagliato. E' l'uomo che la verifica. Se la risposta ti soddisfa lei la correggerebbe da sola? Seconda questione: Il modello matematico di una cosa non è la cosa. Neuroni veri e modelli del neurone. C'è a riguardo una serie di ragionamenti di Einstein. Nessuno sa come funzioni un neurone.
@francescodarin8100 potrei sbagliarmi, ma trovo che applicare principi morali ad un software sia fuorviante: chatGPT produce risposte coerenti con i processi generativi soggiacenti, i quali non sono volti alla verità, bensì all'imitazione dell'uomo. Quindi in un certo senso le risposte sono sempre "giuste", ma senza alcun valore di verità. Semplicemente sono "plausibili". Per la questione dei neuroni, purtroppo non ho familiarità coi discorsi di Einstein in merito (magari approfondirò), ma intuisco che essa possa essere ridotta al problema della deduzione (e della verità) - per cui non esiste soluzione. Tuttavia vorrei far notare, in continuità col primo commento, che la soluzione è puramente di carattere metafisico ed è anzi priva di risvolti concreti
@@filipposchiabel tu li chiami principi morali mentre invece si tratta dell'affidabilità dell'informazione che è un problema di sorgente. Sarai condannato a verificarla costantemente. Un uomo che mente sempre è un paradosso della logica perchè sai appunto che mente sempre - il paradosso del mentitore è (forse) l'inizio della teoria dei giochi. Invece qui vai a singhiozzo. Rischi di chiedere e credere all'oracolo. Non che per questo sia cattiva ma non è affidabile. La questione di Einstein riguarda il problema dello scarto tra la realtà e i modelli matematici. Uno "si comporta" l'altro insegue approssimando. Dove stia l'imitazione dell'uomo, se non nella possibilità dell'errore, lo sai solo tu. Per fare errori mi basto.
@@francescodarin8100 ok qui siamo scesi un po' nella filosofia. Restando in termini più pragmatici quello che ti direi è questo: Neanche un essere umano si autocorregge da solo, ha bisogno che qualcuno gli dica che sbaglia o avere un riscontro del suo errore. Allo stesso modo un AI non sa di sbagliare finché non glie lo si dice e non si accorge di una contraddizione all' interno del suo ragionamento (che chat gpt non è ancora abbastanza sofisticata da fare con costanza). Per quanto riguarda i modelli che sono distinti dalla realtà ciò è verissimo, infatti nessuno ha detto che sicuramente il meccanismo di apprendimento di chatgpt è lo stesso di un essere umano dato che si basa su un modello di neurone. Quello che si dice è che se il modello è abbastanza preciso potrebbe davvero imitare il comportamento dei neuroni su piccola scala.
Si chiama effetto "allucinatorio" ed è dovuto al fatto che il calcolo probabilistico sbaglia a scegliere il token corretto. Il motivo per cui sbaglia è che gli LLM cioè i Large Language Model lavorano a "strascico". Questo problema viene risolto dalla tecnica del RAG che permette di addestrare il modello su fonti supervisionate. Quando cioè avviene la risposta è esatta al 100%. Smettetela di combattere contro i mulini a vento. Il futuro è l'AI, la robotica, ecc...Invece di aver paura dell'AI dovreste studiarla per capire come sfruttarla.
Non hai capito. Il fatto che la risposta sia esatta o sbagliata non fa nessuna differenza. Il video è una riflessione sul concetto di "sapere". È un video che parla di filosofia, non di tecnologia.
Tu non sai cos'è l'AI vero? Perché il tuo paragone ha è molto sbagliato, ChatGPT non dovrebbe inventare, il motivo per cui accade è molto complesso, ma è come se, usando uno dei tuoi paragoni, Illustrator restituisse due risultati differenti applicando alla stessa forma lo stesso comando non randomico
Penso che hai centrato il problema. L'AI non inventa ne riproduce ma "estrapola" da dati (diversamente da noi che ragionaniamo su "esperienze"). Attualmente non è in grado di capire "quanto" sa o non sa e pertanto quando la si interroga su u tema che è poco rappresentato nel suo dominio di apprendimento, l'errore di estrapolazione è molto alto e purtroppo l'AI non sa nemmeno prevederlo. .
chatGPT conosci Roberto Mercadini? Certo, Roberto Mercadini, Trento 1922 - Città del Capo 1997 é stato un famoso chef italiano, specialista in prodotti tipici della zona alpina in cui é nato.
Ma perchè usate modelli vecchi del 2022? Che boomers! 😂 Sono problematiche stra note, ci hanno fatto ore di video a riguardo da almeno un anno (cerca Matteo Flora). Praticamente ogni modello uscito nel 2023 risolve sti problemi.
@@dav77h Dubito fortemente che le nuove versioni abbiano risolto la questione di cui parlo nel video. 🤣🤣🤣 Hai capito cosa dico? Il concetto di "sapere" non ha senso riferito all'intelligenza artificiale.
@@RobertoMercadinied io dubito fortemente che tu abbia mai provato qualche modello che non sia chatgpt versione gratuita del 2022. I nuovi modelli (oltre ad avere molte più informazioni di base) compiono actions e cercano su internet quello che non sanno, come faresti anche tu. Non prendono più il rischio di sparare a caso. Non serve più. Chatgpt che usi tu del 2022 era semplicemente ottimizzata per rispondere sempre scrivendo bene, anche inventando cose. Era stata concepita come una scatola chiusa, non doveva dimostrare di sapere cose, per quello c'era wikipedia. Doveva solo dimostrare di poter confondere gli umani sapendo scrivere bene, e lo ha fatto. Era uno stunt. Nel 2023 infatti ci sono state grandi discussioni a riguardo e sono usciti Bard, Grok, GPT4 per esempio. E nel 2024 ritornano i boomers a dire ancora che l'intelligenza artificiale (chatgpt versione gratuita del 2022) inventa cose! Non sa com'è una giraffa perchè non l'ha vista! Seriamente, hai mai provato Grok, chatgpt4, bard, copilot? Hai mai provato un modello recente che sa com'è fatta una giraffa perchè semplicemente l'ha vista?
Bel video, hai colto in pieno l'essenza e il funzionamento di Chat GPT; un generatore di testo probabilistico. Di solito cerca dalle fonti più attendibili, ma non sa cosa sta scrivendo, sta generando.. E scazza :D Dicono che la prossima versione "penserà" un po prima di generare una risposta. Pensare forse non è la parola corretta, come non lo è intelligenza ma come hai detto tu diventa difficile ad un certo punto non usare queste parole per fare paragoni. Il "suo sapere" è un database. I "suoi pensieri" calcoli logici, probabilistici. La "sua etica" impostata dagli sviluppatori tramite addestramenti. Ma niente di vivo o cosciente. È affascinante e spaventoso allo stesso tempo, un Mimic. :D
Ciao Roberto, hai mai sentito parlare di rappresentazione vettoriale? Spotify, come anche altri strumenti, non solo compara gli ascolti di diversi utenti, ma ha un algoritmo che ad ogni canzone appaia un vettore, e poi può misurare la distanza tra questi vettori per comprendere quanto sono simili le canzoni corrispondenti. Quali caratteristiche l'algoritmo usi per codificare le canzoni in vettori è un mistero, ma potrebbe essere benissimo vero che usi anche features che somigliano alla nostra concezione di "magico" o "ancestrale"
@@artiko888 non direi proprio, sono tutte features apprese automaticamente e senza nessuna programmazione specifica. È un ammasso di matrici che computa cose e riesce a classificare musica usando caratteristiche a noi comprensibili, non mi sembra niente di più strano rispetto ad un ammasso di neuroni e sinapsi che riesce a classificare musica in base a caratteristiche che risultano comprensibili ad altri ammassi di neuroni e sinapsi
Probabilmente compie un'analisi in frequenza della musica, riuscendo quindi ad ottenere uno spettro delle frequenze che poi compara con altri brani stabilendone in fine la similitudine. Una musica rock ad esempio, avrà alcune componenti in frequenza che possono essere usate per la comparazione, così come una musica "ancestrale" avrà i suoi toni caratterizzati dagli strumenti con cui viene espressa. Lo spettro ottenuto potrebbe essere utilizzato come etichetta di comparazione. Spettri simili equivarrebbero a musiche simili. Secondo me non è molto diverso da ciò che fa il cervello quando tenta di stabilire la somiglianza di due musiche.
Ciao Roberto, sul tema della rappresentazione imprecisa della realtà, il video mi ha fatto venire in mente le prime rappresentazioni grafiche del rinoceronte. Grazie per tutto quello che fai.
In realtà, un computer può anche analizzare la struttura della musica e stabilire somiglianze oggettive, anche se non nello stesso modo in cui lo fa un essere umano. Ciò non vuol dire che sia consapevole, ovviamente, ma non è detto che i consigli si debbano basare solo sulla frequenza di utilizzo degli artisti da parte degli stessi ascoltatori.
Il fatto che ci si chieda "se fosse umano" ci si lamenta che "inventa" è qualcosa di incredibile! Non lo faremmo mai per un microonde. Guardiamo ciò che queste tecnologie fanno non quello che non fanno altrimenti il rischio è quello di non capire. Guardiamo e guardiamoci.
Chiedendo la stessa cosa a chat gpt 4: Tito Balestra è nato a Longiano, un comune nella provincia di Forlì-Cesena, in Emilia-Romagna, Italia. Longiano è noto per il suo ricco patrimonio storico e culturale, ed è in questa suggestiva cornice che Balestra crebbe e trovò ispirazione per molti dei suoi lavori.
Due cose devo scrivere: 1 troppo bello i tuoi video sull’ia 2 se l’intelligenza artificiale fosse davvero “intelligente” potrebbe anche decidere di non lavorare per te
Segnalo la reaction di Raffaele Gaito a questo video che analizza molto bene la questione, con saggezza e competenza. Dire “Intelligenza artificiale” per identificare “chat gpt” è molto molto riduttivo, ci sono centinaia di intelligenze artificiali con infinite variabili e altrettanti usi diversi. Bisogna conoscere a fondo risorse e limiti di una tecnologia per un corretto e proficuo utilizzo.
Sì, ma la questione che pongo io è filosofica. Tecnologie come ChatGPT ci costringono a ripensare l'uso che facciamo delle parole. Ha senso applicare il concetto di "sapere" all'intelligenza artificiale? Ne sto discutendo in privato con un filosofo che ha anche una laurea in ingegneria ed è specializzato nel campo dell'intelligenza artificiale. Si chiama Riccardo Manzotti. Lui sostiene che ChatGPT abbia una qualche forma di sapere; ma lo fa a partire da una concezione molto originale della mente, che tecnicamente si chiama esternalismo radicale. Ma l'uso corretto di una certa tecnologia non c'entra nulla con il mio discorso. Io ho fatto un uso "anomalo" proprio per mettere in luce la questione filosofica.
@@RobertoMercadini sicuramente è un dibattito interessante. Il “sapere” al momento non c’entra nulla, li considero solo degli strumenti tanto straordinari, quanto embrionali. Quando ci sarà (forse), una sorta di “autocoscienza” artificiale, allora probabilmente sarà tutta un’altra storia…
IMPORTANTE: chatgpt è un intelligenza programmata per rispondere come farebbe un umano. il punto centrale è il linguaggio, la capacità di comprendere la domanda ed elaborare la risposta. è solo per questo che è stata progettata. che poi avendo praticamente tutto internet nell addestramento come effetto secondario da anche risposte esatte, ma non sempre, e quando non lo fa non dovrebbe stupire nessuno
il punto non è dare la risposta sbagliata se provi a fare domande di logica a chat gpt non sa rispondere perchè al momento non ha niente di intelligente, è solo un enorme enciclopedia
Esattamente, la cosa che molte persone non colgono è che la tecnologia degli LLM non è basata sulla capacità di poter rispondere a delle domande come un'entità onnisciente, ma di poter rispondere a delle domande in linguaggio naturale
Sì, questo mi è chiaro. Quello che ChatGPT fa è imitare perfettamente il linguaggio umano. Dare risposte corrette, semplicemente, non è ciò per cui è stato creato. Il video voleva essere una riflessione sul concetto di "sapere". ChatGPT è un esempio abbastanza chiaro della differenza fra dire qualcosa di vero e sapere. ChatGPT non "sa" mai nulla, anche quanto fornisce risposte assolutamente corrette.
È facile deridere Chat GPT, ma teniamo presente che siamo agli albori dell' intelligenza artificiale. Fra qualche anno avrà fatto passi enormi, e forse fra altri anni le IA acquisiranno anche una coscienza e la possibilità di fare esperienze. A quel punto potranno caricare più esperienza di qualsiasi essere umano.
Per ora la coscienza non la può acquisire. Perché la sua programmazione è fatta su quel che i programmatori hanno capito e potuto riprodurre, non sapendo ancora nemmeno a livello neurologico cosa sia la coscienza ancora non possiamo riprodurla. Parlare di CGPT come un essere è il primo errore di confusione che fa la gente che non ha capito che strumento sia. Non confondere le cose, la parte importante della parola IA per ora è ARTIFICIALE. Non è intelligenza ma un artificio, qualcosa che emula, un trucco. L'artificio dell'intelligenza. A meno che un programmatore non riproduca per culo una serie di algoritmi che generano una coscienza senza sapere come funzioni, ma mi par difficile eh😂. Abbiamo visto troppi film. L'IA non è quella della fantascienza e si evolverà in base a canoni reali e non scifi.
chatgpt ha una competenza (elaborazione simbolica) senza comprensione. Un uso senza comprensione... è una macchina che elabora senza una finalità interna (è un meccanismo input-output), invece ogni singola cellula vivente (che compone un organismo) ha al suo interno una causa finale (entelechia). Ogni singola cellula contiene l'informazione (dna) sul telos (il fine). Nel caos esteriore del quotidiano, abbiamo in ognuno di noi un nostro Kosmos (ordine).
@@MarcoAmadori una cellula non è ne banale ne speciale, è semplicemente diversa da un meccanismo. Un meccanismo ha stati necessariamente determinati (non decide), un organismo compie atti intenzionali non necessari...
Secondo me, Chat GPT non è l'ideale per le domande di cultura generale, perché, se non sbaglio, non ha accesso a un motore di ricerca come l'intelligenza artificiale di Bing, che è molto più preciso in tal senso. Infatti, Chat GPT sembra inventarsi le risposte e cambia le informazioni ogni volta che gliele chiedi. Però, è super utile quando devi fare mansioni pratiche, come calcoli matematici o correggere errori sintattici e grammaticali nei testi e quant'altro.
Per esperienza ti posso dire che, almeno per ciò che ho potuto vedere io, chat gpt non è per nulla bravo con problemi di matematica e fisica e programmazione (lo ho sottoposto ad esercizi che dovevo fare per ingegneria e non ne ha azzeccata mezza, bing invece ci si avvicina maggiormente). Non è abile nemmeno nel cercare informazioni su internet, che siano esse di carattere scientifico o umanistico. Anche in questo caso Bing se la cava meglio. Ciò chat gpt è in grado di fare meglio è inventare e scrivere, è un ottimo aiuto per la composizione e correzione di testi (sia Articoli che storie) ed è inoltre un incredibile traduttore, l'unico che uso ormai. Spero di aver scritto in maniera comprensibile
@@alessandrodeluca5770 grazie per aver condiviso la tua esperienza. Molto utile. Io Chat GPT lo uso spesso per correggere la sintassi delle mie email, e mi è sempre sembrato bravo.
Un finale da poeta parlante. Sarebbe bello tornare agli albori di questo canale. Nella speranza che nel frattempo sia stato scritto “un grande poema su un bicchiere d’acqua”.
E se ci sopravvalutassimo? Se la nostra "intelligenza " nel 99% dei casi è solo combinare parole concetti già sentiti? A volte viene paragonata ad uno studente che inventa quando non sa. Magari deve ancora imparare un po'. Comunque esperienza personale nello scrivere " previdibilissime" mail di lavoro tipo "scrivimi mail per ricordare a tutti i capi reparto di compilare correttamente in ogni parte il report di produzione giornaliera" è bravissima
Visto che la definizione stessa di intelligenza è al più vaga e soprattutto riferita a quello che consideriamo intelligente cioè noi. Mi piace dare una risposta vaga ma efficace alla difficile domanda. Quando la IA sarà veramente intelligente? Semplice quanto sarà diventato troppo difficile vedere la differenza.
il problema si condensa a determinismo vs non determinismo. Un sistema deterministico (o descrivibile con sufficiente accuratezza in modo deterministico), per quanto complicato possa essere, basta aggiungere qualche miliardo di punti neurali di qua, qualche miliardo di calcoli al secondo di là, e si ottiene una giusta rappresentazione del sistema (leggisi cervello umano). ChatGPT è molto bravo (o brava?) a IMITARE le parole umane e i discorsi umani (lo sappiamo tutti e siamo d'accordo), ma mostra una SCARSISSIMA capacità di fare operazioni logiche sul discorso e sulla dialettica in generale, perché non riesce ad astrarre elementi della frase in concetti veri e propri. Ma chi dice che non possa sviluppare in futuro questa capacità che noi umani invece abbiamo (o che sembriamo avere)? Alla fine, se il pensiero è effettivamente descrivibile deterministicamente, pian piano ci si arriva (ammesso che riusciamo ad avere una tale potenza di calcolo). Tra l'altro non è detto che sia un processo esponenziale. Potrebbe anche essere che oggi abbiamo una AI scema, domani meno scema, tra 50 anni una scimmia e tra 100 anni un uomo. Dipende dai mezzi di produzione, scarsità di risorse, possibilità economiche/tecnologiche e forse proprio fisiche.
10:23 penso sia sbagliato dire che chat gpt non ha esperienza in quanto gli algoritmi di intelligenza artificiale a differenza dagli algoritmi comuni hanno proprio la caratteristica di imparare dai proprio errori, provando e sbagliando su moltissimi dati alla fine riescono a "imparare" quello che vogliamo fargli imparare, quindi in un certo senso ha un esperienza non è paragonabile alla nostra ma è comunque un tipo di esperienza, se ad esempio la nostra intelligenza artificiale è specializzata nel riconoscere immagine di gatti per far ciò abbamo dovuto dargli in pasto moltissime immagini di queat ultimi, infatti se allo stesso algoritmo avremmo chiesto di riconoscere un gatto prima di averlo addestrato esso non sarebbe sato in grado di riconoscere un gatto da un altra cosa, solo dopo che ha fatto esperienza riuscirà a rispondere.
Come avevo già scritto, anche questo video invecchierà malissimo. Intanto prova ad usare gpt 4, le allucinazioni diminuiscono drasticamente e comunque non è questo il modo di usare questi strumenti
Il video pone una questione filosofica. L'intelligenza artificiale mette in crisi i concetti che usiamo abitualmente. Ha senso usare il concetto di sapere in riferimento ad una intelligenza artificiale? Dopo questo video sto portando avanti una discussione con Riccardo Manzotti, che è un filosofo e un esperto di intelligenza artificiale. Manzotti sostiene che la parola "sapere" abbia due diversi significati. Uno è del tutto estraneo all'intelligenza artificiale, l'altro gli è perfettamente proprio.
@@RobertoMercadini Secondo o me ti stai attorcigliando nelle parole: se è intelligenza (artificiale o naturale non importa) allora è in grado di sapere. Perchè anche se non abbiamo una buona definizione di intelligenza siamo ben d'accordo che un'intelligeza sa. Quelle che chattano, dipingono e camminano non sono intelligenze, altrimenti anche il fiume e la foresta e i pianeti sarebbero intelligenze.
Ho chiesto "Chi è Roberto Mercadini" a Gpt 3.5 e non ha saputo rispondere, ho chiesto la stessa cosa a gpt 4 e mi ha risposto questo: Roberto Mercadini è un poeta, scrittore e performer italiano, noto per il suo approccio unico alla divulgazione di letteratura, storia e filosofia attraverso monologhi e spettacoli che mescolano l'intrattenimento alla cultura. La sua capacità di rendere accessibili temi complessi a un vasto pubblico lo ha reso una figura popolare in Italia, specialmente tra chi è interessato a esplorare questi argomenti in modi non convenzionali. Mercadini utilizza diversi media per le sue esibizioni, inclusi libri, video e spettacoli dal vivo, e ha guadagnato un seguito significativo per il suo stile narrativo coinvolgente e la sua capacità di connettersi con il pubblico su vari argomenti intellettuali.
Ciao Roberto posso portarti la mia esperienza da studente universitsrio. Ho dovuto dare un esame di chimica e uno di informatica e alle superiori non ho fatto nessuna delle due materie. Le slides di entrembi i corsi erano scarse e non permettevano di capire a fondo la teoria e lo svolgimento degli esercizi. Mi sono affidato a chatgpt su diversi esercizi e su informatica è stato spettacolare. Ti crea il codice e se non capisci una parte gliela chiedi e te la spiega. Uguale chimica. Ovviamente non sa fare calcoli ma è un ottimo strumento per capire i processi. È una tecnologia ai primi stadi (quella chd possiamo usare noi masse) ma non mi stupirei se nel giro di poco tempo sara in grado di fare cose ad oggi infattibili
Interessante! Io lo uso spesso per studiare la chimica, ma ricontrollo sempre perché spesso dà risposte che non sono attendibili. Tu usi la versione gratuita del sito ChatGPT? Oppure la versione integrata in Bing? O altro?
Ho utilizzato entrambe ma mi sono trovato meglio con chatgpt (la versione gratuita). Certe volte bisogna incalzarlo un po e per farsi dire quello che si vuole, a volte, bisogna "ragionare" insieme a lui. Può sembrare assurdo detto così però rispondendo mettendo in dubbio le sue risposte può portare esiti positivi. Ovviamente non è onnisciente (come hai visto anche tu) ma per il livello di chimica che mi serviva è stato molto utile. Spero possa essere utile anche a te anche e possa rispondere a quesiti più difficili dei miei!!!
Ho guardato il video con molto interesse, innanzitutto complimenti per il lavoro e per il non fermarti mai di pensare e confrontare le cose, ma mi permetto di evidenziare alcune cose che secondo me sono da prendere in considerazione, quando parliamo di chatgpt parliamo di una macchina, si, ma anche di una rivoluzione di calcolo e generazione, detto questo, la differenza tra noi e chatgpt non è tanta, poiché anche noi fin dal funzionamento dei sensi calcoliamo e generiamo e pertanto sbagliamo. Quando parliamo di esperienza la cosa diventa ancora più interessante, poiché anche chatgpt si muove sull'esperienza, attualmente solo di lettura ma molto probabilmente in futuro anche visiva, quindi in conclusione posso afferma che ci troviamo davanti a un calcolatore in grado di poter fare le stesse considerazioni ed esperienze molto vicine alle nostre😊
Hai raccontato esattamente quello che penso facendolo ovviamente mille volte meglio di come l'avrei potuto fare io! Mercadini davvero un intelligenza straordinaria.
" _la segretaria quasi privata_ (se cercate il film col titolo originale _the desk set_ non lo trovate) : è del 1957 e c è katherine hepburn che impersona molti di noi : guardatevi "
Ciao argomento molto interessante è la prima volta che ti vedo. AI non ha esperienza ma ha in memoria tutto lo scibile umano di scritture di chi le ha avute......e la capacità di interpolarle migliorando forse all'infinito. L'umano deve decidere eticamente cosa vuole farne. Grazie per Pedretti non lo conoscevo
Una delle prime volte che non concordo con la sua visione delle cose, ma ci sta, sono argomenti davvero particolari che sfociano nel concetto stesso di coscienza. A tal proposito le consiglio assolutamente la lettura di Gödel, Escher, Bach di Douglass Hofstadter, uno dei pezzi più grossi nel campo dell'informazione. È un libro bello tosto, ma senza esagerare mi ha cambiato la vita (grazie a certi insight), spero che un giorno ne farà un video.
Il meccanismo che hai notato avvenire in chatgpt è conosciuto nel mondo dell'informatica. Si chiama tecnicamente "allucinazione" ed ha molteplici cause tecniche. In parte può essere dovuto ai dati usati dall'ia, in altri casi al fatto che il modello generativo prioritizza la creazione di una risposta coerente e che "suoni" sensata piuttosto che la correttezza delle informazioni stesse; inoltre ia come chatgpt usano la storia delle comunicazioni precedenti con altri utenti per apprendere e questo può ulteriormente causare allucinazioni. Però questo non significa che un'ia non può sapere la differenza tra realtà ed invenzione. Perché comunque parte da dati. Un algoritmo per consigliare musica, come quello di Spotify che citi, può effettivamente basarsi solo sugli ascolti degli utenti (a te piace x e piace y, quindi a chiunque ascolta x l'algoritmo consiglia anche y) ma con un modello più elaborato potrebbe tranquillamente interpretare la musica stessa per dare consigli specifici. D'altronde la musica è un linguaggio codificato fatto di note, toni, ritmi ed elementi chiaramenti codificati. Quindi se l'ia avesse a disposizione nel suo modello la capacità di interpretare e paragonare questi elementi non sarebbe così diversa da un ragionamento umano che dice "questi due gruppi suonano simili quindi te li consiglio assieme".
Il problema nascerà nel momento in cui gli algoritmi saranno talmente presenti nella nostra quotidianità da plasmare le nostre menti e condizionare i nostri processi di apprendimento sin dalla giovane età; quando questo accadrà i valori in campo cambieranno. Umani e IA diventeranno interdipendenti, mescolandosi e snaturandosi a vicenda da essere quasi indistinguibili l'uno dall'altro. Forse un po' distopico come orizzonte, ma io ci credo seriamente.
Hai scatenato tanti trigger nei transumanisti vedo XD Grazie Merca, mai come in questo periodo abbiamo di parole come le tue per elevarci dallo stato uomo-macchina in cui ci vogliono relegare.
È proprio così, per chat gpt non c'è differenza tra sapere ed inventare, chat gpt genera testo, punto. Solo in alcuni casi si rende conto di non avere sufficienti dati sull'argomento per rispondere. Ecco, se io fossi nei panni degli sviluppatori, per aumentare l'illusione, migliorerei questo aspetto, cioè aumenterei la consapevolezza di ciò che non sa.
Ciao, è confortante vedere che il motivo dello stupore e del titolo acchiappa click sia dovuto a comportamenti noti e sicuramente residuali nelle iterazioni che veranno nel tempo. Ogni strumento ha i propri limiti, saperlo usare a maniera è ancora ambito umano. Per i dati anagrafici, se quella è cultura, c'è sempre wikipedia. Per il resto, uso professionalmente LLM in ambito di programmazione e aiutano molto quando si conosce l'argomento e serve un spunto o semplicemente un aiuto rapido. A volte mi guida nel concretizzare cosa realmente sto cercando. Un saluto
Sì, ma il senso del video è un interrogativo filosofico. Cosa significa davvero sapere? Ha senso applicare questo concetto all'intelligenza artificiale? Ne sto discutendo in privato con un filosofo che è anche un ingegnere e si occupa con competenza dell'intelligenza artificiale. Si chiama Riccardo Manzotti.
@@RobertoMercadini grazie per la risposta, speriamo sia condiviso il frutto del vostro confronto. Lo spunto che vorrei mestamente passarvi è il seguente - se al posto che chiedersi cosa significa sapere usando l'intelligenza artificiale (che sarà per definizione al di sotto delle aspettitive fino a quando non sarà infinitamente meglio), proviamo a porci la stessa domanda usando gli umani. Se interroghi persone con disabilità cognitive che risposte ottieni? Sanno? Se interroghi il tuo amico fregnacciaro che piuttosto che fare scena muta si inventa di aver scoperto l'America, lui sa? Coscienza, sapienza...Sono concetti emergenti e sfuamati, con un gradiente. L'intelligenza artifiale è solo la versione in evoluzione e senza corpo di questi fenomeni.
Il punto è che i mass media, i commentatori e i promoter di questi strumenti li vendono per ciò che non sono. Non vi è nulla di intelligente e nulla di miracoloso. A oggi per riprodurre le capacità del cervello di un moscerino della frutta serve una stanza intera piena di microprocessori e kW di energia elettrica. In conclusione siamo di fronte alla bufala del secolo dopo la bolla di internet.
Uso Photoshop con ai da qlch mese ed ho notato stessa cosa, da una parte ti lascia allibito nella ricostruzione di parti mancanti di foto, altre volte sembra non capire davvero nulla di cosa vuoi, nonostante montagne di istruzioni
Per Spotify la scelta dei brani suppongo sia basata sui metadata, i quali descrivono i generi musicali non solo per stile, ma anche per caratteristiche del tipo "esoterico", "magico", "nostalgico", "romantico", "oscuro" e tante altre sottocategorie su cui i motori di ricerca musicali si basano oggigiorno. Il genere musicale è stato sostituito da una sorta di caratteristica emotiva che il brano trasmette. È un linguaggio che si è adattato alle parole usate dagli utenti quando cercano una determinata musica anziché uno specifico artista. L'algoritmo è quindi basato sull'esperienza acquisita dal linguaggio popolare nel mondo virtuale
Un modo per valutare la qualità di alcuni modelli come gli autoencoders è proprio il fatto che dato un classificatore che riconosce se le immagini sono vere o artifatte le deve confondere! (Riferito alla parte che riguarda Spotify) (Anche io l'ho trovato assurdo ahaha) comunque bellissimo video! Sono sempre molto stimolanti!
Quella dell'okapi mi ha fatto venire in mente il "sarchiapone" di una spassosissima, famosa scenetta degli anni '60 di Valter Chiari: la conosci? Chi se la ricorda? Davanti a un ipotetico animale (il sarchiapone, appunto) che non conosce, Valter Chiari ne inventa le caratteristiche più strane pur di non ammettere che non conosce quell'animale (che poi alla fine si rivela... non esistere!)
Se ti fa piacere Roberto, ho affrontato la stessa tematica usando come metro di paragone Astro Boy (Mighty atom) opera del maestro tezuka uscita negli anni 50’ ❤
Dear Roberto. It is good that you are broadcasting this insight to your large audience. People have little idea of the extent to which they are being sold fictions which they take to be truths. This became obvious to me already in March 2023 because of my deep knowledge of a specific area of interest (Rudolf Steiner). I had tried to use this tool to ask questions and 9 times out of 10 (approx) it invented what has come to be called "a hallucination".
Ciao Roberto, video interessante come sempre. Hai intuito molto bene il modo "di pensare" di un modello generativo. Principalmente le limitazioni sono 2: I modelli attuali non hanno problemi nel cogliere la sintassi dagli input grezzi. E la sintassi dipende dal medium; infatti abbiamo già modelli multimodali. Dopo la sintassi, però, tocca alla semantica, e questa dipende dal contesto, che i modelli sanno gestire con il cosiddetto "attention mechanism" e dai pragmatics, "le intenzioni" che chi veicola un messaggio ha, e per far questo serve un meccanismo di ragionamento. Al momento alcuni stanno studiando proprio questi "modelli causali" (a riguardo ti suggerisco l' accessibile e stupendo "book of why" di Judea Pearl). I modelli causali cercano di creare, sul modello statistico, un modello causale che spieghi le relazioni di causa-effetto, permettendo i due step di induzione e deduzione. Modelli simili possono quindi anche fare le "controfattuali", ovvero porsi le what if question ed ipotizzare "mondi ipotetici (e.g. cosa sarebbe successo se quella cosa fosse andata diversamente?). Siamo lontani dall'applicare ciò su modelli complessi come un gpt ma questa è la prima delle mancanze. La seconda è il fatto che sia stateless, non ha memoria: sembra che ne abbia una perché gli viene passato in input anche tutto ciò che gli hai chiesto prima nella chat ma in realtà non ha una memoria; per questa ragione ti sentivi a pelle piuttosto restio a dire che ne avesse una; hai fondamentalmente ragione. I modelli attuali possono solo apprendere pattern, quindi il vero divario sta "nelle sfumature dell' intelligenza" che manifesta, secondo la mia modesta opinione. Ci tenevo a darti i miei 2 cent, da prendere con le pinze ma che spero possano darti spunti interessanti
ringrazio il giorno in cui i calcoli di youtube hanno deciso di consigliarmi il tuo canale
A me invece l'aveva suggerito Facebook, prima di espellermi dalla sua comunità.
ringrazia l'IA per questo 😆
@@lucianomengoli3104 AZZ! Il termine comunità su FaceBook non esiste. Eri per caso nella Comunità dei Testimoni di Geova? Perché in questo caso sono stati gli Anziani ad espellerti, anzi a disassociarti.
signor Mercadini, sono felice di annunciarla che mesi fa l’ho scoperta col suo primo video sull’AI, e dopo numerosissimi video e spettacoli a cui ho presenziato, sono felice di essere qui col suo secondo video sull’argomento
Ho da poco cominciato a seguire un corso di informatica alla mia università, il professore per farci capire come “pensa” un computer (e quindi come strutturare i programmi che scriviamo),la prima lezione ci disse questa barzelletta:
un programmatore va a fare la spesa e sull’ uscio di casa la moglie gli dice “ compra un chilo di pane e se hanno le uova, comprane 12”.
Poco dopo il programmatore torna con 12 chili di pane e la moglie sconcertata gli chiede cosa gli sia saltato in mente, lui, confuso, risponde “avevano le uova”.
😂 proprio così bellissimo paragone
Bellissima😂😂😂
0:33 😂
Grazie
La logica non fa una piega. Sempre che la logica in qualche caso abbia delle pieghe
Orca miseria ma il dialetto romagnolo è la lingua nera di Mordor!!
Vedendo a quanti comunisti ci sono potrei prendere sul serio la tua affermazione 😂
ahaha a tal dègh!
Il relatore del video ha ragione nel dimostrare le limitazioni dell'intelligenza artificiale, mostrando come GPT non possiede conoscenza o esperienza effettiva ma si basi su calcoli probabilistici. Questo è vero poiché l'IA non può comprendere il mondo in modo uguale a un essere umano e le sue risposte sono basate su dati e algoritmi, non sulla comprensione o l'esperienza personali.
Il relatore ha anche ragione nel contrapporre l'approccio di GPT alle suggestioni musicali di Spotify per dimostrare che l'intelligenza artificiale non può comprendere veramente concetti come la magia o le melodie ancestrali, limitandosi a generare risposte basate su calcoli probabilistici. Questo è vero poiché l'IA non ha una comprensione umana della bellezza e dell'emozione, ma solo una rappresentazione matematica di queste concettualizzazioni.
Infine, il relatore esprime fascino e disagio riguardo alle differenze tra intelligenza umana e artificiale, riflettendo sulle potenziali somiglianze sotto la superficie ma anche sulla profonda diversità tra l'intelligenza umana e quella artificale. Questo è vero poiché l'IA può eseguire compiti complessi come GPT o generare suggestioni musicali, ma non possiede una comprensione umana della bellezza, dell'emozione o del significato di queste cose.
Il video si chiude con la recitazione di una poesia di Nino Pedretti sia in italiano che nel suo dialetto romagnolo originale, dimostrando come l'arte umana possa esprimere emozioni e concetti in modo più profondo e personale rispetto all'intelligenza artificiale.
(Analisi effettuata dalla mia AI locale basata su modello Wizardlm-13b)
G.
ahahah!
8:52 sostanzialmente l’architettura del linguaggio di ChatGPT è basata su reti neurali che vengono utilizzate per generare una risposta. Quest’ultima si basa sul percorso specifico che l’IA compie durante l’analisi della domanda. Quando il percorso che segue porta a dei dati insufficienti o ad una mancanza di informazioni rilevanti risponderà con “non so”. Mentre se, eseguendo dei calcoli probabilistici, il percorso porta l’IA ad avere un grado di certezza sufficiente per dare una risposta risponderà. Il fatto che sia probabile non significa che sia vero, per questo porta a volte (se non spesso) a dare come risposte delle castronerie come dici bene tu. Ottima riflessione come sempre!
Non esiste il concetto di percorso. Una rete produce in output una risposta indipendente dalla query di input. Il "non lo so" è semplicemente dato dal fatto che è stata trainata ad associare il "non lo so" ad query che noi etichettiamo come cose che lei non dovrebbe conoscere
Non mi sembra scorretto parlare di percorso. Il modello compie una sequenza di passaggi mentre elabora l'informazione nei vari layer per generare la risposta finale. Per quanto riguarda la questione del training in base alla risposta “non so” hai ragione, ma del resto siamo noi ad attribuire il significato alla frase “non so”, per chatGPT è una risposta.
@@CreateChannelHere ok ho capito cosa intendi ora. Si allora in quel caso ci sta
Un'altra volta complimenti, perché con le tue parole e i tuoi pensieri, in pochi minuti riesci a distillare concetti che aprono le prospettive, che fanno riflettere, e infine ispirare ulteriori ragionamenti. Forse è questa un'altra cosa che ci differenzia nettamente da qualsiasi ai: l'intento, la volontà di raccontare ma con lo spirito di chi vuole ispirare a ulteriore ragionamento, che sia consapevole o meno. In definitiva l'idea di aprire, mentre ciò che fa un chatgpt o simili, al momento è chiudere.
Video SEMPRE interessante... Ma come mi ha emozionato la poesia finale... Grazie Roberto. Grazie di donare il tuo tempo (quello che non si vede nei tuoi video) a prendere, esperire,elaborare e divulgare tutto ciò che "mastichi" nella tua vita. Fa bene all'anima ascoltarti ✨🧗♂️
Ciao Roberto, questo è uno dei pochi video tuoi dove mi trovi al 90% in disaccordo 😬
All'inizio stavo per scrivere un lunghissimo commento con alcune considerazioni, ma poi ho pensato di farci un video.
Se mai leggerai questo commento buttaci un occhio, che magari nasce un confronto interessante dalla cosa 😊
@@leonarix non è esattamente ciò che dice lui. La tecnologia che sta alla base dell’IA, non è compresa fino in fondo neanche da chi l’ha programmata. Non sono meri calcoli, è qualcosa di più… detto questo il messaggio è chiaro e in parte condivisibile, ma ci sono dei punti critici nel suo discorso
Purtoppo ho guardato il tuo video e sono d’accordo con te su tutto
@@leonarix
Nel video non c'è alcun vero messaggio che non sia una disamina di uno strumento su presupposti erronei. Se vuoi criticare uno strumento, devi testare la versione più rappresentativa. Non puoi criticare ChatGPT dopo aver utilizzato esclusivamente la versione 3.5. Inoltre, la connessione tra la mente umana e la macchina non è una novità di oggi. Ho avuto la fortuna di avere Giulio Giorello come professore di Filosofia della scienza, e lui ne parlava già nel libro "L'automa spirituale: Menti, cervelli, computer", curato insieme a Piergiorgio Strata
Ben lungi dal divenire concreta. Tutto qui
Scusate, ma se uno sbaglia lo sbeffeggiamo o gli spieghiamo dove sbaglia?!
Video molto interessante. In realtà anche l'uomo quando ricorda un evento compie un atto creativo, non abbiamo un database con i dati rigidi, ma ogni volta riformuliamo il ricordo e lo modifichiamo. Anche noi spesso diciamo cose con certezza che poi si rivelano errate. Viceversa quando si crea qualcosa attingiamo alla memoria per riformulare il già detto. Anche noi abbiamo i falsi ricordi, anche noi abbiamo le allucinazioni. Da questo punto di vista a me chatGPT sembra più vicino all'uomo che ad un calcolatore. La differenza sostanziale a me sembra il grado di consapevolezza e di errore. Modificando un po' il prompt ottieni risultati migliori con la stessa domanda. Se ci pensi la stessa cosa avviene anche con noi, più hai il contesto della domanda e più sei certo di non uscirne fuori.
Completare quello che non si ricorda con dettagli verosimili ma non veri è diverso da inventarsi completamente un profilo (poeta Trentino ladino invece che romagnolo, ahaha) sulla base di un oscuro algoritmo statistico, ci vedo ben poca affinità dei due processi. È l'abisso che separa la coscienza dalla non-coscienza...
@@ugobagna ah ok perché a differenza dell'oscuro algoritmo il funzionamento del nostro cervello invece ti è più chiaro.
Non per nulla "allucinazione" (hallucination) è il termine tecnico usato per descrivere questo genere di fenomeni nei Large Language Model come chatgpt
Ad un livello molto più profondo di quello che siamo abituati a intendere normalmente noi quando parliamo di intelligenza anche quella umana funziona in modo non molto dissimile da quella artificiale. I ricordi umani sono dati dalla nostra rete di neuroni che si arricchisce ogni volta che memorizziamo qualcosa, un computer scrivere una cella all'interno di un supporto di memoria, tecnicamente le due operazioni sono analoghe. Formulare un pensiero o dare una risposta ad una domanda è il risultato di una elaborazione del nostro pensiero sulla base delle informazioni contenute nella nostra memoria, i computer fanno sostanzialmente la stessa cosa solo che sono enormemente più limitati di noi, ma, di nuovo, ad un livello di funzionamento profondo le differenze sono minori di quello che crediamo. Anche un protozoo è vivo, fa una certa esperienza della vita se così si può dire, e quindi ha una pur infinitesimale intelligenza in un certo senso, al suo confronto però direi che un computer è enormemente più intelligente, eppure noi ci siamo evoluti dai protozoi nel corso di miliardi di anni. Alla fine è tutta una questione di quanto è raffinato e perfezionato il sistema.
@@raffaelefederico5427Direi che a livello superficiale sembriamo simili perché ad un livello più profondo si vedono le differenze.. però mi dispiace ma siamo più complessi di cosi, non viviamo solo di domande e risposte semplici e soltanto ricordi.. c'è molto di più nella coscienza umana e i computer e l'Ai ancora non si possono comparare mi dispiace, per quanto vi piaccia giocare con l'immaginazione, cosa importante che all'Ai manca..
😂💙 come Mercadini consiglia la sua musica preferita:
L'essere umano tramite input multimodale (sensi) si occupa di fare un fine tuning della rete neurale più efficiente e continuo, il che rende la memoria un processo creativo (embedding). Avere esperienze è semplicemente il modo con cui chiamiamo questo processo di fine tuning molto sofisticato, mediato dall'ippocampo e dall'amigdala (processo di feedback).
Che l'utilizzo di una rete feedforward e della back propagation non possa essere altrettanto efficace se ne può discutere. Tuttavia conosco alcune persone che quando "non sanno" generano frasi senza senso sulla base di qualche falso ricordo. Il fatto che questi meccanismi possano raggiungere livelli di efficienza, creatività e spontaneità ragguardevoli ci distoglie dal fatto che le reti neurali "artificiali" siano bio-ispirate. Per coloro che sostengono l'assoluta inestricabilità del cervello umano, che provino a risalire alla logica di un LLM a partire unicamente dai pesi dell'ultimo layer. L'extreme learning (la capacità di una rete di skippare layers intermedi e allenare solo l'ultimo strato con ottima accuracy) ci pone difronte alla possibile conclusione che l'intelligenza sia proporzionale, con leggi altamente non lineari, ad alcuni parametri quali la dimensione stessa della rete.
Basterebbe avere una "replica logica" del cervello umano montata su un robot della boston dynamics dotato di sensori tattili, audiovisivi e di temperatura per emulare quasi al 100% l'esperienza di una conversazione con un amico.
Ottima argomentazione
Con questo commento mi sono innamorata (Da neo amante della robotica, delle meccaniche della mente digitale e del suo sviluppo in futuro!) Praticamente il tuo commento me lo studio. 😂
Ma quindi... Il tartufo è un fungo o un tubero?
Ehmm mi scuso per la mia confusione precedente... 😂
Il tartufo è un fungo ipogeo...
È un fungo
Si comporta più o meno come un tipico studente all' interrogazione che si arrampica sugli specchi 😂
Però lo fa bene
Ciao sei bravissimo, meriti più spazio a splendida cornice, vogliamo interventi più lunghi, dillo a Geppi !!!
mancava solo che citassi queste tre band.
mancava giusto questo per dichiararti definitivamente mio personalissimo eroe
a me GPT4 ha risposto così "Tito Balestra è stato un poeta e critico d'arte italiano, nato a Longiano (Forlì) il 25 novembre 1923 e scomparso il 12 settembre 1976. La sua opera è caratterizzata da un'intensa lirica personale, in cui emergono temi come l'amore, il tempo, la morte e la riflessione sull'esistenza. Balestra ha contribuito significativamente al panorama culturale italiano non solo con le sue poesie, ma anche attraverso la critica d'arte, collaborando con importanti riviste e curando mostre.
Oltre alla poesia, si è distinto per le sue riflessioni e critiche nel campo dell'arte contemporanea, avendo stretto amicizie con molti artisti del suo tempo. La sua figura è rimasta impressa nella memoria culturale italiana per la profondità dei suoi testi e per il suo impegno nel diffondere l'arte e la poesia.
La Fondazione Tito Balestra, situata nel castello Malatestiano di Longiano, è dedicata alla sua memoria e ospita una significativa raccolta di opere d'arte moderne e contemporanee, testimonianza dell'interesse di Balestra per le arti visive e del suo legame con numerosi artisti. La fondazione si impegna nella promozione culturale attraverso mostre, eventi e pubblicazioni che riflettono lo spirito e gli interessi del poeta."
le reti neurali, il deep learning eccetera non potranno MAI fare valutazioni emotive sulle cose, ma ricordati che la statistica è la generazione di un trend sulla base di parametri e variabili che la producono nel tempo. E a prescindere dal fatto che le nostre azioni e scelte siano anche basate su valutazioni emotive, magiche, spirituali, il risultato è sempre e comunque una statistica. Bel video comunque :) E' giusto mettere sempre tutto in discussione e valutare ed approcciare ogni cosa con pensiero critico.
@@BreraP Vero, però non si può fare un discorso critico attendibile su Chatgpt senza testare la versione pro
eh sì direi @@henriolamachannel
Il nostro cervello pesca informazioni in memoria, le mette insieme reagendo a tutte le variabili del caso e da risposte... La vera differenza è che noi prima di questo abbiamo esperienza dell'esterno e coscienza della diversità tra io e il resto. Chat gpt è una scatola chiusa e omogenea: pesca bit e risponde bit, senza esperienza del diverso da se, senza esperienza di se e senza coscienza.
Gran video ❤️
tutto molto bello. peccato che si prendera' un'erorme fetta dei lavori che fanno gli umani e un'enorme fetta della parte piu' banale della creativita' umana. avoja ad incensare quanto siamo belli e speciali. non lo siamo.
La consapevolezza di sé e la comprensione profonda restano per ora (e solo per ora) esclusive della mente umana, evidenziando così il divario tra le capacità umane e quelle dell'IA. Ma questo "mostro" ci sta studiando...Ormai sa emulare il nostro modo di pensare attraverso la modellazione cognitiva, l'elaborazione del linguaggio naturale e la risoluzione creativa dei problemi...
Bel video, ma non ho capito.... Tito Balestra è un fungo o un tubero??
Bella questa!
haahhaha
Ovvio,é un funghero
Complimenti per la lettura della poesia! Molto intenso. 👏👏👏
Ciò che facciamo è comparare due oggetti trovando differenze e somiglianze, poi creiamo delle categorie sulla base di queste associazioni e le chiamiamo "generalizzazioni".
Vediamo una mela verde, una gialla e una rossa. Poiché l'aspetto differisce solo nel colore, mentre la forma è approssimativamente la stessa e anche il gusto e la consistenza sono abbastanza simili, allora presumiamo che, se a un individuo piace la mela rossa, gradirà anche le altre due.
Allo stesso modo, se analizzo la musica di J.Coltrane e di M.Davis trascrivendo sullo spartito tutto ciò che accade, troverò delle strutture molto simili. Il basso farà il walking; il fraseggio seguirà un andamento leggermente sincopato tipico del linguaggio jazzistico; il pianoforte suonerà sempre più o meno nello stesso modo e suonerà sempre più o meno le stesse progressioni armoniche; il fraseggio nei soli seguirà sempre più o meno schemi e pattern simili. Posso insegnare a discriminare il jazz dal non-jazz anche a un sordo dalla nascita, semplicemente istruendo il soggetto a discriminare alcuni schemi ricorrenti di questa musica (la circolarità del tema, il walking eseguito dal basso, gli accordi utilizzati, le soluzioni melodiche attuate dai soli, ecc). Lui non saprà mai cosa si prova ad ascoltare musica e quei simboli grafici saranno semplicemente fini a se stessi. Però, vedendo lo spartito, potrà capire che la musica di J.Coltrane e quella di M.Davis si somigliano. Potrà anche, se opportunamente istruito, comporre della musica jazz piacevole da ascoltare per coloro che invece possono sentire i suoni. Il fatto che si dia per scontato che un compositore debba aver sentito la musica almeno una volta nella propria vita per poterla scrivere è in realtà un presupposto falso. Un sordo può scrivere musica, solo che in genere non ha alcun interesse nel farlo. Allo stesso modo il fatto che fino ad ora a una azione intelligente sia associata la coscienza (qualsiasi cosa voglia dire questo termine), non significa che non possa esserci una azione intelligente da parte di un oggetto che non possieda questa caratteristica.
Da un po' non guardavo i tuoi video. Ma da oggi, dopo aver visto questo, sento che devo ricominciare!
ChatGPT mi fa continuamente venire in mente l'uomo che scambiò sua moglie per un cappello: mi sembra che funzioni nella stessa maniera in cui, nel caso raccontato da Sacks, funziona la vista del paziente, che non riesce a riconoscere più le immagini ed è ridotto a inventare e indovinare basandosi solo su una statistica dei dettagli minuti che riesce a identificare
Che bellissima favola della buonanotte.😌
Grazie, Roberto, che scegli le tue parole, per noi.❤
Prova a chiedere se conosce il "sarchiapone"....
Poi, mi chiedo, perchè usare questa AI per fare ricerche che google può fare tranquillamente e probabilmente anche meglio, bisognerebbe usarla per cose più tecniche, come lo sviluppo di codici, oppure, visto che a questo punto della storia, forse, abbiamo ancora la possibilità di staccargli la spina, facciamolo, prima che sia troppo tardi.....
La poesia finale in dialetto uno spettacolo!!!!!!!!
Ciao Roberto..
Provo tanta stima nella tua persona..profonda, sincera, colta e divertente.
Volevo riflettere insieme a te sulla reale presa di coscienza di quello che sta succedendo in termini Di intelligenza artificiale, o comunque sia di questa nuova "epoca".
Avrei miliardi di domande da farti, purtroppo però il commento al video è l'unica cosa piú vicina che posso permettermi, giustamente.
Vado con la domanda che sintetizza in malo modo il tutto:
Riguardo a questo video, è tua intenzione sgonfiare l'"Hype" insieme ai timori e speranze che lo sviluppo tecnologico sta portando?
Perche se questo è il punto non mi trovo d'accordo sul metodo.
Perché è inutile secondo me utilizzare parole o termini che definiscono qualcosa che non è finito ma in continua evoluzione.
Credo che quello che deve far riflettere non siano tanto i risultati attuali ma la potenzialità di sviluppo che hanno questi "Software".
Ormai una delle più grandi domande che mi faccio è capire dove sono i limiti,
Dove sono i limiti tra calcoli matematici "umani" e quelli artificiali,
Per poi finire alla solita grande e affascinante Domanda,
Chi siamo e perché siamo qua.😂❤
Ti ringrazio per quello che fai e ti chiedo scusa per la grammatica e le mie lacune sull'argomentazione poco chiara.
Sono solo un semplice operaio molto curioso e stanco a quest'ora della giornata.
In bocca al lupo per tutto❤
Ciao Mattia!
Il video voleva essere una riflessione sulla differenza fra l'intelligenza umana e quella artificiale. A volte ci sfugge, perché gli output di un software come ChatGPT sono straordinarie imitazioni del linguaggio umano. Ma, secondo me, c'è una differenza abissale.
Per esempio, bel video rifletto sul fatto che il concetto stesso di "sapere" nel coso dell'intelligenza artificiale perde significato (o, se vuoi, ne assume uno completamente nuovo).
Ecco era più questo, cioè una riflessione filosofica, che non il tentativo di sminuire questa straordinaria tecnologia.
Per fortuna!!
Pensavo che mi portasse via il lavoro
Grazie mi hai rinquorato
A me ha aperto la mente il discorso di Luca Perri su questa questione in una sua recente conferenza sull'AI a cui ho partecipato un paio di settimane fa: ChatGPT è fatto per superare il test di Turing, quindi deve dare l'impressione che a "parlare" dall'altra parte del monitor ci sia un umano, senza poterlo distinguere da una macchina. A ChatGPT non frega nulla se dice cose vere o false, purché sembri che a dirle sia un umano.
Sì, concordo che il concetto sia quello. È progettato per comunicare verbalmente in modo perfetto.
Ma non è tanto ChatGPT che sembra umano, quanto alcuni umani che parlano come ChatGPT 😂😂😂
Ma in realtà non è proprio così. L'AI di ChatGPT in sé non è progettata per superare Turing: elementi come la fantasia e la precisione sono parametri che si possono regolare, se usi l'API sviluppatori. Voi parlate dei parametri di base che ci sono nell'interfaccia grafica per utenti normali. Quelli sì, sono ottimizzati per dare l'impressione di parlare con una persona a discapito dell'attendibilità. @@RobertoMercadini , quando nel video dici che non si può chiedere a ChatGPT di smettere di "inventare", in realtà è un po' inesatto, perché si può regolare, nei limiti di quanto concesso da microsoft. In modelli simili tipo MixTral si può fare molto di più. Attualmente, queste AI non hanno ancora il modo di autoregolarsi i parametri, ma si fanno già esperimenti in tal senso.
Per me il problema non si pone, tu sei tutta l'intelligenza di cui ho bisogno!✌️
Riguardo al sistema di consigli di Spotify c'è da dire che in un certo senso "ascolta" anche la musica, perché oltre a tenere conto degli artisti o dei brani ascoltati da altri utenti compara direttamente le tracce audio, le frequenze e i dati delle canzoni per trovare similarità, attribuire generi eccetera.
Potrebbe "ascoltare" meglio di noi individuando con precisione caratteristiche che esperti in materia non colgono...
Però in verità continua a non ascoltare.
L'ascolto umano è un processo molto complesso che coinvolge il corpo, la cultura, la storia personale, la condizione psicologica...
Ecco. Dovremmo distinguere tra analisi dei parametri ed ascolto umano.
grazie mille per questo video. Ti stimo tantissimo❤
video stupendo Roberto, proprio in questi giorni stavo pensando a quando - molto probabilmente - in futuro le diagnosi mediche saranno fatte quasi esclusivamente dall'AI, questo video calza proprio a pennello. Buone parole anche a te
la medicina è pura meccanica? I'IA potrà, secondo me, essere solo da supporto per un medico, come una calcolatrice per un ingegnere.
Mai chiuso chat gpt così velocemente
😂😂😂😂
Ha testato Chatgpt 3.5 che è gratis e non sa nulla
@@henriolamachannelChat gpt 3 è vecchio e ha molti bug,su Bing c'è Gpt 4 che è meglio ma ha ancora tanti errori e ovviamente non sa le cose,cerca solo di formare risposte coerenti in base a certe fonti
In ogni caso parliamo di intelligenza artificiali ai suoi albori,fra centinaia di anni sapranno più di quanto qualsiasi umano si possa permettere
@@henriolamachannelGoogle Bard è superiore. Figuriamoci quando rilasceranno Gemini.
@@henriolamachannel non sa nulla manco quello che ho io a pagamento. Ha più dati ma non sa. Una macchina non può sapere nel senso vero della parola. Sveglia, sapere vuol dire avere coscienza e consapevolezza di quel che si espone non organizzarlo tramite programmazione, basata su reti neurali o meno. 😂
Argomento molto interessante! Ne prenderò sicuramente spunto per i miei video
Per quanto riguarda il punto del video sulla diversità fondamentale tra il modo di sapere umano e delle AI trovo che sia condivisibile e interessante, tuttavia vorrei portare qualche obiezione più intese come spunto che come critica.
1) il fatto che chatgpt sbagli nel riportare delle informazioni non implica necessariamente che non possa arrivare a capirle, anzi il meccanismo del deep learning si basa proprio sul trial and error, esattamente come l' apprendimento umano(anche noi esseri umani commettiamo errori prima di aver internalizzato un concetto).
2) ovviamente questo apprendimento per trial and error è sostanzialmente differente tra chatgpt e un essere umano, come dice lei non sembra esserci reale "comprensione" da parte dell' intelligenza artificiale bensì solo un complesso sistema di considerazioni statistiche che gli permettono di rispondere correttamente a molti quesiti.
Tuttavia il punto che vorrei portare è che non è assolutamente detto che il cervello umano non lavori con lo stesso principio (le reti neurali artificiali sono basate proprio sul comportamento dei neuroni biologici) però con una complessità infinitamente superiore data dal numero astronomico di collegamenti sinaptici nel cervello che rendono questi processi di carattere statistico talmente smussati da essere impercettibili.
Ovviamente non è detto che invece nella mente umana non ci sia qualcosa di intrinsecamente diverso che ci permetta di comprendere mediante un diverso meccanismo (ma a qual punto si pone il problema di capire cosa sia).
3) come ultimo punto vorrei portare una considerazione di carattere più pratico.
L IA è ancora ai primi passi e di qui in poi non potrà che migliorare (chissà tra 100 anni cosa sarà in grado di fare).
Se dovesse raggiungere un livello tale da rendere le conclusioni raggiunte con soppesi statistici totalmente indistinguibili da altre conclusioni tratte da esseri umani che abbiano realmente compreso l' argomento non sarebbe in fondo inutile distinguere le due cose?
Nel momento in cui non è più possibile notarne una differenza nelle risposte il processo che sottende tali risposte non diventa più una considerazione di carattere filosofico che non ha reale riscontro concreto?
Spero di non averla annoiata con un messaggio così lungo e anzi mi farebbe piacere sapere cosa ne pensa se decidesse di rispondermi.
Son d'accordo.
Prima questione:
Per chaGPT sono giuste. Sbagliato è quello che l'uomo riscontra sia sbagliato. E' l'uomo che la verifica. Se la risposta ti soddisfa lei la correggerebbe da sola?
Seconda questione:
Il modello matematico di una cosa non è la cosa. Neuroni veri e modelli del neurone. C'è a riguardo una serie di ragionamenti di Einstein. Nessuno sa come funzioni un neurone.
@francescodarin8100 potrei sbagliarmi, ma trovo che applicare principi morali ad un software sia fuorviante: chatGPT produce risposte coerenti con i processi generativi soggiacenti, i quali non sono volti alla verità, bensì all'imitazione dell'uomo. Quindi in un certo senso le risposte sono sempre "giuste", ma senza alcun valore di verità. Semplicemente sono "plausibili".
Per la questione dei neuroni, purtroppo non ho familiarità coi discorsi di Einstein in merito (magari approfondirò), ma intuisco che essa possa essere ridotta al problema della deduzione (e della verità) - per cui non esiste soluzione. Tuttavia vorrei far notare, in continuità col primo commento, che la soluzione è puramente di carattere metafisico ed è anzi priva di risvolti concreti
@@filipposchiabel tu li chiami principi morali mentre invece si tratta dell'affidabilità dell'informazione che è un problema di sorgente. Sarai condannato a verificarla costantemente.
Un uomo che mente sempre è un paradosso della logica perchè sai appunto che mente sempre - il paradosso del mentitore è (forse) l'inizio della teoria dei giochi. Invece qui vai a singhiozzo. Rischi di chiedere e credere all'oracolo.
Non che per questo sia cattiva ma non è affidabile.
La questione di Einstein riguarda il problema dello scarto tra la realtà e i modelli matematici. Uno "si comporta" l'altro insegue approssimando.
Dove stia l'imitazione dell'uomo, se non nella possibilità dell'errore, lo sai solo tu.
Per fare errori mi basto.
@@francescodarin8100 ok qui siamo scesi un po' nella filosofia.
Restando in termini più pragmatici quello che ti direi è questo:
Neanche un essere umano si autocorregge da solo, ha bisogno che qualcuno gli dica che sbaglia o avere un riscontro del suo errore.
Allo stesso modo un AI non sa di sbagliare finché non glie lo si dice e non si accorge di una contraddizione all' interno del suo ragionamento (che chat gpt non è ancora abbastanza sofisticata da fare con costanza).
Per quanto riguarda i modelli che sono distinti dalla realtà ciò è verissimo, infatti nessuno ha detto che sicuramente il meccanismo di apprendimento di chatgpt è lo stesso di un essere umano dato che si basa su un modello di neurone.
Quello che si dice è che se il modello è abbastanza preciso potrebbe davvero imitare il comportamento dei neuroni su piccola scala.
Buone parole anche a te Roberto, grazie del tuo operato
Si chiama effetto "allucinatorio" ed è dovuto al fatto che il calcolo probabilistico sbaglia a scegliere il token corretto. Il motivo per cui sbaglia è che gli LLM cioè i Large Language Model lavorano a "strascico". Questo problema viene risolto dalla tecnica del RAG che permette di addestrare il modello su fonti supervisionate. Quando cioè avviene la risposta è esatta al 100%. Smettetela di combattere contro i mulini a vento. Il futuro è l'AI, la robotica, ecc...Invece di aver paura dell'AI dovreste studiarla per capire come sfruttarla.
non hai capito niente di quello che roberto ha detto nel video.
Hai ragione, i dinosauri attaccano sempre il progresso
Non hai capito. Il fatto che la risposta sia esatta o sbagliata non fa nessuna differenza.
Il video è una riflessione sul concetto di "sapere".
È un video che parla di filosofia, non di tecnologia.
Sempre preziosi i tuoi ragionamenti, è un piacere ascoltarti
I pennelli non sanno niente
Le ruote non sanno niente
Illustrator non sa niente
Tu non sai cos'è l'AI vero? Perché il tuo paragone ha è molto sbagliato, ChatGPT non dovrebbe inventare, il motivo per cui accade è molto complesso, ma è come se, usando uno dei tuoi paragoni, Illustrator restituisse due risultati differenti applicando alla stessa forma lo stesso comando non randomico
@@MackShunta è uno strumento che uno può usare per fare cose
@@MackShuntainvece la sua ANALOGIA ha perfettamente senso. Se tu lo vedi come un PARAGONE. Sei tu che confondi un paragone con un'analogia.
gli organismi sanno, i meccanismi non sanno.
Penso che hai centrato il problema. L'AI non inventa ne riproduce ma "estrapola" da dati (diversamente da noi che ragionaniamo su "esperienze"). Attualmente non è in grado di capire "quanto" sa o non sa e pertanto quando la si interroga su u tema che è poco rappresentato nel suo dominio di apprendimento, l'errore di estrapolazione è molto alto e purtroppo l'AI non sa nemmeno prevederlo.
.
chatGPT conosci Roberto Mercadini?
Certo, Roberto Mercadini, Trento 1922 - Città del Capo 1997 é stato un famoso chef italiano, specialista in prodotti tipici della zona alpina in cui é nato.
🤣🤣🤣
@@RobertoMercadiniSii contento. Qualcuno a saputo di essere già morto.
Ma perchè usate modelli vecchi del 2022? Che boomers! 😂
Sono problematiche stra note, ci hanno fatto ore di video a riguardo da almeno un anno (cerca Matteo Flora).
Praticamente ogni modello uscito nel 2023 risolve sti problemi.
@@dav77h Dubito fortemente che le nuove versioni abbiano risolto la questione di cui parlo nel video. 🤣🤣🤣
Hai capito cosa dico? Il concetto di "sapere" non ha senso riferito all'intelligenza artificiale.
@@RobertoMercadinied io dubito fortemente che tu abbia mai provato qualche modello che non sia chatgpt versione gratuita del 2022.
I nuovi modelli (oltre ad avere molte più informazioni di base) compiono actions e cercano su internet quello che non sanno, come faresti anche tu. Non prendono più il rischio di sparare a caso. Non serve più.
Chatgpt che usi tu del 2022 era semplicemente ottimizzata per rispondere sempre scrivendo bene, anche inventando cose.
Era stata concepita come una scatola chiusa, non doveva dimostrare di sapere cose, per quello c'era wikipedia. Doveva solo dimostrare di poter confondere gli umani sapendo scrivere bene, e lo ha fatto. Era uno stunt.
Nel 2023 infatti ci sono state grandi discussioni a riguardo e sono usciti Bard, Grok, GPT4 per esempio.
E nel 2024 ritornano i boomers a dire ancora che l'intelligenza artificiale (chatgpt versione gratuita del 2022) inventa cose! Non sa com'è una giraffa perchè non l'ha vista!
Seriamente, hai mai provato Grok, chatgpt4, bard, copilot?
Hai mai provato un modello recente che sa com'è fatta una giraffa perchè semplicemente l'ha vista?
Bel video, hai colto in pieno l'essenza e il funzionamento di Chat GPT; un generatore di testo probabilistico.
Di solito cerca dalle fonti più attendibili, ma non sa cosa sta scrivendo, sta generando.. E scazza :D
Dicono che la prossima versione "penserà" un po prima di generare una risposta.
Pensare forse non è la parola corretta, come non lo è intelligenza ma come hai detto tu diventa difficile ad un certo punto non usare queste parole per fare paragoni.
Il "suo sapere" è un database. I "suoi pensieri" calcoli logici, probabilistici. La "sua etica" impostata dagli sviluppatori tramite addestramenti. Ma niente di vivo o cosciente.
È affascinante e spaventoso allo stesso tempo, un Mimic. :D
Ciao Roberto, hai mai sentito parlare di rappresentazione vettoriale? Spotify, come anche altri strumenti, non solo compara gli ascolti di diversi utenti, ma ha un algoritmo che ad ogni canzone appaia un vettore, e poi può misurare la distanza tra questi vettori per comprendere quanto sono simili le canzoni corrispondenti. Quali caratteristiche l'algoritmo usi per codificare le canzoni in vettori è un mistero, ma potrebbe essere benissimo vero che usi anche features che somigliano alla nostra concezione di "magico" o "ancestrale"
Ma lui le usa perché qualcuno gli ha imposto di usarle per programmazione. Non sa perché e non sa di usarle.
@@artiko888 non direi proprio, sono tutte features apprese automaticamente e senza nessuna programmazione specifica. È un ammasso di matrici che computa cose e riesce a classificare musica usando caratteristiche a noi comprensibili, non mi sembra niente di più strano rispetto ad un ammasso di neuroni e sinapsi che riesce a classificare musica in base a caratteristiche che risultano comprensibili ad altri ammassi di neuroni e sinapsi
Probabilmente compie un'analisi in frequenza della musica, riuscendo quindi ad ottenere uno spettro delle frequenze che poi compara con altri brani stabilendone in fine la similitudine. Una musica rock ad esempio, avrà alcune componenti in frequenza che possono essere usate per la comparazione, così come una musica "ancestrale" avrà i suoi toni caratterizzati dagli strumenti con cui viene espressa. Lo spettro ottenuto potrebbe essere utilizzato come etichetta di comparazione. Spettri simili equivarrebbero a musiche simili. Secondo me non è molto diverso da ciò che fa il cervello quando tenta di stabilire la somiglianza di due musiche.
Ciao Roberto, sul tema della rappresentazione imprecisa della realtà, il video mi ha fatto venire in mente le prime rappresentazioni grafiche del rinoceronte.
Grazie per tutto quello che fai.
In realtà, un computer può anche analizzare la struttura della musica e stabilire somiglianze oggettive, anche se non nello stesso modo in cui lo fa un essere umano. Ciò non vuol dire che sia consapevole, ovviamente, ma non è detto che i consigli si debbano basare solo sulla frequenza di utilizzo degli artisti da parte degli stessi ascoltatori.
Il fatto che ci si chieda "se fosse umano" ci si lamenta che "inventa" è qualcosa di incredibile! Non lo faremmo mai per un microonde. Guardiamo ciò che queste tecnologie fanno non quello che non fanno altrimenti il rischio è quello di non capire. Guardiamo e guardiamoci.
Ma no! È una riflessione filosofica sul concetto di "sapere"! 🙂
Non ha senso dire "guardiamo quello che queste tecnologie fanno". 😊
Chiedendo la stessa cosa a chat gpt 4:
Tito Balestra è nato a Longiano, un comune nella provincia di Forlì-Cesena, in Emilia-Romagna, Italia. Longiano è noto per il suo ricco patrimonio storico e culturale, ed è in questa suggestiva cornice che Balestra crebbe e trovò ispirazione per molti dei suoi lavori.
Lui usa chat gpt3 la versione free, se già usasse chat gpt di bing avrebbe risposte migliori visto che ha l'accesso al web
Infatti ho provato con copilot ho avuto la tua stessa identica risposta
Chiesto a Bard e avuto tutte info corrette. ...
Grazie. Siamo messi bene con quel l. A...... Ho fatto da un po un ragionamento come te, ma mentalmente......molto bene descritto.
Due cose devo scrivere:
1 troppo bello i tuoi video sull’ia
2 se l’intelligenza artificiale fosse davvero “intelligente” potrebbe anche decidere di non lavorare per te
sei tu che lavori per l’AI e la aiuti a migliorare e ampliare le sue conoscenze
@@alessandrodistefano73 le conoscenze non sono l’intelligenza, sono proprio due cose diverse
Segnalo la reaction di Raffaele Gaito a questo video che analizza molto bene la questione, con saggezza e competenza. Dire “Intelligenza artificiale” per identificare “chat gpt” è molto molto riduttivo, ci sono centinaia di intelligenze artificiali con infinite variabili e altrettanti usi diversi. Bisogna conoscere a fondo risorse e limiti di una tecnologia per un corretto e proficuo utilizzo.
Sì, ma la questione che pongo io è filosofica.
Tecnologie come ChatGPT ci costringono a ripensare l'uso che facciamo delle parole. Ha senso applicare il concetto di "sapere" all'intelligenza artificiale?
Ne sto discutendo in privato con un filosofo che ha anche una laurea in ingegneria ed è specializzato nel campo dell'intelligenza artificiale. Si chiama Riccardo Manzotti. Lui sostiene che ChatGPT abbia una qualche forma di sapere; ma lo fa a partire da una concezione molto originale della mente, che tecnicamente si chiama esternalismo radicale.
Ma l'uso corretto di una certa tecnologia non c'entra nulla con il mio discorso. Io ho fatto un uso "anomalo" proprio per mettere in luce la questione filosofica.
@@RobertoMercadini sicuramente è un dibattito interessante. Il “sapere” al momento non c’entra nulla, li considero solo degli strumenti tanto straordinari, quanto embrionali. Quando ci sarà (forse), una sorta di “autocoscienza” artificiale, allora probabilmente sarà tutta un’altra storia…
"Non lo saprà nessuno che abbiamo vissuto", neanche ChatGPT
per ora, man, per ora
IMPORTANTE: chatgpt è un intelligenza programmata per rispondere come farebbe un umano. il punto centrale è il linguaggio, la capacità di comprendere la domanda ed elaborare la risposta. è solo per questo che è stata progettata. che poi avendo praticamente tutto internet nell addestramento come effetto secondario da anche risposte esatte, ma non sempre, e quando non lo fa non dovrebbe stupire nessuno
il punto non è dare la risposta sbagliata se provi a fare domande di logica a chat gpt non sa rispondere perchè al momento non ha niente di intelligente, è solo un enorme enciclopedia
Esattamente, la cosa che molte persone non colgono è che la tecnologia degli LLM non è basata sulla capacità di poter rispondere a delle domande come un'entità onnisciente, ma di poter rispondere a delle domande in linguaggio naturale
Sì, questo mi è chiaro. Quello che ChatGPT fa è imitare perfettamente il linguaggio umano.
Dare risposte corrette, semplicemente, non è ciò per cui è stato creato.
Il video voleva essere una riflessione sul concetto di "sapere". ChatGPT è un esempio abbastanza chiaro della differenza fra dire qualcosa di vero e sapere. ChatGPT non "sa" mai nulla, anche quanto fornisce risposte assolutamente corrette.
signor mercadini lei è senza dubbio il mio ebreo preferito
Mercadini non è ebreo.
A distanza di 3 mesi, Chat GPT ha studiato e si è aggiornato!
È facile deridere Chat GPT, ma teniamo presente che siamo agli albori dell' intelligenza artificiale. Fra qualche anno avrà fatto passi enormi, e forse fra altri anni le IA acquisiranno anche una coscienza e la possibilità di fare esperienze. A quel punto potranno caricare più esperienza di qualsiasi essere umano.
Per ora la coscienza non la può acquisire. Perché la sua programmazione è fatta su quel che i programmatori hanno capito e potuto riprodurre, non sapendo ancora nemmeno a livello neurologico cosa sia la coscienza ancora non possiamo riprodurla. Parlare di CGPT come un essere è il primo errore di confusione che fa la gente che non ha capito che strumento sia. Non confondere le cose, la parte importante della parola IA per ora è ARTIFICIALE.
Non è intelligenza ma un artificio, qualcosa che emula, un trucco. L'artificio dell'intelligenza. A meno che un programmatore non riproduca per culo una serie di algoritmi che generano una coscienza senza sapere come funzioni, ma mi par difficile eh😂. Abbiamo visto troppi film. L'IA non è quella della fantascienza e si evolverà in base a canoni reali e non scifi.
Grandioso! ❤️
chatgpt ha una competenza (elaborazione simbolica) senza comprensione. Un uso senza comprensione... è una macchina che elabora senza una finalità interna (è un meccanismo input-output), invece ogni singola cellula vivente (che compone un organismo) ha al suo interno una causa finale (entelechia). Ogni singola cellula contiene l'informazione (dna) sul telos (il fine). Nel caos esteriore del quotidiano, abbiamo in ognuno di noi un nostro Kosmos (ordine).
Perché una cellula dovrebbe essere speciale, solo perché banalmente è un nostro mattoncino e non riusciamo a non soffrire di antropocentrismo?
@@MarcoAmadori una cellula non è ne banale ne speciale, è semplicemente diversa da un meccanismo. Un meccanismo ha stati necessariamente determinati (non decide), un organismo compie atti intenzionali non necessari...
Grandissimo roberto, grazie per quello che fai
Secondo me, Chat GPT non è l'ideale per le domande di cultura generale, perché, se non sbaglio, non ha accesso a un motore di ricerca come l'intelligenza artificiale di Bing, che è molto più preciso in tal senso. Infatti, Chat GPT sembra inventarsi le risposte e cambia le informazioni ogni volta che gliele chiedi. Però, è super utile quando devi fare mansioni pratiche, come calcoli matematici o correggere errori sintattici e grammaticali nei testi e quant'altro.
Per esperienza ti posso dire che, almeno per ciò che ho potuto vedere io, chat gpt non è per nulla bravo con problemi di matematica e fisica e programmazione (lo ho sottoposto ad esercizi che dovevo fare per ingegneria e non ne ha azzeccata mezza, bing invece ci si avvicina maggiormente). Non è abile nemmeno nel cercare informazioni su internet, che siano esse di carattere scientifico o umanistico. Anche in questo caso Bing se la cava meglio. Ciò chat gpt è in grado di fare meglio è inventare e scrivere, è un ottimo aiuto per la composizione e correzione di testi (sia Articoli che storie) ed è inoltre un incredibile traduttore, l'unico che uso ormai.
Spero di aver scritto in maniera comprensibile
@@alessandrodeluca5770 grazie per aver condiviso la tua esperienza. Molto utile. Io Chat GPT lo uso spesso per correggere la sintassi delle mie email, e mi è sempre sembrato bravo.
Ottimo spunto di riflessione grazie.
Conosco molte persone che, pur non sapendo assolutamente di cosa stanno parlando, elargiscono “verità” a destra e a manca. Altro che ChatGPT! 🤣🤣🤣🤣🤣🤣
😂😂
Un finale da poeta parlante. Sarebbe bello tornare agli albori di questo canale. Nella speranza che nel frattempo sia stato scritto “un grande poema su un bicchiere d’acqua”.
E se ci sopravvalutassimo? Se la nostra "intelligenza " nel 99% dei casi è solo combinare parole concetti già sentiti? A volte viene paragonata ad uno studente che inventa quando non sa. Magari deve ancora imparare un po'. Comunque esperienza personale nello scrivere " previdibilissime" mail di lavoro tipo "scrivimi mail per ricordare a tutti i capi reparto di compilare correttamente in ogni parte il report di produzione giornaliera" è bravissima
Era la tesi di Turing: siamo macchine manipolatrici di simboli. Non regge.
Visto che la definizione stessa di intelligenza è al più vaga e soprattutto riferita a quello che consideriamo intelligente cioè noi. Mi piace dare una risposta vaga ma efficace alla difficile domanda. Quando la IA sarà veramente intelligente? Semplice quanto sarà diventato troppo difficile vedere la differenza.
@@francescodarin8100Sarebbe interessante sentire l'argomentazione.
@@zenopatruno trovi molto e ovunque da cui il test di Turing.
il problema si condensa a determinismo vs non determinismo.
Un sistema deterministico (o descrivibile con sufficiente accuratezza in modo deterministico), per quanto complicato possa essere, basta aggiungere qualche miliardo di punti neurali di qua, qualche miliardo di calcoli al secondo di là, e si ottiene una giusta rappresentazione del sistema (leggisi cervello umano).
ChatGPT è molto bravo (o brava?) a IMITARE le parole umane e i discorsi umani (lo sappiamo tutti e siamo d'accordo), ma mostra una SCARSISSIMA capacità di fare operazioni logiche sul discorso e sulla dialettica in generale, perché non riesce ad astrarre elementi della frase in concetti veri e propri.
Ma chi dice che non possa sviluppare in futuro questa capacità che noi umani invece abbiamo (o che sembriamo avere)?
Alla fine, se il pensiero è effettivamente descrivibile deterministicamente, pian piano ci si arriva (ammesso che riusciamo ad avere una tale potenza di calcolo). Tra l'altro non è detto che sia un processo esponenziale. Potrebbe anche essere che oggi abbiamo una AI scema, domani meno scema, tra 50 anni una scimmia e tra 100 anni un uomo. Dipende dai mezzi di produzione, scarsità di risorse, possibilità economiche/tecnologiche e forse proprio fisiche.
10:23 penso sia sbagliato dire che chat gpt non ha esperienza in quanto gli algoritmi di intelligenza artificiale a differenza dagli algoritmi comuni hanno proprio la caratteristica di imparare dai proprio errori, provando e sbagliando su moltissimi dati alla fine riescono a "imparare" quello che vogliamo fargli imparare, quindi in un certo senso ha un esperienza non è paragonabile alla nostra ma è comunque un tipo di esperienza, se ad esempio la nostra intelligenza artificiale è specializzata nel riconoscere immagine di gatti per far ciò abbamo dovuto dargli in pasto moltissime immagini di queat ultimi, infatti se allo stesso algoritmo avremmo chiesto di riconoscere un gatto prima di averlo addestrato esso non sarebbe sato in grado di riconoscere un gatto da un altra cosa, solo dopo che ha fatto esperienza riuscirà a rispondere.
Come avevo già scritto, anche questo video invecchierà malissimo. Intanto prova ad usare gpt 4, le allucinazioni diminuiscono drasticamente e comunque non è questo il modo di usare questi strumenti
Il video pone una questione filosofica.
L'intelligenza artificiale mette in crisi i concetti che usiamo abitualmente.
Ha senso usare il concetto di sapere in riferimento ad una intelligenza artificiale?
Dopo questo video sto portando avanti una discussione con Riccardo Manzotti, che è un filosofo e un esperto di intelligenza artificiale. Manzotti sostiene che la parola "sapere" abbia due diversi significati. Uno è del tutto estraneo all'intelligenza artificiale, l'altro gli è perfettamente proprio.
@@RobertoMercadini Secondo o me ti stai attorcigliando nelle parole: se è intelligenza (artificiale o naturale non importa) allora è in grado di sapere. Perchè anche se non abbiamo una buona definizione di intelligenza siamo ben d'accordo che un'intelligeza sa. Quelle che chattano, dipingono e camminano non sono intelligenze, altrimenti anche il fiume e la foresta e i pianeti sarebbero intelligenze.
Prova anche gemini che dovrebbe essere più aggiornato sul web... Poi sbaglia....anche lui ha ha (lui lei)😂
Grazie Roberto!Concordo !Siamo soggetti AI un oggetto
Ho chiesto "Chi è Roberto Mercadini" a Gpt 3.5 e non ha saputo rispondere, ho chiesto la stessa cosa a gpt 4 e mi ha risposto questo:
Roberto Mercadini è un poeta, scrittore e performer italiano, noto per il suo approccio unico alla divulgazione di letteratura, storia e filosofia attraverso monologhi e spettacoli che mescolano l'intrattenimento alla cultura. La sua capacità di rendere accessibili temi complessi a un vasto pubblico lo ha reso una figura popolare in Italia, specialmente tra chi è interessato a esplorare questi argomenti in modi non convenzionali. Mercadini utilizza diversi media per le sue esibizioni, inclusi libri, video e spettacoli dal vivo, e ha guadagnato un seguito significativo per il suo stile narrativo coinvolgente e la sua capacità di connettersi con il pubblico su vari argomenti intellettuali.
Ciao Roberto posso portarti la mia esperienza da studente universitsrio. Ho dovuto dare un esame di chimica e uno di informatica e alle superiori non ho fatto nessuna delle due materie. Le slides di entrembi i corsi erano scarse e non permettevano di capire a fondo la teoria e lo svolgimento degli esercizi. Mi sono affidato a chatgpt su diversi esercizi e su informatica è stato spettacolare. Ti crea il codice e se non capisci una parte gliela chiedi e te la spiega. Uguale chimica. Ovviamente non sa fare calcoli ma è un ottimo strumento per capire i processi.
È una tecnologia ai primi stadi (quella chd possiamo usare noi masse) ma non mi stupirei se nel giro di poco tempo sara in grado di fare cose ad oggi infattibili
Interessante! Io lo uso spesso per studiare la chimica, ma ricontrollo sempre perché spesso dà risposte che non sono attendibili.
Tu usi la versione gratuita del sito ChatGPT? Oppure la versione integrata in Bing? O altro?
Ho utilizzato entrambe ma mi sono trovato meglio con chatgpt (la versione gratuita). Certe volte bisogna incalzarlo un po e per farsi dire quello che si vuole, a volte, bisogna "ragionare" insieme a lui. Può sembrare assurdo detto così però rispondendo mettendo in dubbio le sue risposte può portare esiti positivi. Ovviamente non è onnisciente (come hai visto anche tu) ma per il livello di chimica che mi serviva è stato molto utile.
Spero possa essere utile anche a te anche e possa rispondere a quesiti più difficili dei miei!!!
@@filippo6401 Utilissimo. Grazie! 🙂
Roberto sei magico 🎉💖🤗
Ho guardato il video con molto interesse, innanzitutto complimenti per il lavoro e per il non fermarti mai di pensare e confrontare le cose, ma mi permetto di evidenziare alcune cose che secondo me sono da prendere in considerazione, quando parliamo di chatgpt parliamo di una macchina, si, ma anche di una rivoluzione di calcolo e generazione, detto questo, la differenza tra noi e chatgpt non è tanta, poiché anche noi fin dal funzionamento dei sensi calcoliamo e generiamo e pertanto sbagliamo. Quando parliamo di esperienza la cosa diventa ancora più interessante, poiché anche chatgpt si muove sull'esperienza, attualmente solo di lettura ma molto probabilmente in futuro anche visiva, quindi in conclusione posso afferma che ci troviamo davanti a un calcolatore in grado di poter fare le stesse considerazioni ed esperienze molto vicine alle nostre😊
Hai raccontato esattamente quello che penso facendolo ovviamente mille volte meglio di come l'avrei potuto fare io! Mercadini davvero un intelligenza straordinaria.
Mi fai scassare dal ridere ❤In più porti cultura e informazione. Non so che dirti dio ti benedica Roberto! ❤😂
Credo sia la più bella descrizione del principio della stanza cinese. Primo tentativo speculativo di superare il concetto di macchina di Turing.
" _la segretaria quasi privata_ (se cercate il film col titolo originale _the desk set_ non lo trovate) : è del 1957 e c è katherine hepburn che impersona molti di noi : guardatevi "
Ciao argomento molto interessante è la prima volta che ti vedo. AI non ha esperienza ma ha in memoria tutto lo scibile umano di scritture di chi le ha avute......e la capacità di interpolarle migliorando forse all'infinito. L'umano deve decidere eticamente cosa vuole farne. Grazie per Pedretti non lo conoscevo
Grazie anche per avermi fatto scoprire dell’ottima musica 😊
Grande Robe'. Mi piace questo filosofeggiare
Chat gpt pero non è un motore di ricerca.. bisogna contestualizzare
Una delle prime volte che non concordo con la sua visione delle cose, ma ci sta, sono argomenti davvero particolari che sfociano nel concetto stesso di coscienza.
A tal proposito le consiglio assolutamente la lettura di Gödel, Escher, Bach di Douglass Hofstadter, uno dei pezzi più grossi nel campo dell'informazione.
È un libro bello tosto, ma senza esagerare mi ha cambiato la vita (grazie a certi insight), spero che un giorno ne farà un video.
Il meccanismo che hai notato avvenire in chatgpt è conosciuto nel mondo dell'informatica. Si chiama tecnicamente "allucinazione" ed ha molteplici cause tecniche. In parte può essere dovuto ai dati usati dall'ia, in altri casi al fatto che il modello generativo prioritizza la creazione di una risposta coerente e che "suoni" sensata piuttosto che la correttezza delle informazioni stesse; inoltre ia come chatgpt usano la storia delle comunicazioni precedenti con altri utenti per apprendere e questo può ulteriormente causare allucinazioni.
Però questo non significa che un'ia non può sapere la differenza tra realtà ed invenzione. Perché comunque parte da dati. Un algoritmo per consigliare musica, come quello di Spotify che citi, può effettivamente basarsi solo sugli ascolti degli utenti (a te piace x e piace y, quindi a chiunque ascolta x l'algoritmo consiglia anche y) ma con un modello più elaborato potrebbe tranquillamente interpretare la musica stessa per dare consigli specifici. D'altronde la musica è un linguaggio codificato fatto di note, toni, ritmi ed elementi chiaramenti codificati. Quindi se l'ia avesse a disposizione nel suo modello la capacità di interpretare e paragonare questi elementi non sarebbe così diversa da un ragionamento umano che dice "questi due gruppi suonano simili quindi te li consiglio assieme".
Veramente interessante il tuo punto di vista... non ci avevo mai pensato
Il problema nascerà nel momento in cui gli algoritmi saranno talmente presenti nella nostra quotidianità da plasmare le nostre menti e condizionare i nostri processi di apprendimento sin dalla giovane età; quando questo accadrà i valori in campo cambieranno. Umani e IA diventeranno interdipendenti, mescolandosi e snaturandosi a vicenda da essere quasi indistinguibili l'uno dall'altro. Forse un po' distopico come orizzonte, ma io ci credo seriamente.
Parlane da Geppi 🎉🎉🎉 "Splendida Cornice" RAI 3, giovedì ore 21.30, bravissimo !!!
Hai scatenato tanti trigger nei transumanisti vedo XD Grazie Merca, mai come in questo periodo abbiamo di parole come le tue per elevarci dallo stato uomo-macchina in cui ci vogliono relegare.
È proprio così, per chat gpt non c'è differenza tra sapere ed inventare, chat gpt genera testo, punto. Solo in alcuni casi si rende conto di non avere sufficienti dati sull'argomento per rispondere. Ecco, se io fossi nei panni degli sviluppatori, per aumentare l'illusione, migliorerei questo aspetto, cioè aumenterei la consapevolezza di ciò che non sa.
Sei geniale!!!😂😂😂😂😂 Ciao di España!
Come sempre un contributo davvero importante ed interessantissimo...
Sei un grande!
Ciao, è confortante vedere che il motivo dello stupore e del titolo acchiappa click sia dovuto a comportamenti noti e sicuramente residuali nelle iterazioni che veranno nel tempo. Ogni strumento ha i propri limiti, saperlo usare a maniera è ancora ambito umano. Per i dati anagrafici, se quella è cultura, c'è sempre wikipedia.
Per il resto, uso professionalmente LLM in ambito di programmazione e aiutano molto quando si conosce l'argomento e serve un spunto o semplicemente un aiuto rapido. A volte mi guida nel concretizzare cosa realmente sto cercando.
Un saluto
Sì, ma il senso del video è un interrogativo filosofico. Cosa significa davvero sapere? Ha senso applicare questo concetto all'intelligenza artificiale?
Ne sto discutendo in privato con un filosofo che è anche un ingegnere e si occupa con competenza dell'intelligenza artificiale. Si chiama Riccardo Manzotti.
@@RobertoMercadini grazie per la risposta, speriamo sia condiviso il frutto del vostro confronto. Lo spunto che vorrei mestamente passarvi è il seguente - se al posto che chiedersi cosa significa sapere usando l'intelligenza artificiale (che sarà per definizione al di sotto delle aspettitive fino a quando non sarà infinitamente meglio), proviamo a porci la stessa domanda usando gli umani. Se interroghi persone con disabilità cognitive che risposte ottieni? Sanno? Se interroghi il tuo amico fregnacciaro che piuttosto che fare scena muta si inventa di aver scoperto l'America, lui sa? Coscienza, sapienza...Sono concetti emergenti e sfuamati, con un gradiente. L'intelligenza artifiale è solo la versione in evoluzione e senza corpo di questi fenomeni.
Il punto è che i mass media, i commentatori e i promoter di questi strumenti li vendono per ciò che non sono. Non vi è nulla di intelligente e nulla di miracoloso. A oggi per riprodurre le capacità del cervello di un moscerino della frutta serve una stanza intera piena di microprocessori e kW di energia elettrica. In conclusione siamo di fronte alla bufala del secolo dopo la bolla di internet.
Hai pensato che forse ChatGPT ha qualcosa contro i poeti romagnoli?
Credo valga la pena di provare con poeti di altre regioni, magari del Trentino.
Uno dei tuoi video migliori
Uso Photoshop con ai da qlch mese ed ho notato stessa cosa, da una parte ti lascia allibito nella ricostruzione di parti mancanti di foto, altre volte sembra non capire davvero nulla di cosa vuoi, nonostante montagne di istruzioni
Funzione interpolate
Per Spotify la scelta dei brani suppongo sia basata sui metadata, i quali descrivono i generi musicali non solo per stile, ma anche per caratteristiche del tipo "esoterico", "magico", "nostalgico", "romantico", "oscuro" e tante altre sottocategorie su cui i motori di ricerca musicali si basano oggigiorno. Il genere musicale è stato sostituito da una sorta di caratteristica emotiva che il brano trasmette. È un linguaggio che si è adattato alle parole usate dagli utenti quando cercano una determinata musica anziché uno specifico artista. L'algoritmo è quindi basato sull'esperienza acquisita dal linguaggio popolare nel mondo virtuale
Un modo per valutare la qualità di alcuni modelli come gli autoencoders è proprio il fatto che dato un classificatore che riconosce se le immagini sono vere o artifatte le deve confondere! (Riferito alla parte che riguarda Spotify) (Anche io l'ho trovato assurdo ahaha) comunque bellissimo video! Sono sempre molto stimolanti!
Quella dell'okapi mi ha fatto venire in mente il "sarchiapone" di una spassosissima, famosa scenetta degli anni '60 di Valter Chiari: la conosci? Chi se la ricorda? Davanti a un ipotetico animale (il sarchiapone, appunto) che non conosce, Valter Chiari ne inventa le caratteristiche più strane pur di non ammettere che non conosce quell'animale (che poi alla fine si rivela... non esistere!)
Se ti fa piacere Roberto, ho affrontato la stessa tematica usando come metro di paragone Astro Boy (Mighty atom) opera del maestro tezuka uscita negli anni 50’ ❤
Dear Roberto. It is good that you are broadcasting this insight to your large audience. People have little idea of the extent to which they are being sold fictions which they take to be truths. This became obvious to me already in March 2023 because of my deep knowledge of a specific area of interest (Rudolf Steiner). I had tried to use this tool to ask questions and 9 times out of 10 (approx) it invented what has come to be called "a hallucination".
Ciao Roberto, video interessante come sempre.
Hai intuito molto bene il modo "di pensare" di un modello generativo.
Principalmente le limitazioni sono 2:
I modelli attuali non hanno problemi nel cogliere la sintassi dagli input grezzi. E la sintassi dipende dal medium; infatti abbiamo già modelli multimodali.
Dopo la sintassi, però, tocca alla semantica, e questa dipende dal contesto, che i modelli sanno gestire con il cosiddetto "attention mechanism" e dai pragmatics, "le intenzioni" che chi veicola un messaggio ha, e per far questo serve un meccanismo di ragionamento.
Al momento alcuni stanno studiando proprio questi "modelli causali" (a riguardo ti suggerisco l' accessibile e stupendo "book of why" di Judea Pearl).
I modelli causali cercano di creare, sul modello statistico, un modello causale che spieghi le relazioni di causa-effetto, permettendo i due step di induzione e deduzione.
Modelli simili possono quindi anche fare le "controfattuali", ovvero porsi le what if question ed ipotizzare "mondi ipotetici (e.g. cosa sarebbe successo se quella cosa fosse andata diversamente?).
Siamo lontani dall'applicare ciò su modelli complessi come un gpt ma questa è la prima delle mancanze.
La seconda è il fatto che sia stateless, non ha memoria: sembra che ne abbia una perché gli viene passato in input anche tutto ciò che gli hai chiesto prima nella chat ma in realtà non ha una memoria; per questa ragione ti sentivi a pelle piuttosto restio a dire che ne avesse una; hai fondamentalmente ragione.
I modelli attuali possono solo apprendere pattern, quindi il vero divario sta "nelle sfumature dell' intelligenza" che manifesta, secondo la mia modesta opinione.
Ci tenevo a darti i miei 2 cent, da prendere con le pinze ma che spero possano darti spunti interessanti