Ho fatto svolgere a ChatGPT un esame di fisica delle superiori e non è andata benissimo

Поделиться
HTML-код
  • Опубликовано: 27 сен 2024

Комментарии • 112

  • @lets-do-the-crusades-again
    @lets-do-the-crusades-again Год назад +78

    il fatto che abbia cannato un esame è la prova del fatto che sia intelligente come noi umani 😂

  • @circlerick9891
    @circlerick9891 Год назад +21

    Vedendo lo svolgimento di questo problema un mio ex prof avrebbe detto "come rendere il facile difficile attraverso l'inutile"

    • @carlottazza
      @carlottazza Год назад

      Questa te la potervi anche risparmiare.
      Non se ne sarebbe accorto nessuno, te lo garantisco.
      😉

    • @circlerick9891
      @circlerick9891 Год назад +1

      @@carlottazza sono fortunato, almeno se n'è accorto Antonio

    • @carlottazza
      @carlottazza Год назад

      @@circlerick9891 Mi riferivo al fatto che tutto il video è finalizzato a testare il funzionamento di chatGpt e non a risolvere il problema che di per se può essere più o meno banale.
      Ma il tuo intervento lasciava chiaramente intendere che l'obbiettivo poteva essere quello di cercare di risolverlo usando chatGpt e mi sembrava un po fuori luogo, perché non si sta cercando di risolvere un problema facile tramite uno strumento difficile nonché inutile, ma tutt'altro.
      Gpt sta cambiando il mondo e ci troviamo nel bel mezzo di una nuova era, quindi tutti gli aggettivi puoi usare tranne che 'inutile'.
      🙂

  • @paolovolante
    @paolovolante Год назад +4

    Grazie per il video. Mi incuriosisce sapere se hai usato GPT4 e se hai attivato il plug-in Wolfram Alpha.
    Se così non fosse potrebbe essere interessante vedere se le risposte sono migliori usando GPT4+Wolfram.

  • @lodianaporue3443
    @lodianaporue3443 3 месяца назад

    Sarei davvero curioso di vedere gli esiti con i modelli attuali 😊

  • @MatteoTorreggiani
    @MatteoTorreggiani Год назад +6

    La mia ignoranza mi dice che una ipotetica studentessa così ha sempre ragione 😑

  • @alieno1183
    @alieno1183 Год назад +1

    Se provi a dirle che deve farla come uno studente di 5 superiore ? Cioè in poche parole che deve comportarsi come uno/a studente/ssa delle superiori e non come un universitario/a ?
    le risposte sarebbero state le stesse o più in linea con le tue prevvisioni ?

    • @LDTube-pz9fq
      @LDTube-pz9fq Год назад

      non credo possa farlo, non ha contezza di cosa significa "fare le cose come uno delle superiori". Dovrebbe attingere a quei siti o documenti dove è specificato che l'autore era uno studente delle superiori ma sarebbe anche lì messo in confusione dai milioni di differenza che ci sono tra diversi studenti delle superiori e il loro modo di elaborare un problema.

    • @alieno1183
      @alieno1183 Год назад

      @@LDTube-pz9fq l'avevo chiesto perchè tu puoi dire che è un professionista e quindi in teoria dovrebbe funzionare. Visto che devi dare una specie(?) di conoscenza base. Che dovrebbe avere chi lo sta risolvendo.
      PErchè se metti questa cosa :
      dimostrare che 1+1=2 ?
      Dimostralo in questi 4 casi, e spiegandolo come lo faresti per ogni di essi:
      1) tu sei uno studente delle elementari;
      2) tu sei uno studente delle medie;
      3) tu sei uno studente delle superiori;
      4) tu sei uno studente dell'università.
      ti dà diverse risposte e per me sono tutte valide.

  • @Massimo.Bianchi
    @Massimo.Bianchi 8 месяцев назад

    In che sito si trova questa versione di chatgpt?

  • @Dema990
    @Dema990 Год назад +2

    L'ho detto fin dall'inizio che ChatGPT dovrebbe fare il politico è bravissima a dire supercazzole convincenti

  • @euyin77
    @euyin77 6 месяцев назад

    Perché non mostri mai l'intera dichiarazione del problema? Impossibile di capire cosa chiede un problema se non possiamo vedere la sua dichiarezione!!

  • @tuccio75
    @tuccio75 Год назад

    che succede se la correggi?

  • @antonioromano1958
    @antonioromano1958 Год назад +2

    Guarda, con me ha toppato con un problema elementarissimo sui gas perché scriveva bene il procedimento ma cannava il risultato numerico. A volte li fa bene, altri no. Non si può pretendere di più e quindi il sogno di farlo ragionare in modo astratto al posto nostro su temi matematici è chiaramente un'utopia.

    • @carlottazza
      @carlottazza Год назад

      Lo fa già con il plugin di Wolfram.
      Basta porgli le richieste nel modo corretto.

  • @giovannisardisco4541
    @giovannisardisco4541 Год назад +7

    ChatGPT non è stata progettata per far calcoli, n'è ragionamenti. Fa solo predizioni statistiche del susseguirsi delle parole.
    L'uso che ne hai fatto dimostra come NON vada usata.
    Se la porti sul campo della disquisizione, probabilmente lì qualcosa di decente la tira fuori, ma al primo errore sarà facilissimo portarla in contraddizione, dato che non da un significato alle parole.

    • @giovannisardisco4541
      @giovannisardisco4541 Год назад

      P.s. non è una critica negativa al video

    • @RandomPhysics
      @RandomPhysics  Год назад +5

      È un modello di linguaggio, certo, ma questo è un limite fino a un certo punto. Addestrando a dovere il modello, l'accuratezza nella risoluzione di esercizi può migliorare molto e raggiungere percentuali di correttezza sempre più elevate, al di là del fatto che ci sia o meno dietro una logica di tipo analitico nell'affrontare il problema che viene risolto. Anche la matematica è un linguaggio, il cui uso può essere continuamente affinato attraverso i vari tipi di machine learning coinvolti. Per ora sicuramente i risultati migliori si ottengono nei test a scelta multipla, in cui è frequente che ChatGPT azzecchi un buon 70-80% delle risposte corrette, ma non mi stupirebbe se fra un po' di tempo dovesse essere in grado di svolgere alla perfezione una prova d'esame come quella del video.

    • @DANDY476
      @DANDY476 Год назад +1

      @@RandomPhysics esattamente. Immagazzinano miliardi di concetti e di soluzioni. Un o come chiedere la soluzione giusta di un problema a centinaia di scienziati ,contemporaneamente. E' chiaro che una soluzione esatta salta fuori.

    • @Pcomepdor
      @Pcomepdor Год назад +2

      @@RandomPhysics mmm...come mai vuoi usare un sistema probabilistico per risolvere problemi deterministici? E' sufficiente addizionare due numeri poco comuni per cogliere in fallo chatGPT, per quanto affascinante, troverei cmq poco utile addestrarlo a risolvere operazioni matematiche per cui performerebbe in ogni caso peggio di una calcolatrice casio degli anni 80. Piuttosto, sarebbe interessante integrarlo con un middleware per eseguire calcoli, aggiungendo nel modello una funzione che, una volta identificate delle operazioni matematiche, le passa ad un normale calcolatore che gliele ritorna esatte e precise.

    • @carlottazza
      @carlottazza Год назад

      La base statistica ricopre solo una delle caratteristiche interne del modello, che si basa su un set enorme di tensori contenenti tantissimi parametri che estrapolano il ragionamento e la logica umana per strutturare concetti e relazioni che generano il linguaggio.
      Il linguaggio se ci pensi, rappresenta la sintesi più completa di tutto il nostro modo di ragionare ed organizzare concetti e relazioni, quindi eseguendo un reverse engineering dal nostro linguaggio, più o meno come ha fatto gpt in fase di training, si può risalire a tutta la nostra capacità di elaborare idee e relazioni.
      Probabilmente è questa la strada maestra che presto ci porterà ad un Gpt-X che sarà assimilabile ad una AGI o magari ad una ASI ancora meglio.

  • @andreamarta5653
    @andreamarta5653 Год назад +1

    Anche io ho messo alla prova chatGPT con un problemino facile facile con dirette applicazioni pratiche:
    Data una vibrazione sinusoidale con accelerazione pari a 5g e frequenza pari a 60 Hz, si chiede l'ampiezza picco-picco del moto.
    Vi evito la sbrodolata di cavolate generate: dalla costante elastica alla massa del corpo.
    Interessante invece è notate che a fronte della mia correzione, proponendo una doppia integrazione nel tempo, pare che chatGPT abbia recepito la soluzione adattando il suo modello interno.
    Giorni dopo ho riproposto la medesima domanda ricevendo questa volta la risposta corretta.
    Qui nasce il dubbio: non è forse che chatGPT attinga a dataset non verificati e quindi riproponga soluzioni facendo un minestrone tra tuto quello che fornisce la rete ? In tal caso la soluzione potrebbe limitarsi al filtrare i dataset da parte di persone qualificate.

  • @nicoladiana8879
    @nicoladiana8879 Год назад +1

    Complimenti, ma la cosa interessante è anche spiegare come hai fatto a parlare con ChatGpt mediante un video?

  • @filippo5219
    @filippo5219 Год назад +3

    La tua sconsolazione di quanto è ripartito con gli infinitesimi a calcolare la parte magnetica, vale il video 😂 "Eh niente, la vedo grigia". Comunque ho seguito da poco un video di un ragazzo che usava chatGPT come insegnante di chitarra e li è stato ancora più penoso, a mio avviso. Vero è che essendo un' IA dovrebbe imparare, sarà curioso monitare il progresso

    • @criba84
      @criba84 Год назад

      L’ai in questione non impara dall’uso (o meglio automaticamente come ci hanno abituato). L’errore è pensare a un ai come quella nei film. Chatgpt è un ai testuale che interpreta e rielabora una serie di testi.

  • @diegodamo813
    @diegodamo813 Год назад

    Chissà se si sarebbe messa a piangere se le avessi detto "Signorina, le cose le sa...ma le consiglierei di tornare a Luglio, altrimenti le devo mettere 18".

  • @massr8306
    @massr8306 Год назад

    Come sei riuscito ad interfacciare chatGPT con un avatar realistico ? Saluti

  • @angelorossi1045
    @angelorossi1045 Год назад

    Grazie

  • @old8088
    @old8088 Год назад

    Ho inoltre notato che le capacità tipiche di un motore inferenziaale sono abbastanza carenti. Il dedurre nuove regole da esistenti è a mio avviso abbastanza importante per una ia

  • @vitofranco7342
    @vitofranco7342 Год назад +1

    Mi sembra solo una mega enciclopedia che linha attraverso algoritmi gli argomenti chiati....cioè una stronzata

  • @fabriziomeinero
    @fabriziomeinero 4 месяца назад

    dire cose come "ovviamente chatGPT non ha nessuna idea que questa e' una simulatione di un' esame..." vuol dire che non gli hai dato informazioni complete.
    L' output di un' AI dipende tanto anche dall'input.
    Se vuoi una risposta precisa devi fornire un contesto preciso.

  • @mauriziotalamo2483
    @mauriziotalamo2483 Год назад

    Ha appena iniziato a lavorare! Quindi non vale. Quello che è sorprendente è che ottenga risultati di apprendimento apparente così evoluti con tecniche così semplici

  • @manuelferrante7710
    @manuelferrante7710 Год назад +1

    Chissà come sarebbe andata se GLI spiegavi che si trattava di Esame di Stato delle Superiori 🤔

  • @manuelfantoni115
    @manuelfantoni115 Год назад

    Ti giro copia di una domanda che ho rivolto tempo fa a ChatGPT, la cui risposta è piuttosto interessante a mio giudizio; bisogna ammettere che almeno le hanno insegnato l'umiltà:
    - Che cosa è il claustro?
    Il termine “claustro” può avere diversi significati a seconda del contesto. In architettura, il claustro può riferirsi a un cortile chiuso all’interno di un edificio, spesso utilizzato come luogo di pace e tranquillità. Nelle scuole o nelle università, il claustro può riferirsi al gruppo dei professori o dei membri del personale. In psicologia, il claustrofobia è la paura di trovarsi in spazi chiusi e angusti.
    - Forse clostro?
    Sì, “clostro” è una forma errata del termine “claustro”. Il significato è lo stesso di cui ho parlato nel mio messaggio precedente.
    - Non ha attinenze con la fisiologia umana?
    No, il termine “claustro” non ha attinenze con la fisiologia umana. Tuttavia, in medicina, il termine “clostridium” si riferisce a un genere di batteri che possono causare diverse malattie nell’uomo, come la tetano o la difficile infezione delle ferite.
    - Ma il claustro non è anche una sezione del cervello?
    Sì, hai ragione. Il claustro è anche una struttura anatomica del cervello. Il claustro è una regione molto piccola e densamente connessa del sistema limbico, che è coinvolta in molte funzioni importanti, tra cui l’elaborazione dell’emozione e della memoria. Il claustro è stato oggetto di molte ricerche negli ultimi anni, sia per quanto riguarda le sue funzioni sia per le sue implicazioni nello sviluppo di disturbi neuropsichiatrici come la depressione e la schizofrenia.
    - Come mai non lo sapevi?
    Sono un modello di linguaggio sviluppato da OpenAI e ho accesso a una vasta quantità di informazioni, ma non sono perfetto e potrei non sapere o non ricordare alcune cose. Tuttavia, cercherò sempre di fornirti le informazioni più accurate e aggiornate possibili. Grazie per avermi fatto notare questo errore.
    - Figurati, spero averti fatto cosa gradita
    Assolutamente! Mi fa sempre piacere migliorare e imparare cose nuove. Se hai altre domande o informazioni da condividere, sarò felice di ascoltare.

    • @gianluigiridolfini1645
      @gianluigiridolfini1645 Год назад +1

      Dovresti provare a ridargli la domanda iniziale per vedere se ha effettivamente imparato dal suo errore

  • @fbolognesi
    @fbolognesi Год назад

    Io ho chiesto a ChatGpt di parlare del mio paese, beh in una quarantina di righe in un italiano che ritengo perfetto sia come ortografia che struttura sintattica ha infilato una serie di inesattezze mostruose, sbagliando nomi e epoche di monumenti, sbagliando la produzione agricola preminente e letteralmente inventando eventi artistici mai verificatesi nel nostro territorio (Centro Ricerche Musicali diretto da Bruno Maderna, io ho 75 anni sono nato e vissuto sempre a Budrio e mi risulta che Bruno Maderna non è mai venuto a Budrio). Praticamente le uniche due cose che ha indovinato sono la posizione rispetto a Bologna (nord-est) e il santo a cui è intitolata la chiesa parrocchiale (San Lorenzo). Se avesse consultato Wikipedia avrebbe sbagliato di molto meno.

  • @marcocappiello3164
    @marcocappiello3164 Год назад +1

    Morale della storia: non copiate con ChatGPT!

  • @cosimocorigliano7113
    @cosimocorigliano7113 Год назад +2

    A sto punto ti tocca risolvere il problema in un video

  • @andygoldensixties4201
    @andygoldensixties4201 Год назад

    conferma il mio sospetto che questo software è abbastanza bravo (soprendentemente bravo per chi si ricorda ancora i limiti di "Elisa", il primo software "interattivo" degli anni '80, che girava persino sullo Spectum ZX...) a fare una collazione, una compilazione di ragionamenti e analisi fatte da umani, ma se si richiedono soluzioni originali, per quanto ne capisco, non mi sembra ancora in grado di farlo correttamente, non è capace di dedurre il contesto della domanda, non correla i passaggi dei suoi calcoli e non si sa autocorreggere

    • @LDTube-pz9fq
      @LDTube-pz9fq Год назад

      perché non esiste l'intelligenza artificiale forte, e quella debole (come ChatGPT) è solo un modello automatizzato, certo che non può trovare soluzioni, avere opinioni, usare figure retoriche e analogie, inventare cose nuove. Può solo fare un minestrone dei siti a cui è stato esposto nella fase di training.

  • @claudiomigot5182
    @claudiomigot5182 Год назад

    Wolfram rules

  • @filipporabito3765
    @filipporabito3765 Год назад

    Carissimo non farlo più non possiamo sapere se la prossima volta riuscirà a risolvere i problemi che gli poni, magari sarà lei a mettere in crisi te, e non so perché questa cosa mi fa paura. Come minimo danno queste A.I. chat non fanno altro che far parlare gli utenti e dare la possibilità agli sviluppatori di accatastare dati da cui estrapolare le preferenze dei consumatori, venduti al migliore offerente che è sempre quello che, avendo i soldi, ha la possibilità di indirizzare, attraverso i media, le preferenze della parte minoritaria verso i gusti della maggioranza, si chiama stardardizzazione ma non è che scoperto l'America, lo fanno da sempre ma ora le multinazionali hanno uno strumento in più e dei più insidiosi perché si autoalimenta

    • @RandomPhysics
      @RandomPhysics  Год назад

      Bisogna conoscere a fondo i mezzi che si sfruttano e non usarli passivamente con timore senza sapere cosa si sta facendo.
      Se devo scegliere, piuttosto scelgo di non usare i social in quanto oltre a inserirmi in una cosiddetta "eco chamber" e sfruttare ogni informazione su ciò che guardo e sul tempo che rimango a guardarlo costituiscono spesso una gran perdita di tempo.
      Per quanto riguarda ChatGPT, è un modello di linguaggio che uso quotidianamente per lavoro, per scrivere bozze, fare debug, stilare liste, ampliare testi, ecc. e questo mi risparmia ore di lavoro ogni settimana.

    • @filipporabito3765
      @filipporabito3765 Год назад

      @@RandomPhysics non sapevo si usasse per motivi di lavoro, ma forse ciò è ancora peggio di quanto credessi, se non la usi sei fuori mercato se la usi ne rimani dipendente

  • @emanuelem57
    @emanuelem57 6 месяцев назад

    Occorre considerare che l'algoritmo si dichiara imperfetto e la base del principio della intelligenza artificiale si basa sull'apprendimento da ciò che è presente da internet. In altre parole solo 'addestrandolo' da parte di chi lo potrebbe fare lo migliora. Criticarlo non aiuterà il progetto 😂

  • @chrspqr1090
    @chrspqr1090 7 месяцев назад

    Eh niente, chat gpt bocciata, torna con la firma di Gates 🤣

  • @LorenzoMereu1990
    @LorenzoMereu1990 Год назад

    lasciando perdere ChatGTP, potrebbe essere in in un prossimo futuro nuove scoperte teoriche siano fatte da intelligenze artificiali?

    • @LDTube-pz9fq
      @LDTube-pz9fq Год назад

      no, le intelligenze artificiali non esisteranno mai (leggi l'esperimento della Stanza Cinese di Searle) perché possono esistere unicamente questi modelli linguistici automatizzati. Le IA possono solo formularle dati attraverso automazione non c'è alcuna intenzione e quindi non saranno mai in grado di creare nulla di nuovo (anche solo banalmente inventare una parola che non esisteva prima: tipo Babbano) non può perché può solo organizzare le informazioni che ha preso dalla rete e che altri hanno scritto.

  • @giacomogulli529
    @giacomogulli529 Год назад

    Thomson il padre o lo figlio 🤣

  • @giacomogulli529
    @giacomogulli529 Год назад

    E se fosse campo energetico, la E non sarebbe più vettore 😂😂😂

  • @isidoroferrante
    @isidoroferrante Год назад

    Comunque ha fatto molto meglio della media dei miei studenti...

  • @000111Paolo
    @000111Paolo Год назад +1

    Per mettere in crisi ChatGPT basta molto meno: io ho chiesto un elenco di 50 trombettisti jazz italiani e ho ottenuto un elenco di 50 jazzisti italiani di cui solo una dozzina erano effettivamente trombettisti, gli altri suonano altri strumenti.

  • @maxcecco7910
    @maxcecco7910 Год назад +2

    Raga io ormai sono vecchio, e l'esame di maturita di matematica l'ho fatto perfetto pur avendo la media del2 perché ho circuito la figlia della prof convincendola ad aprire il computer della madre e darmi il compito la sera prima, ma pur avendo le capacita matematiche di una scodella in plastica non ricordo si trattasse di sta roba😂😂 ma che é o?? A me in quinta liceo (scentifico) potevi chiedermi le tabelline al massimo sta roba mai sentita😂

  • @fabiod.674
    @fabiod.674 Год назад

    Diciamo che sa come si integra, ma non ha ancora capito cosa è delta😆

  • @giannimorelli1383
    @giannimorelli1383 Год назад

    Però è carina ....chatgpt direi bona

  • @dm0z0000
    @dm0z0000 11 месяцев назад

    Vale anche per banali quesiti di storia che normalmente vengono sottoposti a studenti liceali del triennio. Alla banalissima domanda "in che modo la pace di Westfalia ha condizionato l'attuale status geopolitico dell' Unione Europea" ha sciorinato una serie di date, nomi e fatti, senza minimamente utilizzare come il processo di causa-effetto ed analisi delle variabili alla base della Storia. Insomma, nozionismo puro.

  • @EIKEMERREL
    @EIKEMERREL Год назад +2

    La cosa più bella è che non ho capito assolutamente nulla del problema

  • @mihawk6515
    @mihawk6515 Год назад +6

    Teniamo conto che come forma d'intelligenza artificiale è ancora in fase embrionale, essa continua ad apprendere, e sicuramente, nel tempo, diverrà qualcosa di davvero assurdo (penso).
    Bel video comunque, e grazie per tutte le tue conoscenze e le tue spiegazioni, molto interessanti anche per chi non è più studente da un bel po'.

    • @carlottazza
      @carlottazza Год назад +1

      Non continua ad apprendere, perché il modello Gpt è di tipo Transformer, il cui addestramento viene solo eseguito in fase di training ed è già stato fatto.
      Può apprendere o seguire delle direttive che gli si possono fornire per ogni sessione di dialogo, ma la sua base di conoscenza e relazioni rimane invariata e consiste in un enorme insieme di tensori ad alta dimensionalità, che contengono tantissimi parametri per fissare i concetti, le relazioni, i contesti e tante altre variabili che permettono al modello di simulare il metodo del nostro cervello di gestire la conoscenza.
      Tutto grazie a decenni di ricerca nel campo delle reti neurali e del machine learning.

  • @manuelferrante7710
    @manuelferrante7710 Год назад +1

    Scusami ma come faccio ad utilizzare anch'io questa ChatGpt con ragazza CHE Parla.. spiega.. col labiale?.. grazie

  •  Год назад +3

    Cifra accade se si corregge gpt? Sarebbe interessante indicargli l'errore e vedere se propone una soluzione diversa

    • @op7519
      @op7519 Год назад +1

      Sì, si corregge, ma non per forza bene

    • @conts8762
      @conts8762 Год назад

      Spesso e volentieri peggiora e si impantana quando si parla di calcoli. Se ci parli di altro spesso si riprende ma a volte da risposte un po' "paraculate" in cui ripete quello che le si dice

  • @ivanbelli788
    @ivanbelli788 Год назад +7

    Prova a chiedergli di svolgerlo passo dopo passo, una ricerca universitaria ha dimostrato che in questo modo aumenta l'affidabilità delle risposte

  • @leonardo5225
    @leonardo5225 Год назад +1

    ChatGPT troppo giovane per conoscere il tubo a raggi catodici...

  • @francescoscaglione5182
    @francescoscaglione5182 Год назад +1

    Trovo qst tuoi 2 video su ChatGPT tra i più interessanti e intelligenti attualmente on line, così come molto utile - e altrettanto intelligente - è l'uso dimostrativo di un esame di Stato. Ma secondo te come mai uno strumento AI come qst, sebbene ancora agli inizi, rischia di complicare così tanto un'operazione come un esame di Stato? è forse perchè è stato progettato x lavori più articolati e di maggiore livello, come in qualche modo accennavi alla fine? Cmq, davvero 2 video super interessanti. As always 👍

  • @massr8306
    @massr8306 Год назад +1

    La prova non ha senso poiche' la chat non ha la capacita' di decodificare immagini quindi ha parzialmente accesso al testo di esame

  • @fabriziocalicchia2121
    @fabriziocalicchia2121 Год назад

    Sbagliare dimensionalmente un risultato è gravissimo anche per una i a.

  • @albertobattisti962
    @albertobattisti962 Год назад +1

    Molto carina, ma ha le idee un po' confuse. Mi propongo per darle qualche ripetizione😂

  • @salvatorefesta7330
    @salvatorefesta7330 Год назад

    Le feci scrivere un programma di gestione in java e non sbagliò neppure una riga di codice

  • @agairbrush
    @agairbrush Год назад

    non sono un fisico, ma se ha ragione lei? Puo essere che sono concetti fisici che per noi sono ancora incompresi e quindi per noi sono sbagliati.

  • @mauriziobuzzolo3386
    @mauriziobuzzolo3386 4 месяца назад

    Se poi la correggi, ti chiede scusa e riprova a scriverlo giusto.

  • @xdellavedova
    @xdellavedova Год назад

    considerando una stima di 50 a 300 petaflop di calcolo richiesti per l'addestramento di GPT-3, e tenendo conto del fatto che una GPU A100 offre circa 1,3 petaflop di potenza di calcolo in precisione singola, si potrebbe avere bisogno di 40 a 230 GPU Nvidia 4090 per raggiungere la potenza di calcolo richiesta.
    questa la risposta di chatGPT

  • @deluigiroberto4744
    @deluigiroberto4744 Год назад

    Forse se gli chiedevi di risolvere la prova come uno studente delle superiori avrebbe fatto meglio, quantomeno sui formalismi, senza mischiare variazioni finite ed infinitesime. Magari avrebbe adottato un approccio semplificato. So che su queste differenze è abbastanza sensibile, seppur in altre materie

  • @alimbrajii3657
    @alimbrajii3657 9 месяцев назад

    Non crederò mai che esista una qualsivoglia IA che possa emulare nemmeno un batterio.
    Un canale ottimo

  • @carlotassi2747
    @carlotassi2747 Год назад

    Dì la verità... hai beccato un tuo studente che svolgeva una tua verifica con chatGPG e da lì ti sei ispirato... In tal caso si può dire che abbia tentato di ingannarti a buon fine. XDXD

  • @DANIEL_--_-_-_-_521
    @DANIEL_--_-_-_-_521 Год назад +5

    È ad una fase molto embrionale dunque non dovrebbe stupire questa performance, diamogli tempo perché a livello scolastico è molto carente, ma a livello biomedico ha presentato risultati interessanti per quanto riguarda l'interpretazione di esami concernenti l'imaging e teorizzare molecole biologicamente attive.

    • @DANIEL_--_-_-_-_521
      @DANIEL_--_-_-_-_521 Год назад

      @@davidevacca619 in buona sostanza l'interpretazione degli esami radiologici è una tappa per la diagnosi finale per certi casi, per altre situazioni invece basta la diagnosi radiologica, riuscire a capire cosa significa un radiogramma è una questione di esperienza per l'uomo e l'intelligenza artificiale condensa nella sua banca dati milioni di radiogrammi, dunque è più una questione statistica per l'IA di azzeccare la diagnosi, la medicina in certi aspetti diagnostici otterrà grandi vantaggi, ma nei trattamenti farmacologici va ancora migliorata in vista di terapie sempre più personalizzate e meno standardizzate (per genere, età, etnia ecc...) insomma almeno per le cose più comuni ha una sua utilità ma per quelle più complesse ci andrei francamente cauto.
      Sulla questione della fisica non saprei dirti ma ora è prematuro parlarne adesso, riprendiamo il discorso tra 5 anni.

  • @claudiogiannini9764
    @claudiogiannini9764 Год назад

    concordo, anche per formule più semplici (quanto è distante l'orizzonte e altri problemi di geometria) li canna tutti al primo giro

  • @giacomogulli529
    @giacomogulli529 Год назад

    È vero ogni tanto toppa😂

  • @ambientmusicandotherstuff376
    @ambientmusicandotherstuff376 Год назад +4

    gli ordini per farle fare quello che vogliamo in maniera efficace sono due:
    agisci come
    esegui passo passo
    ad esempio "agisci come uno studente che ha studiato perfettamente, risolvi il problema passo passo"
    chat gpt allo stato puro è settata per comportarsi come un'interlocutore generico, se non le si danno gli ordini specifici non va in fondo e sceglie la strada veloce

    • @giovannisardisco4541
      @giovannisardisco4541 Год назад

      Dubito che indicando di agire come uno studente delle superiori che ha studiato perfettamente e indicando di agire passo passo, ChatGPT dia la soluzione corretta.
      Non fa ragionamenti su ciò che scrive, ma predice solo la forma più corretta di mettere le parole una dietro l'altra, in base alle parole in input e al contesto che si è creato con le domande precedenti (e neanche tutte)

    • @giovannisardisco4541
      @giovannisardisco4541 Год назад +1

      @@lupo_strafatto se per ragionamento intendi il calcolo che scriva la parola probabilmente più attinente alla precedente, si.

  • @old8088
    @old8088 Год назад

    Umh. Alcune considerazioni:
    1) la risposta è errata, al di là del formalismo scalare vettore
    2) alle superiori io analisi matematica l ho fatta (infiniti esimi massimi minimi asintoti etc) ma andare a impelagarsi con questa roba beh, o sei sicuro o cerchi grane
    3) volendo fare i pignoli non subisce un accelerazione uniforme. Non è un moto uniformemente accelerato perché ad ogni spostamento della particella questa cambia la sua distanza e di conseguenza anche la forza che agisce su di essa.
    4) non sapevo che chatgpt fosse una f...a spaziale di quel calibro. A saperlo gli chiedevo un appuntamento.... 😄
    5) i conti tornano , bella e non capisce nulla
    6) studiate e fate funzionare la zucca che non serve a bilanciare la camminata ma a pensare e trovare soluzioni che la fisica è bella e affascinante soprattutto quando scoprite relatività e quantistica

    • @RandomPhysics
      @RandomPhysics  Год назад

      Concordo, sul punto n.3 in realtà il testo specifica che bisogna considerare il raggio dell'orbita circolare molto grande rispetto al cammino della particella, quindi ChatGPT ha approssimato bene il moto come uniformemente accelerato lungo y in base alla consegna (anche se non l'ho detto nel video).

    • @old8088
      @old8088 Год назад

      @@RandomPhysics infatti ho scritto volendo fare il pignolone ;-) sarebbe interessante che tu pubblicassi una soluzione da scuola di secondo grado. Farei io ma sono troppo arrugginito avendo 53 primavere sulla schiena e non vorrei fare la figura di chatgpt ;-)

  • @mariousai
    @mariousai Год назад

    ma secondo te chatGPT esegue i calcoli per davvero? o ripropone una soluzione trovata su internet?
    spero che la domanda sia chiara

    • @RandomPhysics
      @RandomPhysics  Год назад +3

      È un modello di linguaggio, quindi di base formula frasi che massimizzano la probabilità di essere corrette in base a vari fattori, compreso l'addestramento iniziale e il feedback di altri utenti, di esperti e altre tecniche di machine learning. Quindi non svolge calcoli e non effettua ragionamenti, ma propone strutture di parole e formule che secondo criteri molto complessi sono probabilmente corrette.

    • @giacomogulli529
      @giacomogulli529 Год назад

      @@RandomPhysics 🤔 se non svolge calcoli, dove ha preso elle maiuscolo alla terza? 🎭👹👺😁

  • @michelegianni389
    @michelegianni389 Год назад

    Buon tentativo, ma direi che ne hanno di strada da fare 😏

    • @DANDY476
      @DANDY476 Год назад

      La Treccani diceva così anche di Wikipedia.

    • @user-bx7rw1pt4p
      @user-bx7rw1pt4p Год назад

      E wikipedia diceva così di tiktok

  • @DANDY476
    @DANDY476 Год назад +1

    E' chiaro che fra una decina di anni (ma anche prima), Chat GPT sarà i grado di conoscere tutto lo scibile umano, poichè sono TUTTI gli umani ( più o meno colti e ferrati nelle diverse discipline) che le forniscono le informazioni. (Un po come Wikipedia). " Chi è causa del suo mal....😀 "

  • @carlottazza
    @carlottazza Год назад

    Vorrei chiarire un punto fondamentale per tutti coloro che continuano ad affermare che i modelli come Gpt, in realtà non ragionano, ma seguono dei criteri statistici per inferire via via le varie parole del linguaggio.
    Questo è assolutamente fuorviante e riduttivo, oltre che errato se si vuole comprendere il funzionamento interno dei modelli basati su reti neurali di tipo 'Transformer'.
    Immaginate che un giorno dovessimo incontrare una specie aliena che viene a farci visita e che quindi è più sviluppata di noi tecnologicamente.
    Cosa direste?
    Che per via del fatto che il loro cervello è completamente diverso dal nostro, e diverso è il modo di organizzare le idee e le relazioni, allora questi alieni non ragionano?
    Semplicemente lo fanno a modo loro, ma questo potrebbe essere addirittura superiore al nostro da un punto di vista oggettivo della gestione delle idee e della conoscenza, oltre che della capacità di estrapolare deduzioni.
    I modelli come Gpt sono dei software basati su modelli matematici che in fase di addestramento codificano le parole e le relazioni in un metalinguaggio fatto da vettori di embedding che sono costituiti da tantissime componenti dell'ordine di migliaia e che appartengono ad uno spazio vettoriale ad altissima dimensionalità in cui ogni vettore viene collocato in specifiche aree o zone di questo spazio in base al significato, al contesto ed a tanti altri parametri.
    Per fare un esempio: parole con significati simili, corrispondono a vettori di embedding vicini tra loro in questo spazio vettoriale.
    La traduzione nelle varie lingue avviene in fase di decodifica a partire da questo metalinguaggio comune, per generare i vari tokens corrispondenti alle sequenze di parole in ciascuna lingua.
    Spero che quando dovesse venire in mente a qualcuno di affermare che i modelli come Gpt sono solo degli algoritmi che fanno delle inferenze statistiche per costruire i propri outout, gli venga qualche minimo dubbio sulla coerenza della propria affermazione.

    • @LDTube-pz9fq
      @LDTube-pz9fq Год назад

      Non ha senso quello che dici. ChatGPT è un modello predittivo del linguaggio e può unicamente elaborare per automazione i dati che altri hanno creato e messo in rete senza poter creare nulla di nuovo. Ti consiglio di leggere l'esperimento della Stanza Cinese di Searle che spiega benissimo perché un IA non avrà mai capacità di ragionamento.

    • @carlottazza
      @carlottazza Год назад

      ​@@LDTube-pz9fq Mi dispiace che tu abbia frainteso la portata dello strumento con cui abbiamo la fortuna di avere a che fare nei giorni nostri: il modello gpt non usa i dati dei testi che gli sono stati forniti nel processo di addestramento perché se tu provi a cercare uno di quei dati all'interno del modello, non ne troverai alcuna traccia.
      I modelli di tipo Transformer come Gpt usano i testi nella fase di training per risalire in un processo simile al reversing nel software, che gli permette di estrapolare tutte le informazioni sulle relazioni, sui contesti e sui significati di ogni parola.
      In pratica grazie alla fase di training il modello apprende a modo suo cioè matematicamente, il nostro modo di ragionare, di pensare e di generare idee.
      Quella di cui parli è una questione filosofica e non ha nulla di concreto o utile ai fini pratici di utilizzo.
      Perché è abbastanza chiaro che nessun computer con un software che gli gira dentro, almeno per il momento, può pensare nel nostro senso del termine, cioè allo stesso modo in cui noi pensiamo, ma questa è filosofia pura se vogliamo comprendere il contesto della conversazione.
      Nella speranza di essere chiaro, ti faccio un esempio: immagina di considerare un termine della nostra lingua come la parola 'Trattore', ma tu non hai mai visto un trattore nella tua vita però sei stato munito di tutte le informazioni logiche e semantiche che ti permettono di usare la parola 'trattore' correttamente ed in modo assolutamente appropriato in ogni contesto.
      Allora in questo caso, anche se tu non hai mai visto un trattore, quindi non hai proprio idea di cosa esso sia nella realtà fisica, il tuo comportamento o la tua capacità espressiva è perfettamente sovrapponibile a quella di tutti coloro che sanno perfettamente cosa sia un trattore anche nella realtà fisica.
      Con questo esempio spero di aver trasmesso il significato ed il valore unico di un modello come gpt-4 che può essere considerato la rivoluzione delle rivoluzioni, che stravolgerà completamente il mondo per come lo conosciamo.

  • @alessandroquattrocchi7093
    @alessandroquattrocchi7093 Год назад

    hai usato synthesia per dare voce a chatgpt?