Fine anni 70 , ho studiato la CPU 8080 , in adorazione della magnifica tecnologia , messa a disposizione di noi poveri mortali. Agli inizi anni 70 già girava sul F14 Tomcat una CPU a doppio processore parallelo , rimasta classificata per 27 anni...il famoso MP944
Io invece stavo pensando a una cosa , invece di spendere moltissimo adesso per avere NPU integrate nei processori , probabilmente in futuro avremo schede esterne su pci express dedicate solo all' IA un po come prima avevamo la scheda video 2d/3d leggera poi la 3dfx e poi la sound blaster ( sarebbe tipo avere cpu con vga per il 2d , scheda video dedicata per 3D e Audio , e scheda IA accelleratrice )
Ciao. la mia domanda è se con le applicazioni di editing video. Non le più recenti magari ..AI ci aiuta durante editing e poi in fase di rendering.grazie
Ciao, complimenti per la semplicità delle tue spiegazioni. Secondo il tuo parere volendo comprare un portatile intel ultra i7, va bene il 155h o meglio aspettare le 165?
Ferry proprio l'altro giorno ho letto che facebook acquista 350.000 schede video da Nvidia per creare la prima IA Meta, un investimento totale di quasi 15 miliardi di dollari, quindi queste NPU non esistono ancora sul mercato, insomma prima di buttare 15 miliardi in schede video e struttura si spera che per lo meno, tu acquisti il prodotto più prestazionale... Detto questo, la Npu saranno integrate nelle CPU o saranno come le Gpu in schede dedicate esterne? Grazie comunque per l'informazione, non ne sapevo proprio nulla di queste NPU...
Ricordo quando la cpu erano costose esistevano cpu con o senza coprocessore matematico specializzato in calcoli in virgola mobile poi i costi sono scesi ed oggi la mmu è scontato essere integrata. Cera anche una mmu dedicata la paging della memoria ram su disco
Erano i tempi dei 286 , 386 son sistemi DOS se non sbaglio già con il 486 il processore matematico era integrato all'interno. Era con quelle macchine che si imparava ad usare il PC subito e veramente😅 perché non essendoci un sistema Windows ma quasi tutto a Riga di comando si doveva sapere bene cosa fare con una macchina del genere.
@@MsAntares73 Per mantenere i costi esisteva anche il 486 sx, mancante del coprocessore matematico. Comunque il "sogno proibito" era il Wytek! Ah, quanta nostalgia!
Ma a parità di richiesta di supporto su una applicazione da parte dell'AI il risultato può cambiare se cambia l'hardware o sarà sempre uguale? esempio pratico, se chiedo all'ai di ritoccare un'immagine il risultato cambia su due pc con hardware diverso??
Grazie mille sempre!!!! Purtroppo sto sentendo la necessità di prendere un nuovo PC. Mi occupo di grafica e post-produzione fotografica(a livello pesantemente professionale) e non so che fare... Nel senso che aspetterei per i nuovi processori e le nuove GPU, che sicuramente lavoreranno meglio in sinergia con l'AI, ma così si parlerebbe di aspettare un anno(e mezzo,se si vogliono evitare prezzi folli e soluzioni di bug o difetti). Sono proprio crucciato al pensiero. Già ad esempio alcuni programmi Adobe non mi si aggiornano più se non ho l'ultima versione di Windows 10, il ché mi ha obbligato a forzare l'aggiornamento a Windows 11. P.s.: Raccomandazione agli altri utenti: per esperienza personale, non fate aggiornamenti forzati da Windows 10 a 11, non ne vale la pena.
a proposito di esempi reali mi son sempre chiesto se il testare cpu da più di 200euro dopo il 2018 in full hd quindi nel 90% dei casi non in condizioni reali,sia sensato per il consumatore o serva solo per far pubblicità ai varii amd/intel?
Ed invece la risoluzione 1080p è tutt'oggi la res più usata a livello globale. Prima per distacco col 60%. Il 4k ad esempio è sfruttato solo dal 3% dei videogiocatori. Quindi si, i test in 1080p sono necessari, non solo per capire la reale differenza tra le varie architetture cpu ma anche perché la maggior parte di noi gioca ancora a tale risoluzione.
@@alexroot1980 che c'entrano le console? I test mica li fanno per le console che hanno sempre lo stesso hardware. Li fanno per il pc che ha in uscita decine di processori diversi ogni anno.
@@davide1555 intendevo dire che di solito i pc gamer prendono in giro chi ha le consoles (hw inferiori) ma alla fine giocano in 1080p contro i secondi che giocano a 1440p, 1800p, 4k dinamici, 4k reali, ecc.. A seconda del gioco. Un paradosso insomma.
6:55 - Ok, ma questa tua considerazione apre un case scenario non necessariamente come dici tu. Per esempio, l'utente finale vuole maggiore efficienza nella connessione a banda larga, un concetto che già' di per se, non e' mai abbastanza "larga" proprio perché i servizi online si perfezionano e nel farlo richiederanno Mb, Gb, Tb al secondo sempre piu' alti, verso l'incremento piuttosto che la stabilizzazione di pari passo con le tecnologie che producono contenuti. L'AI integrata a livello hardware favorira' secondo me solo sistemi integrati dove non ci sara' bisogno di troppo hardware fisico, locale a casa propria per intenderci ma un qualcosa di remoto, su server, e quindi con la connessione da tramite. In italia noi abbiamo due grossi limiti. Uno e' il protocollo ipv4 (limitato esclusivamente ai 32-bit contro i 128-bit dell'ipv6) e l'altro e' il digital divide delle zone che non coprono la banda larga in maniera uniforme come nei grossi centri abitati. Il tutto e' legato semplicemente alle politiche, o meglio, alle geopolitiche di sviluppo sul territorio. L'italia da chi dipende realmente, effettivamente? Una domanda affatto banale che apre una questione troppo poco affrontata soprattutto nei canali IT che dovrebbero mettere al centro di tutto la pragmaticita' oltre che il progresso conveniente per tutti.
La penso come te, leggendo alcuni articoli online le prime nuove CPU intel avranno una potenza di calcolo per l'AI di 34TOPS (trillion operations per second). Una "vecchia" nvidia 3060 ne ha oltre 100.
Ma in realtà sbagliate entrambi, non intendo essere presuntuoso, ma se con le gpu il calcolo parallelo è molto potente e si raggiungono prestazioni in termini di flops molto alte i calcoli necessari a far funzionare l’IA non sono effettuati in modo efficiente e inoltre appesantiscono il carico sulla GPU che magari sta renderizzando un gioco e allo stesso tempo sta calcolando il ray tracing e l’upscaling contemporaneamente. Per questo ad esempio nvidia introdusse i famosi tensor core, non so se siano npu, però accelerano tutti quei processi che coinvolgono la generazione di pixel per l’upscaling o l’ottimizzazione necessaria per migliorare il rendering raytracing. Un altro esempio di uso npu è il caso del raytracing sull’iPhone in questo caso viene usata per “scaricare” la gpu
@@igbr6211 Giusta critica. Il mio dubbio è proprio quello: qual è la differenza tra i NPU e i tensor core? Un software che sarà scritto interfacciandosi con gli NPU, quanto sarà utilizzabile con i tensor core di una GPU? O rigirando la domanda: gli attuali software che utilizzano la GPU (dai software per la AI ai programmi per le modellazione 3D ecc...) dovranno "aggiungere" anche il supporto per le NPU? Sarà una cosa a livello di driver/api o qualcosa di più complesso? Una 4070 ha la potenza di oltre 450TOPS. La nuova CPU intel avrà inizialmente la potenza di 34TOPS, perché un software dovrebbe preferire quelli della CPU quando la GPU (se presente) ne ha molti di più? Ok mi fermo qui, troppi dubbi 😄
@@az6876 Perché per eseguire un certo tipo di lavoro la NPU risulta più efficiente rispetto alla gpu o cpu...non a caso le unità NPU si stanno diffondendo inizialmente soprattutto in ambito mobile, dove qui avere dei consumi i più bassi possibili è preponderante.
certo che si integrano con la cosiddetta Ai, essendo un software. Come hardware, invece, è completamente tutta un'altra storia il processore quantistico e si basa su concetti completamente differenti dal semplice 1 o 0 che sta alla base delle attuali tecnologie
no, la computazione quantistica si occupa solo e soltanto di una categoria di problemi molto molto specifici, completamente incompatibile con l'architettura tradizionale
Comunque 3dmark non è propriamente un test sintetico nudo e crudo delle prestazioni della gpu perché è comunque una scena pressoché reale nell'ambito dei videogiochi
Infatti, testa un engine real time molto pesante il che stranisce pure perche' la gaming industry e' fatta di costante ottimizzazione per via dell'hardware scalabile per caratteristiche. Negli anni ha solo sviluppato gente fissata con l'overclock.
sarebbe interessante sfruttare una AI di una NTU per gestire l'intelligenza degli NPC non scriptati nei videogiochi, o di aggiungere nuove funzionalità al sistema base di un OS o di implementare l'utilizzo in vari altri software... le idee co sono ma forse le AI sono ancora un po' troppo imprecise per alcuni scopi (per ora(
Saranno i software che utilizzi a farne uso, più che altro, che modello useranno, se online o in locale, dipenderà da cosa il software di turno implementerà.
E mettere una NPU su una scheda PCI ? Anche perché oggi sono online e non in locale, non vedo la necessità di metterlo su ogni CPU prodotta e se parliamo di games li ci staranno già nelle GPU future
Ma nessuno pensa al calcolo parallelo e alternato di due CPU affiancate sulla stessa scheda madre ? I tempi di calcolo matematico a virgola mobile non si dovrebbero tagliare ?
Domanda pratica: gira la voce (non so "se e quanto" attendibile) che il prossimo Win11 24H2 avrà requisiti minimi talmente alti da imporre il passaggio a nuovissime CPU-NPU che Intel starebbe per immettere nel mercato. Significherebbe che chi avesse investito in un sistema con CPU di 13a o 14a generazione si ritroverebbe forzato a cambiare Motherboard e CPU per continuare ad aggiornare Win11. Possibile che Microsoft tagli il cordone alla retrocompatibilità così presto? O è l'ennesimo falso spauracchio?
Ciao vorrei capire ultimamente perché su RUclips si blocca sempre la tastiera si imballa la tastiera non mi fa scrivere commenti ce lo deve deve spegnere si blocca o devo accendere il cellulareForse perché il mio huawei mate 10pro è vecchio con il kirlin 970 primo klip con l'intelligenza artificiale huawei
Domanda da gamer: per un gamer in cerca di una buona potenza di calcolo, sia della CPU che della GPU, l'IA avrà un significato concreto oppure no? Della serie... potrà aiutare CPU e GPU a dialogare meglio in modo, brutalmente, da ottenere più FPS o effetti grafici migliori a minor costo (di potenza hardware)? Grazie.
L'IA (o machine learning ) già oggi viene usata...ad esempio per gestire il DLSS. In futuro pare che tramite l'uso della tecnologia ACE anche gli npc nei videogiochi saranno più "intelligenti" rispetto a quanto accade oggi, dove sostanzialmente sono solo degli elementi passivi dello scenario.
si ma ci chiediamo a che seve? tolti i videogiochi le ia hanno senso se hanno una banca dati, quindi grosse ia online. qui penso serva solo per i nostri dati.oramai ha preso piede l'idea che i vantaggi per loro li dobbiamo pagare noi...perchè avere un costoso sistema centralizzato quando posso preelaborare a livello locale? ma basta...fatemi vedere cosa fa la ia offline.
Tutti quelli che esultano nell'avvento dell'IA, non sanno che si stanno scavando la fossa (inteso in modo lavorativo) con le proprie mani, e wuesto è fantastico!
Nessuno, peró, ci parla del costo dei processori che integreranno questa nuova tecnologia. CPU richieste, peraltro, dal prossimo aggiornamento di Windows 11. Si prevede una escalation generale dei prezzi in stile GPU.
Bellissimi i tuoi video. Complimenti! Solo un suggerimento.. ho notato che a volte la chiami "i-a", altre volte dici "a-i" tutto bene nessun problema tuttavia se ti abituassi a chiamarla SEMPRE "ei-ai" forse sarebbe il modo più giusto e universale, senza sbavature e immediatamente comprensibile in tutto il mondo👍 Se sei d'accordo..
Sicuramente l’NPU avrà un grande impatto ed avrà una grande efficienza a livello “mobile”. Non lo dico io, ma i dati, che non sarà mai nemmeno paragonabile ad una gpu dedicata come potenza di calcolo. Che poi si ragioni, che in una soc sia utilissima, e l’utenza media potrà sfruttarla alla grande su mini pc (pieni di malware) e sui notebook d’accordissimo. Per il resto, lasciamo perdere.
Passaggio da 2D a 3D non significa da bassa risoluzione ad alta risoluzione. L'immagine mostrata è ingannevole. E comunque le immagini 2D sono migliori...
Perdonami Ferry, ma il mio primo commento sul tuo canale è una critica. Premetto che ti seguo da tempo e che trovo i tuoi video sempre molto interessanti. Ma oggi voglio "protestare" perché da qualche tempo vedo che hai deciso di condire i tuoi video con degli artifici grafici che personalmente trovo disturbanti e distraenti. Mi riferisco a quelle quelle piccole e diffuse macchie bianche che simulano un disturbo casuale. Distraggono, disturbano, senza aggiungere alcun contenuto informativo. Ad esempio, il trucchetto di modificare in bianco e nero alcuni momenti ha un senso, perché evidenzia una sorta di retropensiero, un commento sotto voce. Ma i falsi disturbi bianchi non mi significano proprio niente. Discorso del tutto simile per il leggero reticolato di sfondo che si deforma, inutile, fastidioso. Per il resto, dieci e lode, sempre.
Windows 11 24h2 integrerà teoricamente l'utilizzo dell'AI direttamente all'interno del sistema operativo e utilizzera cpu con l'NPU (che saranno presenti nelle prossime cpu Intel). Ma per ora si sa poco...
Trovo i tuoi video interessanti ma purtroppo posso vederli... poco! Perché gli effetti video usati, tutti quei guizzi di immagine e scritte o banner più o meno veloci e improvvisi disturbano molto la fruizione del video e di fatto mi impediscono di guardarli. Il like lo metto, sono video interessanti ma ahimè dopo averne visto uno, sempre che riesca ad arrivare alla fine, passa del tempo prima che possa vederne un altro! Pazienza... Saluti!
@@coprilettodelnapoli5466 Nausea, difficoltà di seguire il filo del discorso in quanto l'attenzione è fortemente disturbata dalle brusche e frequenti sovrapposizioni di scritte, anche animate, mentre guardo uno di questi video, oltre alle frequenti brusche zoomate, costringono l'occhio ad uno sforzo visivo esagerato con frequenti cambiamenti di messa a fuoco e posizione dell'oggetto o soggetto da seguire. Un incubo per me!
@@renatvssantharii4076 è una possibilità percorribile, certo un video "tranquillo" come tanti altri mi coinvolge di più e mi può dare più informazioni in base al format... vedrò, grazie!
Ringrazio per la censura relativa al mio commento che criticava questo video e che voleva segnalava che la analisi della NPU per un pubblico profano è praticamente impossibile e fondamentalmente inutile.
Confermo. Ormai RUclips modera in maniera schizofrenica. Messaggi come quello sopra di gente che si lamenta pensando di esser stato censurato dallo youtuber sono ormai all'ordine del giorno
@@dna2.041 se pensi che gli adulti non giochino e non arrivino a spendere anche svariate migliaia di euro per un pc da utilizzare esclusivamente per gaming ti sbagli. E a parte questo, l’ultimo i3 in circolazione è il 14100F.
@@dna2.041non tutti fanno lo stesso tipo di lavoro, e non è detto che tutti abbiano figli. C'è un sacco di gente che si rilassa giocando un paio d'ore la sera e nei fine settimana.
Ogni volta che sento come stanno cambiando le cpu, mi viene in mente la storia di John Titor. Ma poi, in ambito aziendale, serve???? Centinaia di pc che lavorano o su programma emulato, o su pagina web...collegati solo alla rete aziendale....
bah ... molto marketing ma poca ciccia... lascio ai "early adopters" ... quando diventa economica una NPU poi ci penso... anzi per i gaming forse i primi tempi meglio evitare cpu e gpu "ottimizzate" per l'AI o che usano il marketing dell'AI...
Addirittura la prox versione di Windows avrà dei requisiti per quanto riguarda le prestazioni lato IA...pare che il limite minimo per avere un buon supporto in tal senso sia pari a 40TOps.
La NPU sarà presente solo su processori notebook, (o mini pc)per desktop no, saranno i soliti processori ma sempre più potenti (come è sempre stato) e soprattutto tanta GPU. Nel notebook essendo un dispositivo a batteria, serve una npu, così da essere efficiente ma dare comunque un po' di AI, a differenza dei desktop. Quindi questo discorso è stato un po' troppo generico 😉
per me i benchmark con i punteggi li trovo inutili e fuffa. quelli che prenderei in considerazione sono lato velocità compressione/decompressione, velocità di rendering dei video in vari formati, 1080 60fps 2k-4k ecc. conversione video,come si comportano cpu e gpu lato gaming con vari settaggi,le temperature in varie ambiti di utilizzo ecc. io la penso così.
@@necronegrofilo io parlo lato benchmark,lato IA le trovo utile solo per creazione di immagini o in compiti noiosi come rimuovere i punti morti nei video durante l' editing. E sistemare una foto oppure qualcosa che manualmente richiederebbe precisione e tempo,oppure per vedere se ci sono errori durante la scrittura del codice. Per il resto preferisco avere controllo su quello che faccio.
mi domando la ciccia dove sta..tutto marketing per ora, volto a software più complessi. Finché non ci sarà la singolarità (informatica e software ovviamente..), processori quantistici e/o quelli organici .. stiamo solo a seguire un upgrade di quello che già ci sta, in sostanza.
No, l'AI locale è già realtà puoi tradurre video in locale, generare immagini e parlato a partire da un testo.. tutto sul TUO computer senza appoggiarti al cloud/internet
Fine anni 70 , ho studiato la CPU 8080 , in adorazione della magnifica tecnologia , messa a disposizione di noi poveri mortali.
Agli inizi anni 70 già girava sul F14 Tomcat una CPU a doppio processore parallelo , rimasta classificata per 27 anni...il famoso MP944
Io invece stavo pensando a una cosa , invece di spendere moltissimo adesso per avere NPU integrate nei processori , probabilmente in futuro avremo schede esterne su pci express dedicate solo all' IA un po come prima avevamo la scheda video 2d/3d leggera poi la 3dfx e poi la sound blaster ( sarebbe tipo avere cpu con vga per il 2d , scheda video dedicata per 3D e Audio , e scheda IA accelleratrice )
Fai un video sui processori a fotoni, intel li aveva mostrati in laboratorio in una conferenza se non erro 1 2 anni fa poi non se ne è parlato piu
Ciao. la mia domanda è se con le applicazioni di editing video. Non le più recenti magari ..AI ci aiuta durante editing e poi in fase di rendering.grazie
Ciao, complimenti per la semplicità delle tue spiegazioni. Secondo il tuo parere volendo comprare un portatile intel ultra i7, va bene il 155h o meglio aspettare le 165?
Un po' meno di effetti su schermo?
Ferry proprio l'altro giorno ho letto che facebook acquista 350.000 schede video da Nvidia per creare la prima IA Meta, un investimento totale di quasi 15 miliardi di dollari, quindi queste NPU non esistono ancora sul mercato, insomma prima di buttare 15 miliardi in schede video e struttura si spera che per lo meno, tu acquisti il prodotto più prestazionale...
Detto questo, la Npu saranno integrate nelle CPU o saranno come le Gpu in schede dedicate esterne?
Grazie comunque per l'informazione, non ne sapevo proprio nulla di queste NPU...
Ricordo quando la cpu erano costose esistevano cpu con o senza coprocessore matematico specializzato in calcoli in virgola mobile poi i costi sono scesi ed oggi la mmu è scontato essere integrata. Cera anche una mmu dedicata la paging della memoria ram su disco
Erano i tempi dei 286 , 386 son sistemi DOS se non sbaglio già con il 486 il processore matematico era integrato all'interno. Era con quelle macchine che si imparava ad usare il PC subito e veramente😅 perché non essendoci un sistema Windows ma quasi tutto a Riga di comando si doveva sapere bene cosa fare con una macchina del genere.
@@MsAntares73 Per mantenere i costi esisteva anche il 486 sx, mancante del coprocessore matematico. Comunque il "sogno proibito" era il Wytek! Ah, quanta nostalgia!
Ma a parità di richiesta di supporto su una applicazione da parte dell'AI il risultato può cambiare se cambia l'hardware o sarà sempre uguale? esempio pratico, se chiedo all'ai di ritoccare un'immagine il risultato cambia su due pc con hardware diverso??
se usi un servizio online, no, sono altre le cose che intervengono, su un sitema che gira ibrido su hardware e online, si, dipende dall'hardware
Grazie mille sempre!!!! Purtroppo sto sentendo la necessità di prendere un nuovo PC. Mi occupo di grafica e post-produzione fotografica(a livello pesantemente professionale) e non so che fare... Nel senso che aspetterei per i nuovi processori e le nuove GPU, che sicuramente lavoreranno meglio in sinergia con l'AI, ma così si parlerebbe di aspettare un anno(e mezzo,se si vogliono evitare prezzi folli e soluzioni di bug o difetti). Sono proprio crucciato al pensiero. Già ad esempio alcuni programmi Adobe non mi si aggiornano più se non ho l'ultima versione di Windows 10, il ché mi ha obbligato a forzare l'aggiornamento a Windows 11.
P.s.: Raccomandazione agli altri utenti: per esperienza personale, non fate aggiornamenti forzati da Windows 10 a 11, non ne vale la pena.
FerrY bel video gz
Perchè su YT ci sono i bot ??
Colpa dell'NPU
ciplet, chiplet o ciapet?
o Crepet? :)
Queste NPU hanno a che fare con i chip analogici?
si...cambia solo l'architettura
@@necronegrofilo cioè?
Per ora utile quanto i tensor cores nelle rtx1000.
a proposito di esempi reali mi son sempre chiesto se il testare cpu da più di 200euro dopo il 2018 in full hd quindi nel 90% dei casi non in condizioni reali,sia sensato per il consumatore o serva solo per far pubblicità ai varii amd/intel?
Ed invece la risoluzione 1080p è tutt'oggi la res più usata a livello globale. Prima per distacco col 60%. Il 4k ad esempio è sfruttato solo dal 3% dei videogiocatori. Quindi si, i test in 1080p sono necessari, non solo per capire la reale differenza tra le varie architetture cpu ma anche perché la maggior parte di noi gioca ancora a tale risoluzione.
@@davide1555 allora chi possiede una console gioca a risoluzioni superiori rispetto ai pc gamer.
@@alexroot1980 che c'entrano le console? I test mica li fanno per le console che hanno sempre lo stesso hardware.
Li fanno per il pc che ha in uscita decine di processori diversi ogni anno.
@@davide1555 intendevo dire che di solito i pc gamer prendono in giro chi ha le consoles (hw inferiori) ma alla fine giocano in 1080p contro i secondi che giocano a 1440p, 1800p, 4k dinamici, 4k reali, ecc.. A seconda del gioco.
Un paradosso insomma.
@@alexroot1980 di solito chi prende in giro sono gli enthusiast, che sono una branca ben diversa e separatista dei gamer.
6:55 - Ok, ma questa tua considerazione apre un case scenario non necessariamente come dici tu. Per esempio, l'utente finale vuole maggiore efficienza nella connessione a banda larga, un concetto che già' di per se, non e' mai abbastanza "larga" proprio perché i servizi online si perfezionano e nel farlo richiederanno Mb, Gb, Tb al secondo sempre piu' alti, verso l'incremento piuttosto che la stabilizzazione di pari passo con le tecnologie che producono contenuti. L'AI integrata a livello hardware favorira' secondo me solo sistemi integrati dove non ci sara' bisogno di troppo hardware fisico, locale a casa propria per intenderci ma un qualcosa di remoto, su server, e quindi con la connessione da tramite. In italia noi abbiamo due grossi limiti. Uno e' il protocollo ipv4 (limitato esclusivamente ai 32-bit contro i 128-bit dell'ipv6) e l'altro e' il digital divide delle zone che non coprono la banda larga in maniera uniforme come nei grossi centri abitati. Il tutto e' legato semplicemente alle politiche, o meglio, alle geopolitiche di sviluppo sul territorio. L'italia da chi dipende realmente, effettivamente? Una domanda affatto banale che apre una questione troppo poco affrontata soprattutto nei canali IT che dovrebbero mettere al centro di tutto la pragmaticita' oltre che il progresso conveniente per tutti.
Grazie! ...fantastico
Fortissimi dubbi che un NPU integrata nel processore possa essere piu performante di una GPU discreta.
La penso come te, leggendo alcuni articoli online le prime nuove CPU intel avranno una potenza di calcolo per l'AI di 34TOPS (trillion operations per second). Una "vecchia" nvidia 3060 ne ha oltre 100.
Ma in realtà sbagliate entrambi, non intendo essere presuntuoso, ma se con le gpu il calcolo parallelo è molto potente e si raggiungono prestazioni in termini di flops molto alte i calcoli necessari a far funzionare l’IA non sono effettuati in modo efficiente e inoltre appesantiscono il carico sulla GPU che magari sta renderizzando un gioco e allo stesso tempo sta calcolando il ray tracing e l’upscaling contemporaneamente. Per questo ad esempio nvidia introdusse i famosi tensor core, non so se siano npu, però accelerano tutti quei processi che coinvolgono la generazione di pixel per l’upscaling o l’ottimizzazione necessaria per migliorare il rendering raytracing. Un altro esempio di uso npu è il caso del raytracing sull’iPhone in questo caso viene usata per “scaricare” la gpu
@@igbr6211 tante tante cose sbagliate
@@igbr6211 Giusta critica. Il mio dubbio è proprio quello: qual è la differenza tra i NPU e i tensor core? Un software che sarà scritto interfacciandosi con gli NPU, quanto sarà utilizzabile con i tensor core di una GPU? O rigirando la domanda: gli attuali software che utilizzano la GPU (dai software per la AI ai programmi per le modellazione 3D ecc...) dovranno "aggiungere" anche il supporto per le NPU? Sarà una cosa a livello di driver/api o qualcosa di più complesso?
Una 4070 ha la potenza di oltre 450TOPS. La nuova CPU intel avrà inizialmente la potenza di 34TOPS, perché un software dovrebbe preferire quelli della CPU quando la GPU (se presente) ne ha molti di più?
Ok mi fermo qui, troppi dubbi 😄
@@az6876 Perché per eseguire un certo tipo di lavoro la NPU risulta più efficiente rispetto alla gpu o cpu...non a caso le unità NPU si stanno diffondendo inizialmente soprattutto in ambito mobile, dove qui avere dei consumi i più bassi possibili è preponderante.
E i computers quantistici? Sono tutta un'altra cosa o si possono integrare anche loro?
certo che si integrano con la cosiddetta Ai, essendo un software. Come hardware, invece, è completamente tutta un'altra storia il processore quantistico e si basa su concetti completamente differenti dal semplice 1 o 0 che sta alla base delle attuali tecnologie
no, la computazione quantistica si occupa solo e soltanto di una categoria di problemi molto molto specifici, completamente incompatibile con l'architettura tradizionale
Comunque 3dmark non è propriamente un test sintetico nudo e crudo delle prestazioni della gpu perché è comunque una scena pressoché reale nell'ambito dei videogiochi
Infatti, testa un engine real time molto pesante il che stranisce pure perche' la gaming industry e' fatta di costante ottimizzazione per via dell'hardware scalabile per caratteristiche. Negli anni ha solo sviluppato gente fissata con l'overclock.
sarebbe interessante sfruttare una AI di una NTU per gestire l'intelligenza degli NPC non scriptati nei videogiochi, o di aggiungere nuove funzionalità al sistema base di un OS o di implementare l'utilizzo in vari altri software... le idee co sono ma forse le AI sono ancora un po' troppo imprecise per alcuni scopi (per ora(
Non ho capito cosa dovrei farmene della a.i. io che sono un utente comune.
Saranno i software che utilizzi a farne uso, più che altro, che modello useranno, se online o in locale, dipenderà da cosa il software di turno implementerà.
E mettere una NPU su una scheda PCI ? Anche perché oggi sono online e non in locale, non vedo la necessità di metterlo su ogni CPU prodotta e se parliamo di games li ci staranno già nelle GPU future
Torniamo ai tempi delle schede AGEIA per il miglioramento della fisica nei videogame? :)
Saluti da OSTUNI PUGLIA MAURIZIO ❤, ti seguo sempre.
Ultimamente gesticoli come fossi in preda a sostanze neurostimolanti. Però sempre ottimi contenuti
Ma nessuno pensa al calcolo parallelo e alternato di due CPU affiancate sulla stessa scheda madre ?
I tempi di calcolo matematico a virgola mobile non si dovrebbero tagliare ?
Domanda pratica: gira la voce (non so "se e quanto" attendibile) che il prossimo Win11 24H2 avrà requisiti minimi talmente alti da imporre il passaggio a nuovissime CPU-NPU che Intel starebbe per immettere nel mercato. Significherebbe che chi avesse investito in un sistema con CPU di 13a o 14a generazione si ritroverebbe forzato a cambiare Motherboard e CPU per continuare ad aggiornare Win11. Possibile che Microsoft tagli il cordone alla retrocompatibilità così presto? O è l'ennesimo falso spauracchio?
allo stato attuale le nostre cpu con win 24h2 con AI integrata non riescono ad aggiornarsi le CPU sono troppo scarse
Ciao vorrei capire ultimamente perché su RUclips si blocca sempre la tastiera si imballa la tastiera non mi fa scrivere commenti ce lo deve deve spegnere si blocca o devo accendere il cellulareForse perché il mio huawei mate 10pro è vecchio con il kirlin 970 primo klip con l'intelligenza artificiale huawei
Domanda da gamer: per un gamer in cerca di una buona potenza di calcolo, sia della CPU che della GPU, l'IA avrà un significato concreto oppure no? Della serie... potrà aiutare CPU e GPU a dialogare meglio in modo, brutalmente, da ottenere più FPS o effetti grafici migliori a minor costo (di potenza hardware)? Grazie.
L'IA (o machine learning ) già oggi viene usata...ad esempio per gestire il DLSS.
In futuro pare che tramite l'uso della tecnologia ACE anche gli npc nei videogiochi saranno più "intelligenti" rispetto a quanto accade oggi, dove sostanzialmente sono solo degli elementi passivi dello scenario.
I rumorini sono fastidiosissimi
si ma ci chiediamo a che seve? tolti i videogiochi le ia hanno senso se hanno una banca dati, quindi grosse ia online. qui penso serva solo per i nostri dati.oramai ha preso piede l'idea che i vantaggi per loro li dobbiamo pagare noi...perchè avere un costoso sistema centralizzato quando posso preelaborare a livello locale? ma basta...fatemi vedere cosa fa la ia offline.
Tutti quelli che esultano nell'avvento dell'IA, non sanno che si stanno scavando la fossa (inteso in modo lavorativo) con le proprie mani, e wuesto è fantastico!
Io uso la mia vecchia gpu 2080 ti con 12gb di vram e va alla grande per la generazione di immagini e audio in locale. Al momento non mi serve altro.
diamo un po di lavoro a gli ingegneri di I.A. io ho sempre sperato fallissero tutti questi sistemi automatizati e lo spero tutt''ora
Nessuno, peró, ci parla del costo dei processori che integreranno questa nuova tecnologia. CPU richieste, peraltro, dal prossimo aggiornamento di Windows 11. Si prevede una escalation generale dei prezzi in stile GPU.
Bellissimi i tuoi video. Complimenti!
Solo un suggerimento.. ho notato che a volte la chiami "i-a", altre volte dici "a-i" tutto bene nessun problema tuttavia se ti abituassi a chiamarla SEMPRE "ei-ai" forse sarebbe il modo più giusto e universale, senza sbavature e immediatamente comprensibile in tutto il mondo👍 Se sei d'accordo..
Quindi forse in un futuro esisteranno schede ia dedicati
Sicuramente l’NPU avrà un grande impatto ed avrà una grande efficienza a livello “mobile”. Non lo dico io, ma i dati, che non sarà mai nemmeno paragonabile ad una gpu dedicata come potenza di calcolo. Che poi si ragioni, che in una soc sia utilissima, e l’utenza media potrà sfruttarla alla grande su mini pc (pieni di malware) e sui notebook d’accordissimo. Per il resto, lasciamo perdere.
Passaggio da 2D a 3D non significa da bassa risoluzione ad alta risoluzione. L'immagine mostrata è ingannevole. E comunque le immagini 2D sono migliori...
Perdonami Ferry, ma il mio primo commento sul tuo canale è una critica. Premetto che ti seguo da tempo e che trovo i tuoi video sempre molto interessanti. Ma oggi voglio "protestare" perché da qualche tempo vedo che hai deciso di condire i tuoi video con degli artifici grafici che personalmente trovo disturbanti e distraenti. Mi riferisco a quelle quelle piccole e diffuse macchie bianche che simulano un disturbo casuale. Distraggono, disturbano, senza aggiungere alcun contenuto informativo. Ad esempio, il trucchetto di modificare in bianco e nero alcuni momenti ha un senso, perché evidenzia una sorta di retropensiero, un commento sotto voce. Ma i falsi disturbi bianchi non mi significano proprio niente. Discorso del tutto simile per il leggero reticolato di sfondo che si deforma, inutile, fastidioso. Per il resto, dieci e lode, sempre.
ciao, grazie del tuo feedback, è una "scelta del montatore" che verranno tolte, però ho alcuni video già pronti, chiedo un po' di pazienza. grazie
La AI viene usata a livello di sistema operativo?? Sto sanguinando dalle orecchie
Windows 11 24h2 integrerà teoricamente l'utilizzo dell'AI direttamente all'interno del sistema operativo e utilizzera cpu con l'NPU (che saranno presenti nelle prossime cpu Intel). Ma per ora si sa poco...
@@az6876 quindi al massimo accetterei: w11 forse utilizzerà in futuro l'NPU
Cerca con gugol Windows Copilot :)
Trovo i tuoi video interessanti ma purtroppo posso vederli... poco! Perché gli effetti video usati, tutti quei guizzi di immagine e scritte o banner più o meno veloci e improvvisi disturbano molto la fruizione del video e di fatto mi impediscono di guardarli. Il like lo metto, sono video interessanti ma ahimè dopo averne visto uno, sempre che riesca ad arrivare alla fine, passa del tempo prima che possa vederne un altro! Pazienza... Saluti!
Ma quali problemi ti affliggono, esattamente?
@@coprilettodelnapoli5466
Nausea, difficoltà di seguire il filo del discorso in quanto l'attenzione è fortemente disturbata dalle brusche e frequenti sovrapposizioni di scritte, anche animate, mentre guardo uno di questi video, oltre alle frequenti brusche zoomate, costringono l'occhio ad uno sforzo visivo esagerato con frequenti cambiamenti di messa a fuoco e posizione dell'oggetto o soggetto da seguire. Un incubo per me!
@@carborundum-dumChiudi gli occhi e ascolta. Oppure leggi la trascrizione.
@@renatvssantharii4076
è una possibilità percorribile, certo un video "tranquillo" come tanti altri mi coinvolge di più e mi può dare più informazioni in base al format... vedrò, grazie!
Il problema è che se non fai i video in questo modo, poi gli zoomer e gli alfa si distraggono dopo 0.2 secondi.
per l'AI serve anche più ram
Wueste sono DinoCpu
Siamo ancora all epoca dei dinosauri nelle cpu e batterie
Preferivo i vecchi sistemi senza npu.
Finalmente uscira un nuovo 3dmark... 😂😂😂
Ringrazio per la censura relativa al mio commento che criticava questo video e che voleva segnalava che la analisi della NPU per un pubblico profano è praticamente impossibile e fondamentalmente inutile.
dillo a RUclips, che probabilmente ha ritenuto il tuo commento in violazione del regolamento. Ricordo che RUclips modera per i fatti suoi i commenti.
Confermo. Ormai RUclips modera in maniera schizofrenica. Messaggi come quello sopra di gente che si lamenta pensando di esser stato censurato dallo youtuber sono ormai all'ordine del giorno
Ma mio cugino mi ha detto che i computer quantistici fra poco ci si magneranno a colazione...
@@dna2.041 se pensi che gli adulti non giochino e non arrivino a spendere anche svariate migliaia di euro per un pc da utilizzare esclusivamente per gaming ti sbagli. E a parte questo, l’ultimo i3 in circolazione è il 14100F.
@@dna2.041non tutti fanno lo stesso tipo di lavoro, e non è detto che tutti abbiano figli. C'è un sacco di gente che si rilassa giocando un paio d'ore la sera e nei fine settimana.
Io aspetto a fare il pc nuovo! Ma fino al 2025, ovvero aspetto la fine di Windows 10!
Ogni volta che sento come stanno cambiando le cpu, mi viene in mente la storia di John Titor.
Ma poi, in ambito aziendale, serve????
Centinaia di pc che lavorano o su programma emulato, o su pagina web...collegati solo alla rete aziendale....
Sbaglio o quello è uno smartwatch? Ricaduta? 😂
ahah, no, un "controllo fitness" di qualche giorno :)
Problema dei bot culi dilagante
bah ... molto marketing ma poca ciccia... lascio ai "early adopters" ... quando diventa economica una NPU poi ci penso... anzi per i gaming forse i primi tempi meglio evitare cpu e gpu "ottimizzate" per l'AI o che usano il marketing dell'AI...
Gli effetti speciali sono insopportabili.
OK !
chiplet*
Addirittura la prox versione di Windows avrà dei requisiti per quanto riguarda le prestazioni lato IA...pare che il limite minimo per avere un buon supporto in tal senso sia pari a 40TOps.
La NPU sarà presente solo su processori notebook, (o mini pc)per desktop no, saranno i soliti processori ma sempre più potenti (come è sempre stato) e soprattutto tanta GPU. Nel notebook essendo un dispositivo a batteria, serve una npu, così da essere efficiente ma dare comunque un po' di AI, a differenza dei desktop. Quindi questo discorso è stato un po' troppo generico 😉
ciplet?????????????
Your english Is good.
per me i benchmark con i punteggi li trovo inutili e fuffa. quelli che prenderei in considerazione sono lato velocità compressione/decompressione, velocità di rendering dei video in vari formati, 1080 60fps 2k-4k ecc. conversione video,come si comportano cpu e gpu lato gaming con vari settaggi,le temperature in varie ambiti di utilizzo ecc. io la penso così.
mi sa che non hai capito nulla..
@@necronegrofilo io parlo lato benchmark,lato IA le trovo utile solo per creazione di immagini o in compiti noiosi come rimuovere i punti morti nei video durante l' editing. E sistemare una foto oppure qualcosa che manualmente richiederebbe precisione e tempo,oppure per vedere se ci sono errori durante la scrittura del codice. Per il resto preferisco avere controllo su quello che faccio.
Almeno la pronuncia CPU, daii
soldi buttati, compratevi un mac. Mai comprare Intel. MAI.
Video non fruibile grazie agli effetti che poco hanno di intelligente, fatti aiutare dall’ AI
mi domando la ciccia dove sta..tutto marketing per ora, volto a software più complessi. Finché non ci sarà la singolarità (informatica e software ovviamente..), processori quantistici e/o quelli organici .. stiamo solo a seguire un upgrade di quello che già ci sta, in sostanza.
No, l'AI locale è già realtà puoi tradurre video in locale, generare immagini e parlato a partire da un testo.. tutto sul TUO computer senza appoggiarti al cloud/internet
@@Techonsapevole e io che ho scritto!? Non vedo connessione con quello che hai sottolineato (che è risaputo)
ma dai perche !?!?!?!?!?!? non li cambiate i cpu erano cosi simpatici prima