💣 Grazie per aver guardato questo video! 💣 🔥 Supportami gratis con un click: bit.ly/40XDVVQ 👀 Leggi un articolo dal nostro sito: morethantech.it/ 🤑 Migliori offerte di internet: t.me/morethantech
Ho quasi 30 e quando ho montato il mio primo pc ne avrò avuti forse 12 o 13. Da allora ho avuto solo un paio di laptop presi senza fare troppo caso a cosa stessi comprando. Dopo tutti questi anni in cui non ho seguito gli sviluppi dell'industria, sto provando a recuperare perché vorrei fare un acquisto sensato. Tuttavia, devo ammettere che è fottutamente difficile per la quantità di informazioni da dover digerire.
Semplicissima tecnica di marketing che fanno da anni: cambiare nomi per mandare in confusione la clientela e farli comprare senza sapere cosa stanno acquistando. (Immagino in futuro un base gamma 3 con il termine Ultra, così la gente legge "ultra" e sono spinti ad acquistare un pc che sembra più potente di quello che non lo sia.)
Scusa, ma mi potresti spiegare se è vero che in alquni programmi e utile avere un processore con scheda grafica integrata più gpu per avere più performance in produttività?
A parere mio è una cazzata, ad oggi una parte sostanziosa delle vendite di Intel è per mentalità, un rebrandig non mi pare una grande mossa. Per la differenza tra core normale ed ultra a parere mio potrebbe essere una differenziazione tra le CPU Raptor Lake Refresh e quelle Meteor Lake, a lungo termine potrebbe anche diventare una differenziazione tra CPU che hanno o meno Adamantine al posto dell'interposer passivo.
Alla faccia della semplificazione… sia sulla nomenclatura delle cpu che sui nanometri…. Mi sembra invece una complicazione x mascherare che stanno indietro e di brutto .
Per spezzare una lancia in favore di Intel, la questione dei nanometri commerciali è fondamentalmente sbagliata. Quando leggi "5 nm" si parla del caso migliore in assoluto e spesso i valori sono con riferimenti differenti - banalmente TSMC, quindi chi produce per AMD ed Nvidia, e Intel sono su parametri diversi - quindi si tende ad avere MOLTO gioco marketing su questo. I 7 nm di Intel sono in linea con i 5 nm "di AMD" (di TSMC). Anche perché questo valore è del tutto astratto, non è una media ma un picco. Diciamo che sono d'accordo che l'azione sia stata per dire "ehy guardate che non siamo indietro", però effettivamente non sono così indietro solo perché hanno 7 nm e non 5!
Stanno seguendo AMD quasi tutto. Chiplet, IA integrata (già presente sui Ryzen 7040U). Ad ora il vantaggio sono il numero di core. Che in gaming conta poco.
Ma vedremo mai l'IA applicata all'intero sistema? Non so se sia una fantasia mia, ma avere una IA che gestisce l'intero sistema (Consumi, clock vari di cpu, gpu e ram), gestisce le app aperte e in background e che adatta in modo dinamico il sistema in base ai nostri click e quello che stiamo facendo, questo per migliorare la velocità e diminuire i consumi. E' una visione utopistica? Oppure prima o poi sarà possibile?
non c'è bisogno di questo approccio, ricordiamoci che le ia rispetto ai programmi convenzionali tendono a consumare molte più risorse, l'approccio è il seguente se non è possibile dare una risposta esatta con un algoritmo convenzionale, allora si prova a darne una approssimata con l'ia che è sempre meglio di nulla, in tutti gli altri casi è meglio senza
Spero proprio di no. Perdere il controllo del proprio dispositivo è comodo, ma pericolosissimo, perché, oltre ovviamente a bug ed errori di programmazione, perdi tantissimo la libertà e la personalizzazione. Ognuno usa il PC in maniera differente, questo approccio rischia di uniformare tutti, invece. Per dire una banalità: immagina che sia un'AI a decidere dove, di volta in volta, vengono scaricati i file, in base a SUOI parametri. Scarichi un porno e finisce nei video di compleanno con la famiglia 😂😂😂 Un software non può mai sapere tu IN QUEL MOMENTO cosa vuoi fare e di cosa hai bisogno. Ben vengano shortcut personalizzate ma non perdere il controllo.
@@dragonsworder Penso intenda un'IA migliore degli attuali algoritmi di gestione delle risorse di Windows, in modo da applicarsi più dinamicamente alla materia
Per me fà più confusione.... del tipo qualcuno dice cre "ho un i9" e tu capisci subito, l'altro dice "io ho un 9"...che cavolo è un 9!?! Potevano mantenere in nomi e semplicemente creare gli i5u i7u i9u.
Io viaggio ancora bene con l’i7 di 15 anni fa…..e tutto questo favorisce noi consumatori, possessori di questa vetusta tecnologia. Lo dico anche per chi lo compera oggi un PC : con 100 - 200 euro nell’usato ti fai un signor computer Ovviamente se non ci devi giocare ……ma ci fai tutto,foto e video compresi .Magari con i vecchi pentium 3 e 4. in molti avranno sicuramente benedetto il passo avanti della tecnologia con il dual core e poi la perfezione nell’adottare il processore quattro core . Con l’avvento però della tecnologia appena citata,tutto è ristagnato rendendo superflui gli aggiornamenti hardware del PC che sono proseguiti con le varie generazione : gen 1…2…3 ,fino all’attuale 12esima . Io,come ho fatto intendere,ho la prima e mi trovo ancora benissimo .
Se devi solo fare un upgrade tipo mb e processore allora sì, ti accontenti ancora della 4.0 e te la cavi con poco e conta che i 13000 hanno fatto un bel salto. Se devi farti una build de novo allora vai di 5.0, questi intel hanno ancora molto da dire.
Non vedo l’ora che mi si incrocino gli occhi cercando di separare gli Intel core 7 1470 K dagli Intel core ultra 7 1580 KS… Praticamente Intel con la nomenclatura ha deciso di far concorrenza ai codici fiscali…
Chi è del settore sa che: 1) il Paradigma dei nanometri lo ha inventato Intel 2) La densità di integrazione di intel a 10 nm è la medesima dei concorrenti a 5 nm : essendo semplicemente una convenzione, i concorrenti adottano un diverso modo di valutare la distanza tra le "Pinne" ( o del canale di Gate in precedenza) [ tipo contare i mq di un appartamento senza distinguere se con, o senza pareti).
Più che altro mi chiedo se queste CPU adotteranno come ISA l'x86S, che rappresenta un cambiamento quasi radicale, dato che elimina tutte le parti legacy di quest'architettura, diventando a 64 bit pura. Questo ha delle implicazioni per i programmatori, dato che varie cose saranno semplificate, mentre invece per la retrocompatibilità degli applicativi il compito sarà scaricato sul sistema operativo.
@@givolettorulez No, l'x86S è stato proposto recentemente da Intel, e conserva buona parte dell'ISA x86 che tutti conosciamo. L'Itanium fù il tentativo di Intel di soppiantare x86 e tutte le architetture RISC dell'epoca, in particolare il PA-RISC di HP, l'Alpha di Digital Equipment (acquisita poi da Compaq) e il MIPS di Silicon Graphics. Sulla carta l'Itanium era promettente, dato che nelle simulazioni era più veloce di altre CPU, oltre ad essere un'architettura VLIW. Purtroppo si rivelò essere più lenta di altre architetture (in termini di IPC), colpa anche dei compilatori non ottimizzati. In questo modo Intel e HP hanno ucciso 3 architetture RISC di una certa importanza, chi non abboccarono furono Sun Microsystems (che aveva lo SPARC) e IBM (col PowerPC). Questo fu una delle cause della fine delle workstation/server/supercomputer RISC, oltre alle UNIX war. E studiando a fondo scienze informatiche, mi rendo conto che l'x86 è forse l'architettura peggiore che l'utente medio ha mai avuto: tra memoria segmentata (mentre tutte le altre architetture avevano un modello di memoria lineare), il fatto che ogni registro avesse un uso specifico (cosa che non aiuta i compilatori; tutte le altre architetture avevano almeno 16-32 registri a uso generale), e che tra una generazione e l'altra ci mettessero una pezza cercando di essere più usabili, posso dire che avremmo potuto avere qualcosa di infinitamente migliore, più semplice e sicuro
@@DVRC Intel ha provato a fare fuori l'architettura x86 diverse volte. La prima volta con iAPX432, poi con i860 e poi con i960. Sfortunatamente dato che gli utenti ha sempre voluto la retrocompatibilita' il risultato e' che non c'e' mai riuscita. Oltretutto questa volta AMD per fregare Intel non deve fare nulla, basta che continui a fare processori con set di istruzioni AMD64. Fra l'altro Intel aveva fatto una versione di 80386 che partiva subito a 32 bit, ma anche questa CPU ha avuto un successo veramente scarso. Chiaramente Intel ha una grande base di utenze che non e' quella di Apple ed ha esigenze diverse. Una di queste e' appunto la retrocompatibilita'.
@@givolettorulez Lo so benissimo che Intel ha provato più volte a segare le gambe a x86 (e avrebbe fatto benissimo), e Digital Equipment dimostrò sull'Alpha che le applicazioni x86 potevano girare tranquillamente con emulazione binaria e ricompilazione a runtime. A maggior ragione una cosa del genere oggi è possibile. L'iAPX 432 era un fiasco in sé come architettura, mentre i860 e i960 hanno trovato usi tra terminali X11, acceleratori grafici (NeXT e Silicon Graphics Reality Engine) e supercomputer (Intel Paragon). Il problema è che ogni speranza di innovazione e cambiamento radicale è sempre stata stroncata dal monopolio illegale di Microsoft (tant'è che ci fu' un processo, e pure persone di Sun Microsystems testimoniarono contro) o dal fatto che purtroppo le aziende non fecero le scelte migliori. E poi il fatto che x86-64 continui a trascinarsi tutta la parte legacy è un'ulteriore fonte di complessità inutile e di problemi di sicurezza.
@@DVRC Secondo me è abbastaza utile portarsi tutta l'architettura x86. Pensa ad esempio a software non proprio recenti, non girerebbero mai, a meno che non ci sia qualche layer di traduzione ad x64, e secondo me è abbastaza una forzatura. A meno che non vogliano fare l'ennesimo flop di un ITANIUM rimachiato, pensaci bene zì
Sul processo produttivo credo che Intel sia un passo avanti, perché seppur AMD oggi è a 5nm, Intel a 7nm gli dà filo da torcere. Il limite del silicio è vicino e quando AMD arriverà ad 1nm, Intel avrà ancora margine di miglioramento, ma spero che prima di arrivare al limite trovino una valida alternativa al silicio.
Ultra potrebbe significare una fascia di gamma di processori che hanno vinto la lotteria del silicio, quindi più affidabili con le performance dichiarate e anche in Overclock
Io devo sostituire un 9900k credo che prenderò fascia ultra per quello che ho capito ...in ogni caso tanto quando escono farai sicuramente un video dove spieghi tutto nel dettaglio 😀👍
Già mi immagino i padri di famiglia al Mediaworld per comprare un pc al figlio, vedono la scritta ultra e pagano 800 euro per un soc medio gamma e display hd.
@@MoreThanTech intanto grazie infinite. Il budget può variare da 1000/1800. Col computer ci devo far musica con cubase (non so se conosci questo software). Quindi non ho bisogno di schede video importanti, overclock o altre cose che servono per il gaming (non gioco mai). Serve una macchina abbastanza semplice ma espandibile, intendo che supporti fin da subito ddr5 con frequenze alte, 2,3 slot m2nvne, la possibili di aggiungere porta thunderbolt se non già presente sulla mobo, più o meno queste sono le caratteristiche che mi occorrono. L escursione economica è dovuta dal fatto che se con 1000/1300 avrò prestazioni molto simili a un pc di 1800 , beh se posso risparmiare qualcosa va bene, ma se si deve impallare il pc quando andrò a caricare le tracce midi e audio con plugin e vst pesanti, allora vado anche oltre i 1800. Alcuni in rete dicono che potrebbe bastare un computer non troppo performante perché rischierei di non sfruttarlo manco al 50%… Questo è il dilemma… grazie ancora
Intel potrà anche chiamare il suo processo produttivo "Intel 7" ma, i consumi delle sue CPU tradiscono la vera natura della litografia ormai superata da anni a 10nm che sono stati costretti ad utilizzare fino alla 13gen.
Ma in realtà no, ne avevo parlato nella recensione del 13900k I consumi non sono correlati al processo produttivo in maniera assoluta. Io posso fare i processori più con la litografia più “piccola” al mondo e avere comunque cpu da 341 W. Quella che ne deriva è l’efficienza, cioè quanti W andranno a essere consumati per un’operazione E se li lasci bloccati, i 13th sono MOLTO efficienti Come lo sono le RTX 40
I processori sono molto longevi in generale, dipende tutto dalla risoluzione, giochi e applicativi che vuoi toccare. Io per esempio gioco ancora con un 10850k e tolto qualche titolo rientra ancora perfettamente nelle mie necessità :)
@@GuidoDePalma si ma non nei processori senza la K, le vecchie cpu intel _(edit: epoca del core duo quad per capirci)_ erano come i ryzen oggi: non importava il nome erano tutti sbloccati!
Ma sticazzi, tanto oramai le CPU arrivano già spinte al limite (guarda il 7950X ch con metà dei consumi perde il 5% delle performance). L'overclock è morto
@@maverickvgc4220 l oc non è morto, e comunque se permetti vorrei poter gestire il mio processore come piu mi aggrada soprattutto ora che si puo fare oc del singolo core, magari a me servono solo due core che spingono a manetta insieme a la cache e degli altri 10 non me ne faccio nulla, anzi di prendere un k potrei risparmiare e prendere un non k o anche semplicemente non prendere una z ma una b o una h. per esempio i 9000 e i 10000 non so se anche gli 11000 si overclockano abbastanza facilmente. Poi se uno vuole ogni briciola dal suo processore dovrebbe essere libero di farlo senza pagare extra
Sento puzza di aumento prezzo alla Apple 😂 e beh 3d V per forza gli manca dire il miglior processore da GAMING 😂 sono possessore di i7 11700k ma stanno andando fuori rotta 😂
5:20 "differenziazzzziiiIAAAOONEE" oh ma vedi te se io dopo 8 ore di ininterrotto lavoro in fabbrica in cui mi spacco la schiena devo sentire degli accenti gay del genere...
i processori ultra avranno piu' cache (3d smart cache) e probabilmente supporteranno solo memorie ddr5, ma secondo me ci sara' altro come conta dei core piu' alta per renderli ultra rispetto ai basic
Ciao morethantech avrei bisogno di aiuto io ho un i3 10100f e da circa tre giorni la cpu ha cominciato a lavorare al 100% non so il pk ho provato a sistemare le impostazioni ho a scannerizzare tutto il pc con due antivirus diversi ma niente non é un problema che ho da sempre é nato nel giro di un giorno non so come se sai come aiutarmi o se qualcuno che sta leggendo e sa come aiutarmi pls rispondete qua sotto🥲
💣 Grazie per aver guardato questo video! 💣
🔥 Supportami gratis con un click: bit.ly/40XDVVQ
👀 Leggi un articolo dal nostro sito: morethantech.it/
🤑 Migliori offerte di internet: t.me/morethantech
In ter core ARCA770
Ho quasi 30 e quando ho montato il mio primo pc ne avrò avuti forse 12 o 13. Da allora ho avuto solo un paio di laptop presi senza fare troppo caso a cosa stessi comprando. Dopo tutti questi anni in cui non ho seguito gli sviluppi dell'industria, sto provando a recuperare perché vorrei fare un acquisto sensato. Tuttavia, devo ammettere che è fottutamente difficile per la quantità di informazioni da dover digerire.
togliere la i non ha senso. i geni del marketing di intel hanno fatto una cazzata
concordo
Evidentemente Apple ha fatto causa 😂
Sì, dovevano togliere la nomenclatura "core" e lasciare la i
Semplicissima tecnica di marketing che fanno da anni: cambiare nomi per mandare in confusione la clientela e farli comprare senza sapere cosa stanno acquistando. (Immagino in futuro un base gamma 3 con il termine Ultra, così la gente legge "ultra" e sono spinti ad acquistare un pc che sembra più potente di quello che non lo sia.)
Scusa, ma mi potresti spiegare se è vero che in alquni programmi e utile avere un processore con scheda grafica integrata più gpu per avere più performance in produttività?
Avrebbero potuto semplificare di più, però, così rimane un sovrastrato di complessità non indifferente
Se non ti piace fallo tu
A parere mio è una cazzata, ad oggi una parte sostanziosa delle vendite di Intel è per mentalità, un rebrandig non mi pare una grande mossa.
Per la differenza tra core normale ed ultra a parere mio potrebbe essere una differenziazione tra le CPU Raptor Lake Refresh e quelle Meteor Lake, a lungo termine potrebbe anche diventare una differenziazione tra CPU che hanno o meno Adamantine al posto dell'interposer passivo.
Se non è ora il momento di cambiare un po' il marketing dopo aver perso mercato per cinque anni, quando?
Bomba, per me le cose si complicheranno ulteriormente.
Staremo a vedere 👀
io sono gia confuso di mio, ringrazio intel per averci reso la vita piu facile.
Alla faccia della semplificazione… sia sulla nomenclatura delle cpu che sui nanometri…. Mi sembra invece una complicazione x mascherare che stanno indietro e di brutto .
Per spezzare una lancia in favore di Intel, la questione dei nanometri commerciali è fondamentalmente sbagliata. Quando leggi "5 nm" si parla del caso migliore in assoluto e spesso i valori sono con riferimenti differenti - banalmente TSMC, quindi chi produce per AMD ed Nvidia, e Intel sono su parametri diversi - quindi si tende ad avere MOLTO gioco marketing su questo. I 7 nm di Intel sono in linea con i 5 nm "di AMD" (di TSMC). Anche perché questo valore è del tutto astratto, non è una media ma un picco.
Diciamo che sono d'accordo che l'azione sia stata per dire "ehy guardate che non siamo indietro", però effettivamente non sono così indietro solo perché hanno 7 nm e non 5!
Stanno seguendo AMD quasi tutto.
Chiplet, IA integrata (già presente sui Ryzen 7040U).
Ad ora il vantaggio sono il numero di core. Che in gaming conta poco.
Finalmente dopo 13-14 anni ad Intel hanno innovato la nomenclatura dei processori. Il reparto Marketing si era preso una pausa.
come efficienza energietica stanno indietro a M2
Ma questi processori di 14gen saranno compatibili con le schede madri di 12/13gen?
Non penso, no
io spero che la nuova generazione non scaldino come quelli attuali
Ma vedremo mai l'IA applicata all'intero sistema? Non so se sia una fantasia mia, ma avere una IA che gestisce l'intero sistema (Consumi, clock vari di cpu, gpu e ram), gestisce le app aperte e in background e che adatta in modo dinamico il sistema in base ai nostri click e quello che stiamo facendo, questo per migliorare la velocità e diminuire i consumi. E' una visione utopistica? Oppure prima o poi sarà possibile?
Secondo me Windows 12 avrà qualcosa del genere, ormai le IA faranno parte di tutto
non c'è bisogno di questo approccio, ricordiamoci che le ia rispetto ai programmi convenzionali tendono a consumare molte più risorse, l'approccio è il seguente se non è possibile dare una risposta esatta con un algoritmo convenzionale, allora si prova a darne una approssimata con l'ia che è sempre meglio di nulla, in tutti gli altri casi è meglio senza
Spero proprio di no. Perdere il controllo del proprio dispositivo è comodo, ma pericolosissimo, perché, oltre ovviamente a bug ed errori di programmazione, perdi tantissimo la libertà e la personalizzazione.
Ognuno usa il PC in maniera differente, questo approccio rischia di uniformare tutti, invece.
Per dire una banalità: immagina che sia un'AI a decidere dove, di volta in volta, vengono scaricati i file, in base a SUOI parametri. Scarichi un porno e finisce nei video di compleanno con la famiglia 😂😂😂
Un software non può mai sapere tu IN QUEL MOMENTO cosa vuoi fare e di cosa hai bisogno. Ben vengano shortcut personalizzate ma non perdere il controllo.
Cosa vuol dire una IA che gestisce la RAM?
@@dragonsworder Penso intenda un'IA migliore degli attuali algoritmi di gestione delle risorse di Windows, in modo da applicarsi più dinamicamente alla materia
Per me fà più confusione....
del tipo qualcuno dice cre "ho un i9" e tu capisci subito,
l'altro dice "io ho un 9"...che cavolo è un 9!?!
Potevano mantenere in nomi e semplicemente creare gli i5u i7u i9u.
Io viaggio ancora bene con l’i7 di 15 anni fa…..e tutto questo favorisce noi consumatori, possessori di questa vetusta tecnologia. Lo dico anche per chi lo compera oggi un PC : con 100 - 200 euro nell’usato ti fai un signor computer Ovviamente se non ci devi giocare ……ma ci fai tutto,foto e video compresi .Magari con i vecchi pentium 3 e 4. in molti avranno sicuramente benedetto il passo avanti della tecnologia con il dual core e poi la perfezione nell’adottare il processore quattro core . Con l’avvento però della tecnologia appena citata,tutto è ristagnato rendendo superflui gli aggiornamenti hardware del PC che sono proseguiti con le varie generazione : gen 1…2…3 ,fino all’attuale 12esima . Io,come ho fatto intendere,ho la prima e mi trovo ancora benissimo .
Ciao MoreThanTech, quindi per quanto riguarda i processori vecchi ci sarà un ribasso di prezzo?
Probabilmente si!
Ma si sa più o meno quanto costeranno?
Stavo pensando di prendere l'i5 13600k, vale la pena? o meglio aspettare la 14a gen?
Ancora niente, aspettiamo news a riguardo ma essendoci un possibile Raptor Lake S 2.0 in mezzo mi aspetto che escano a fine anno almeno
Meteor lake è solo per mobile, per desktop ci sarà Arrow lake a fine 2024
Se devi solo fare un upgrade tipo mb e processore allora sì, ti accontenti ancora della 4.0 e te la cavi con poco e conta che i 13000 hanno fatto un bel salto. Se devi farti una build de novo allora vai di 5.0, questi intel hanno ancora molto da dire.
@@geralt_di_rivia Grazie mille 😁
Si, devo fare un upgrade di Mobo e CPU dato che al momento ho un i5 8400 che soffre di bottleneck con la mia 3060ti.
e se i core semplici fossero i vecchi celeron rinominati?
Nope
mi sembra ovvio che la linea Ultra sarà quella dei processori più potenti e quindi anche più adatti per i nuovi giochi o applicazioni più esigenti.
Non vedo l’ora che mi si incrocino gli occhi cercando di separare gli
Intel core 7 1470 K
dagli
Intel core ultra 7 1580 KS…
Praticamente Intel con la nomenclatura ha deciso di far concorrenza ai codici fiscali…
Chi è del settore sa che:
1) il Paradigma dei nanometri lo ha inventato Intel
2) La densità di integrazione di intel a 10 nm è la medesima dei concorrenti a 5 nm : essendo semplicemente una convenzione, i concorrenti adottano un diverso modo di valutare la distanza tra le "Pinne" ( o del canale di Gate in precedenza) [ tipo contare i mq di un appartamento senza distinguere se con, o senza pareti).
Più che altro mi chiedo se queste CPU adotteranno come ISA l'x86S, che rappresenta un cambiamento quasi radicale, dato che elimina tutte le parti legacy di quest'architettura, diventando a 64 bit pura.
Questo ha delle implicazioni per i programmatori, dato che varie cose saranno semplificate, mentre invece per la retrocompatibilità degli applicativi il compito sarà scaricato sul sistema operativo.
Dici l'Itanium II?
@@givolettorulez No, l'x86S è stato proposto recentemente da Intel, e conserva buona parte dell'ISA x86 che tutti conosciamo.
L'Itanium fù il tentativo di Intel di soppiantare x86 e tutte le architetture RISC dell'epoca, in particolare il PA-RISC di HP, l'Alpha di Digital Equipment (acquisita poi da Compaq) e il MIPS di Silicon Graphics.
Sulla carta l'Itanium era promettente, dato che nelle simulazioni era più veloce di altre CPU, oltre ad essere un'architettura VLIW. Purtroppo si rivelò essere più lenta di altre architetture (in termini di IPC), colpa anche dei compilatori non ottimizzati.
In questo modo Intel e HP hanno ucciso 3 architetture RISC di una certa importanza, chi non abboccarono furono Sun Microsystems (che aveva lo SPARC) e IBM (col PowerPC).
Questo fu una delle cause della fine delle workstation/server/supercomputer RISC, oltre alle UNIX war.
E studiando a fondo scienze informatiche, mi rendo conto che l'x86 è forse l'architettura peggiore che l'utente medio ha mai avuto: tra memoria segmentata (mentre tutte le altre architetture avevano un modello di memoria lineare), il fatto che ogni registro avesse un uso specifico (cosa che non aiuta i compilatori; tutte le altre architetture avevano almeno 16-32 registri a uso generale), e che tra una generazione e l'altra ci mettessero una pezza cercando di essere più usabili, posso dire che avremmo potuto avere qualcosa di infinitamente migliore, più semplice e sicuro
@@DVRC Intel ha provato a fare fuori l'architettura x86 diverse volte. La prima volta con iAPX432, poi con i860 e poi con i960. Sfortunatamente dato che gli utenti ha sempre voluto la retrocompatibilita' il risultato e' che non c'e' mai riuscita. Oltretutto questa volta AMD per fregare Intel non deve fare nulla, basta che continui a fare processori con set di istruzioni AMD64.
Fra l'altro Intel aveva fatto una versione di 80386 che partiva subito a 32 bit, ma anche questa CPU ha avuto un successo veramente scarso.
Chiaramente Intel ha una grande base di utenze che non e' quella di Apple ed ha esigenze diverse. Una di queste e' appunto la retrocompatibilita'.
@@givolettorulez Lo so benissimo che Intel ha provato più volte a segare le gambe a x86 (e avrebbe fatto benissimo), e Digital Equipment dimostrò sull'Alpha che le applicazioni x86 potevano girare tranquillamente con emulazione binaria e ricompilazione a runtime. A maggior ragione una cosa del genere oggi è possibile.
L'iAPX 432 era un fiasco in sé come architettura, mentre i860 e i960 hanno trovato usi tra terminali X11, acceleratori grafici (NeXT e Silicon Graphics Reality Engine) e supercomputer (Intel Paragon).
Il problema è che ogni speranza di innovazione e cambiamento radicale è sempre stata stroncata dal monopolio illegale di Microsoft (tant'è che ci fu' un processo, e pure persone di Sun Microsystems testimoniarono contro) o dal fatto che purtroppo le aziende non fecero le scelte migliori.
E poi il fatto che x86-64 continui a trascinarsi tutta la parte legacy è un'ulteriore fonte di complessità inutile e di problemi di sicurezza.
@@DVRC Secondo me è abbastaza utile portarsi tutta l'architettura x86. Pensa ad esempio a software non proprio recenti, non girerebbero mai, a meno che non ci sia qualche layer di traduzione ad x64, e secondo me è abbastaza una forzatura. A meno che non vogliano fare l'ennesimo flop di un ITANIUM rimachiato, pensaci bene zì
Sono convinto che la gente continuerà a chiamare i processori "i3/5/7/9"
Ma ovvio, 1 i nomi nuovi non sono comodi da pronunciare, 2 Intel campa di mindshare la gente comune sogna l'i7
Vero
Sul processo produttivo credo che Intel sia un passo avanti, perché seppur AMD oggi è a 5nm, Intel a 7nm gli dà filo da torcere. Il limite del silicio è vicino e quando AMD arriverà ad 1nm, Intel avrà ancora margine di miglioramento, ma spero che prima di arrivare al limite trovino una valida alternativa al silicio.
Vorrei parlare con gli spacciatori di Intel, sembrano ben forniti
Ultra potrebbe significare una fascia di gamma di processori che hanno vinto la lotteria del silicio, quindi più affidabili con le performance dichiarate e anche in Overclock
Penso sia un po’ azzardato, anche perché gli i9 non binnati dove finirebbero?
Ooooh finalmente dopo 200mila anni ce l'hanno fatta a passare ai 7 nanometri.
Io devo sostituire un 9900k credo che prenderò fascia ultra per quello che ho capito ...in ogni caso tanto quando escono farai sicuramente un video dove spieghi tutto nel dettaglio 😀👍
Già mi immagino i padri di famiglia al Mediaworld per comprare un pc al figlio, vedono la scritta ultra e pagano 800 euro per un soc medio gamma e display hd.
Finalmente si scende ai 7nm, quei 10 sinceramente stonavano
Non grandi novità, a parte i nomi
Secondo me se metteranno 1470K faranno confusione
Interessante.
Bene, tanto per incasinare ancora di più con i nomi/numeri
Mi sto scimunendo da 10 giorni per scegliere cpu e scheda madre senza scuotere il nodo è questi se ne vengono con altra carne al fuoco? Aiutooo
Dimmi budget build e obiettivi che ti aiuto
@@MoreThanTech intanto grazie infinite. Il budget può variare da 1000/1800. Col computer ci devo far musica con cubase (non so se conosci questo software). Quindi non ho bisogno di schede video importanti, overclock o altre cose che servono per il gaming (non gioco mai). Serve una macchina abbastanza semplice ma espandibile, intendo che supporti fin da subito ddr5 con frequenze alte, 2,3 slot m2nvne, la possibili di aggiungere porta thunderbolt se non già presente sulla mobo, più o meno queste sono le caratteristiche che mi occorrono. L escursione economica è dovuta dal fatto che se con 1000/1300 avrò prestazioni molto simili a un pc di 1800 , beh se posso risparmiare qualcosa va bene, ma se si deve impallare il pc quando andrò a caricare le tracce midi e audio con plugin e vst pesanti, allora vado anche oltre i 1800. Alcuni in rete dicono che potrebbe bastare un computer non troppo performante perché rischierei di non sfruttarlo manco al 50%… Questo è il dilemma… grazie ancora
@@ginomontano3259Ciao, ti serve ancora la build?
@@meniko3379 si
@@ginomontano3259 okk te la posso preparare ma dove te la mando?
Mi dispiace per i7 e i9
Intel potrà anche chiamare il suo processo produttivo "Intel 7" ma, i consumi delle sue CPU tradiscono la vera natura della litografia ormai superata da anni a 10nm che sono stati costretti ad utilizzare fino alla 13gen.
Ma in realtà no, ne avevo parlato nella recensione del 13900k
I consumi non sono correlati al processo produttivo in maniera assoluta. Io posso fare i processori più con la litografia più “piccola” al mondo e avere comunque cpu da 341 W. Quella che ne deriva è l’efficienza, cioè quanti W andranno a essere consumati per un’operazione
E se li lasci bloccati, i 13th sono MOLTO efficienti
Come lo sono le RTX 40
Cambiare sigle e nomenclature delle varie cpu brava intel 👏 molto utile quanto portare Bocelli a provarsi degli occhiali da vista 🤦♂️
Aspetto un pc U5 e U750
Troppe sigle x ingannare meglio il pubblico ma tanto Intel le prenderà ancora dai futuri nuovi ryzen soprattutto nel settore gaming come sempre
Speravo di avere un altra generazione con lo stesso socket. Il 13900k che ho acquistato secondo te quanto potrà essere longevo?
I processori sono molto longevi in generale, dipende tutto dalla risoluzione, giochi e applicativi che vuoi toccare. Io per esempio gioco ancora con un 10850k e tolto qualche titolo rientra ancora perfettamente nelle mie necessità :)
@@rolandopavin73 dai poveraccio rosica di meno
A mio parere cambiano tanto ma il leadere sul settore secondo me rimane Apple
Non mi piace proprio come idea. Creano solo confusione.
cambio del piffero
La vera notizia secondo me è che intel è vicina alla cpu quantica.....
Altra grande news ma esula dalle mie competenze tecniche per ora ❤
speriamo che torni l oc globale e non solo per i k so che non sarà cosi ma uno spera tanto è gratis
lol gli ecore si possono occare tranquillamente
@@GuidoDePalma si ma non nei processori senza la K, le vecchie cpu intel _(edit: epoca del core duo quad per capirci)_ erano come i ryzen oggi: non importava il nome erano tutti sbloccati!
Ma sticazzi, tanto oramai le CPU arrivano già spinte al limite (guarda il 7950X ch con metà dei consumi perde il 5% delle performance). L'overclock è morto
@@maverickvgc4220 l oc non è morto, e comunque se permetti vorrei poter gestire il mio processore come piu mi aggrada soprattutto ora che si puo fare oc del singolo core, magari a me servono solo due core che spingono a manetta insieme a la cache e degli altri 10 non me ne faccio nulla, anzi di prendere un k potrei risparmiare e prendere un non k o anche semplicemente non prendere una z ma una b o una h.
per esempio i 9000 e i 10000 non so se anche gli 11000 si overclockano abbastanza facilmente.
Poi se uno vuole ogni briciola dal suo processore dovrebbe essere libero di farlo senza pagare extra
peccato che è tutto marketing.
And remember::it's just a theory...a GAAAAMING THEORY. Thanks for watching.
Grande
Mizzica però avevo appena scelto amd ryzen9 7900x dopo una vita di Intel e mo esce sta roba e vabbè
Mah, non vedo cosa ci hai perso.
@@maverickvgc4220 dici?
@@dariusleplus le performance sono le stesse, i consumi sono più bassi e sei su una piattaforma più longeva
@@maverickvgc4220 Grazie sei stato esaustivo e molto utile, grazie molte.
7 è più basso di 10? eh va beh, si compra Intel allora.
Sento puzza di aumento prezzo alla Apple 😂 e beh 3d V per forza gli manca dire il miglior processore da GAMING 😂 sono possessore di i7 11700k ma stanno andando fuori rotta 😂
figa sta maglietta
L'ho fatta io durante un workshop di Amazon, grazie 👀🔥
@@MoreThanTech bravo! Carina davvero.
quindi Intel i9 diventa intel 9. praticamente hanno tolto la i ? ahahahahah
Più le altre 19 cose che dico nel video si
oramai "ultra" va di moda da dire
Si però io voglio l'Intel Core Ultra Pro Max 9 1490k-P (la P sta per "potente", il resto non fa intendere quanto sia potente)
@@MoreThanTech hahah si
A me Ultra ha fatto subito tornare in mente la versione "speciale" della GTX 8800
Intel e avanti luce con i processori quantici e non riesce a fare cpu a 4 nm
5:20 "differenziazzzziiiIAAAOONEE" oh ma vedi te se io dopo 8 ore di ininterrotto lavoro in fabbrica in cui mi spacco la schiena devo sentire degli accenti gay del genere...
Che concentrato potentissimo di italiano medio in 'sto commento
AMD tutta la vita
barbie
Apple 3 nm
tutto marketing sostanza sempre la stessa
i processori ultra avranno piu' cache (3d smart cache) e probabilmente supporteranno solo memorie ddr5, ma secondo me ci sara' altro come conta dei core piu' alta per renderli ultra rispetto ai basic
Penso che questa fosse già l'ultima generazione ibrida 4/5, portarne un'altra avanti sarebbe molto strano
Ciao morethantech avrei bisogno di aiuto io ho un i3 10100f e da circa tre giorni la cpu ha cominciato a lavorare al 100% non so il pk ho provato a sistemare le impostazioni ho a scannerizzare tutto il pc con due antivirus diversi ma niente non é un problema che ho da sempre é nato nel giro di un giorno non so come se sai come aiutarmi o se qualcuno che sta leggendo e sa come aiutarmi pls rispondete qua sotto🥲
Grazie intel per dimostrare come sempre di essere la casa produttrice che si interessa di meno hai suoi consumatori