Ragazzi, mi sono accorto che nel video ho chiamato "5080" la mia RTX 4090 Gaming X Trio, a causa della stanchezza mi è uscita una frase ambigua.😂Nel video NON compare la RTX 5080 Quella è la 4090 e potete constatarlo da molti contenuti sul mio canale antecedenti al lancio e dalla recensione stessa della RTX 5090 dove è presente come RTX 4090! Colpa mia e della stanchezza per l'incomprensione!
Preciso una cosa sui calcoli: i 114 W (che sono solo del *memory subsystem*, quindi VRAM e PHY+controller) derivano dai numeri forniti da nvidia e da un paio di "triangolazioni" con altre schede e versioni di GDDR. Con gli stessi conti risulta essere in linea con i consumi del sottosistema di memoria della 4090, nonostante la banda e la quantità di memoria maggiori, ma l'aumento di efficienza non è appunto sufficiente ad abbassare l'assorbimento effettivo (in teoria aumenta di un paio di W, ma è nel margine di errore). Purtroppo non posso calcolare tutte le perdite del PCB, ma quello che è sicuro è che, al diminuire della potenza assorbita dalla GPU, aumentano in proporzione (non in valore assoluto) i consumi dei VRM e del memory subsystem. In poche parole non si può scendere più di tanto sotto i 400 W sulla 5090 senza perdere prestazioni in game, anche considerando l'undervolt; per andare oltre bisognerebbe abbassare la frequenza della vram e diminuire il numero di fasi di alimentazione, o perlomeno diminuire la frequenza di switching.
E pensare che quando cambiai la mia Radeon 5870 dal Tdp di 185W del 2009, con la Gtx 980 da 165W nel 2015 dissi: caspita dopo circa sei anni che efficienza nei consumi! 😮
Per la serie 6000 tocchera' ampliare casa dedicando una stanza alla gpu? ..Se avete dei parenti o figli che vivono con voi cominciate a dargli lo sfratto gia da ora..XD
Quindi di fatto questa 5090 È PIÙ EFFICIENTE della 4090, visto che se cappate agli stessi consumi, il divario prestazionale resta (o sarebbe più corretto dire che la nuova architettura è più efficiente della scorsa, e ci mancherebbe). Il problema sono quegli enormi 150W in più che in proporzione aggiungono poche prestazioni in più cercando di giustificare uno spropositato aumento di prezzo che giustificabile non lo è per niente. È la ripartizione delle fasce di prezzo che come al solito è penosa e totalmente sballata. In pratica se uscisse una 5080Ti a 450W con queste prestazioni, sarebbe lei la VERA SOSTITUTA della 4090. La conclusione è che viene sempre più difficile paragonare le top di gamma tra di loro, se ogni volta la fascia di consumo e di prezzo cambia in maniera così idiota…
Sicuramente è una scheda che andrebbe gestita esclusivamente utenti che sanno destreggiarsi con le curve si afterburner. Ma in ogni caso il rapporto prestazioni consumi rimane esageratamente sfavorevole. Il mondo hardware deve tornare a puntare sull' efficienza e non pretendere consumi abominevoli in cambio di prestazioni non alla pari. Vedo poi che nessuno parla del fatto che sia stato eliminata la possibilità di leggere l hot spot. Questo probabilmente è ancora peggio, specie per hw del genere...
L'andamento dei prezzi è pessimo per i negozi italiani parliamo di 5080 custom intorno o sopra i 1.600 euro per prestazioni imbarazzanti solo del 15/20% rispetto alla vecchia 4080 che sono sempre rimasti a 1.200/1.400 euro. Sento spesso giustificare il miglioramento prestazione per aumentare i prezzi invece di sostituire i prodotti precedenti. I tempi della pandemia sono ormai lontani, peccato che non si pensi a incentivare un mercato che non cresce più. Un vero peccato la prima generazione dove una 70 ti non raggiunge le prestazioni della vecchia top di gamma ma affianca la 70 ti della vecchia generazione 😂😅
Ciao, vorrei assemblare un pc da 1700 euro soprattutto per il gaming, ma anche per il lavoro, con cpu intel core ultra 7 265k e nvidia rtx come gpu, cosa mi consiglieresti ? E come mai c’è tantissima gente che consiglia processore amd e non intel ? Grazie
Intel diciamo he sta facendo un po' schifo in questo ultimo periodo, se vuoi andare solo per il gaming un 9700x e una 4070 ti super su due piedi ti direi che è la scelta migliore oppure una 4080 super, se vuoi restare su Intel (se ci fai un minimo di produttività è meglio) vai con 14700k e sempre una delle scelte che ti metto prima
@@MoreThanTech di nulla, avrei 2 domande 1) a piena potenza con dlss4+PT+fmgx4 cyberpunk riesce a girare a 240fps, quanto perde con la potenza ridotta a 420W? 2) settando dlss4+PT+fmgx4 ma mettendo il limite a 120fps (o il v-sync per i monitor a 120/144hz) la gpu riesce a scendere anche sotto i 420W?
Anche la 4090 ha questo TDP fuori di testa che poi porta a pochi risultati, Derbauer aveva un video dove la limitava a 300W e perdeva tra il 5 ed il 10%.
Ciao a breve dovrei cambiare CPU quindi devo cambiare anche la scheda madre....secondo te una configurazione con una GTX 1650 di Asus e una Intel core i5 10400 e buono per il gaming? Comunque bel video mi stupisci ogni volta 👍
Ciao, personalmente se non hai stretta necessità di un PC ti consiglierei di passare su console piuttosto che prendere una 1650, finisci a dover rosicchiare molti giochi per usarli decentemente Poi va in base alle preferenze, chiaro!
@@mattex2618 per quel gioco va bene ma come consigliato, se giochi anche ad altro meglio una console. Valuta anche di non comprare nulla e di farti il game pass ultimate e giocare via cloud.
Si effettivamente ormai dalle 2000 in poi ho sempre avuto schede che salivano molto in vram, quindi riducendo il PL ma aumentando il clock vram alla fine consuma meno ma mantieni le prestazioni, a giudicare da questo test è possibile che valga ancora una volta tutto ciò. Ovviamente poi è da vedere come si comportano le gddr7 a livello di overclock, ma in linea di massima, me lo aspetto.
@@Nathan01Drake Per la mia limitata esperienza in oc ti dico che ho ottenuto più benefici dall'oc della gpu piuttosto che della vram, poi come hai detto te non ho idea di come si comportino le gddr7, quindi sarà da approfondire. Ma sicuramente non lo approfondiro con la 5090... Non ho tutti sti soldi ahahhaha
Invece di puntare all'efficienza prestazionale ed energetica, otteniamo schede video sempre più grandi, più energivore e più bisognose di un potente sistema di raffreddamento. Che vergogna. Speriamo che in futuro la situazione cambi.
@appaio "falso" un paio di palle. Fin'ora così è stato, e venire a parlare della serie 5000 ,unica esclusione alla situazione che ho descritto, è sbagliato. Magari è un primo passo verso l'efficienza, ma ancora ce ne vuole per arrivare a una certa decenza.
@@appaio forse hai bisogno tu di un dizionario e pure di capire ciò che scrivi. Io ne sono perfettamente conscio. Non c'è nulla da discutere. Il mio messaggio iniziale è incontestabile. Buona giornata.
400 W sono la scelta più intelligente, poi chissà facendo UV, probabilmente la differenza si appiattirebbe ulteriormente. Ancora più intelligente però sarebbe non comprare questa scheda 😅 Bel video!
Ragazzi... Giacchetta ringrazia tutti noi utonti per aver seguito la sua supercazzola del Ray Tracing... 9 anni fa...lui era davanti a un bivo... oggi non esistono giochi in grado di impensierire le sk video top di gamma... idea!!!... metto una funzione che in Hardware non è fattibile al giorno d'oggi, poi mi invento l' upscaler per poter far finta di poterlo usare... e noi utonti ci cadiamo come polli... e per usarlo ti crei artefatti e latenze che non hanno senso... e pensare che l'altra soluzione era lavorare sull'efficienza al posto che sulle supercazzole... in ogni caso ringrazio giacchetta visto che ho guadagnato il 100% in azioni di Nvidia... per me il mult resta ne cassetto.. aumenta le latenze e fa scendere il minimum frame rate...
Non è che lo fa scendere, è che i programmi basati su RTSS non riescono a vederlo perché non sono programmati per quello Solo l’overlay di nvidia lo rileva correttamente Comunque sei un po’ confuso sull’argomento RT: il concetto esiste da prima di Nvidia, è una standard cinematografico da molto prima di 9 anni fa ed è la naturale evoluzione di qualsiasi media che calchi quella strada Nvidia semplicemente essendo l’azienda più “libera” del tempo (AMD ancora stava annaspando con Vega e il pesantissimo periodo dopo l’orlo della bancarotta) ha saputo cavalcare un trend che sarebbe arrivato a prescindere da loro, anche perché l’RT (poi RTRT) nasce, ripeto, nel cinema e anche loro ora fanno largo uso di simulazioni in tempo reale, così come mostrato nel video precedente per architettura e altri ambiti Il vero problema del gaming è un altro: gli sviluppatori. Ci sono svariati video online che dimostrano come piccole soluzioni possano effettivamente migliorare di tanto la QOL dei giochi, impattando meno sulle prestazioni RDR2 è un esempio di un titolo che persino senza RTRT riesce a rendere benissimo, ma non è così per tutti quelli esistenti ed è una questione di un mercato che sta diventando il McDonald’s delle produzioni videoludiche
sarei curioso di vedere l'efficienza dell'architettura a 60fps su quei giochi in cui sia la 4090 che la 5090 venga superata questa soglia senza il frame cap.
Bel test! Probabilmente NVIDIA ha voluto pompare le percentuali di incremento rosicchiando anche gli ultimi FPS. Sinceramente preferisco impostazioni che curano l'efficienza. 🔝🍺
perché nvidia app fa un overclock automatico e quindi invece di decrementare il wattaggio, lo incrementa. In piu forse l'overclock di nvidia app non funziona in realtà, cioè non viene applicato
Numeri alla mano sembra che 13 fps di differenza tra 5090 predefinita e 5090 a 420 W siano tanti, ma tra 104 e 117 fps l'occhio neanche nota che c'è questo margine, oppure se lo si nota è perché proprio si vuole fare caso alla differenza; secondo me è un esperimento dai riscontri molto positivi. Recensione della 5080 a quando?
siccome sono interessato ad acquistare la 5090, mi converebbe accopiarla con un ryzen 9900x o un 9800x3d? so che gli x3d sono ottimi per il gioco, ma per quanto riguarda la produttività di contetuni e streaming com'è?
@@_.francescodm in linea generale gli x3d sono consigliati per giocare e dipende sempre a quale risoluzione. Fanno cagare lato produttività. Forse l'unico processore interessante che potrebbe difendersi su entrambi i fronti è il 9950x3d
Provo a risponderti io, anche se non sono un esperto in ambito pc, ma solamente un appassionato che si è avvicinato in modo approfondito da 3/4 anni a questa parte. Se il tuo obiettivo fosse quello di puntare sulla risoluzione 1080p allora ti dico di dargli un occhio, siccome anche su amazon, a differenza delle altre schede della serie 4000, la 4060 ti ha ancora un prezzo abbastanza umano (la stessa nvidia punta attualmente a mantenere questa scheda ancora in produzione per un po', per tenerla come entry level attuale ambito pc). Se invece puntavi a una risoluzione 1440p o addirittura 4k, la 4060ti non va proprio bene e piuttosto che puntare sulle altre della serie 4000, ti suggerisco di provare a dare un occhio quando usciranno le recensioni della fascia bassa/media delle nuove 5000.
@matteocoffani2838 ok grazie, il mio futuro pc lo farò con un budget di 1400, voglio informarmi il più possibile perché ho ancora 16 anni e non sarebbe una ottima cosa buttare 1400 euro dopo aver lavorato tutta l'estate, grazie🔥
Con 1400 euro (escluso monitor?) vai sulla 7800xt. Ma piuttosto della 4060 meglio anche la 7700xt. Contando che potrai sicuramente giocare solo ed esclusivamente in full HD, non potrai di certo giocare in ray tracing, vai di amd che hanno rapporti qualità prezzo di gran lunga superiori in quella fascia di prezzo. Con 100 euro in più hai un incremento notevole di performance. Tanto se spendi 500 euro per una scheda video per il full HD, con un buon monitor 144hz o +, ti avanzano i 1400 euro fidati
@@andreasolca868 Per me l'overclock ha senso semmai su schede di fascia media dove sulla carta si possono avere più margini e maggiore utilità in fatto di aumenti prestazionali...su schede come la 5090 che già fanno centinaia di fps e tendenzialmente sono già "tirate" di loro ci sono più svantaggi che vantaggi.
600watt... e poi ci sono io con l'intero sistema vado al massimo 230 watt😂😂 felicissimo col cavolo 600 watt di gpu... con i rialzi delle bollette manco per sogno. Felice possessore della mia 4060 ti 16gb vram 165 watt massimi e gioco tutto maxxato in 2k senza problemi.
Sinceramente non vedo granché su questa nuova generazione di schede....una generazione nuova dovrebbe avere un aumento del 20% do prestazioni almeno, ma a parità di consumi e soprattutto senza dover andare a cambiare manualmente le impostazioni della scheda....poi certo questa è la 5090 dove tutti si aspettavano appunto un miglioramento, ora bisogna vedere la 80 e le altre se effettivamente hanno un miglioramento oppure no, contando sempre i consumi....se alla fine ho un +20% di prestazioni ma anche di consumi sinceramente non vedo nulla di eccezionale....se per accendere un pc devo fare un contratto di un kwatt in piu in casa, ufficio o ambiente dove lo si usa...anche no (considerando poi anche il prezzo della scheda)
L'osservazione che vorrei buttare nel mezzo è la seguente: Da sempre, per migliorare l'efficienza le prestazioni e tutto il resto, si passava ad un processo produttivo migliore (oltre alle migliorie architetturali, ma diciamo che il grosso lo hanno sempre fatto i processi produttivi più avanzati e sofisticati). Negli ultimi decenni, siamo passati dai 130nm ai 90nm ... poi 65, 45, 32, 22, 10, 7, 5, 4 etc etc ... avrete già capito dove voglio andare a parare. Ci stiamo avvicinando al limite fisico del rimpicciolimento della materia ... una volta arrivati allo 0 (zero) virgola qualche decimale nanometri, dopo come la mettiamo nome ... come si avanza ?. Io credo che più andiamo avanti e più sarà complesso e costoso andare a creare nuove generazioni di chip che siano più veloci delle precedenti ... dopotutto converrete con me che, se viene meno l'innovazione del processo produttivo (causa impossibilità fisica dei materiali, e ripeto che ormai siamo sempre più vicini allo zero), l'unico modo per ottenere più prestazioni sarà quello di aumentare il numero dei transistor, ma questo aumenterà inevitabilmente la grandezza dei chip, i consumi, la produzione di calore e tutto il resto. Voi cosa ne pensate ?
Quando si sta per arrivare ad un limite tecnologico per evitare uno stallo completo (che sicuramente non è il massimo) ci possono essere delle soluzioni (al momento ipotizzo cose totalmente ipotetiche, quindi da prendere con le pinze per il "semplice" scopo didattico): 1) Cambiare totalmente sistema, come fu dal passare alle valvole ai transistor. Cambiando di molto (o totalmente) per un sistema migliore (già nei primi tempi o in seguito) fa la differenza. Sarebbe la soluzione migliore, ma ciò richiede moltissima ricerca, sviluppo, fallimenti ed anche colpi di fortuna. 2) In attesa del cambio di tecnologia si può provare a fare delle ulteriore migliorie (ipotizzo: cambio della forma che, magari, può aiutare. Scelta di un materiale simile ma più prestante, anche parziale. Miglioramento lato software, cosa che già si sta tendendo a fare grazie ad i vari Super Sampling Imagine ed ottimizzatori di vario tipo. Cambio della struttura logica anche in modo limitata. Ecc...) è ovvio che tutto ciò che ho scritto sopra è molto generico e molto semplificato, ma serve per rendere un po' l'idea con la speranza di aver risposto alla domanda (anche se ipotizzo parzialmente).
Non si rimpicciolisce la materia ma il "solco" che i laser scavano. Al momento come soluzione si pensa di cambiare il silicio con il carbonio se non ricordo male. Ma dlss e framegen sono la risposta a ciò che chiedi.
bro si arriverà ad un limite tra pochi anni, UN ESEMPIO? I telefoni, sono da circa 2 anni che sia samsung che Apple non fanno qualcosa di diverso o nuovo, sempre le stesse cose con qualche cambiamenti qua e là, il rimpicciolire i componenti e solo una delle caratteristiche che aiuta a ridurre temperature e grandezze ma volendo basterebbe una specie di rivoluzione o comunque un nuovo tipo di tecnologia.Piu che impicciolire i chip punteranno sicuramente in futuro a rimpicciolire il dissipatore e l intera pcb, magari fare un pcb con le componenti FRONTE RETRO è con un sistema di raffreddamento sofisticattissimo arriveresti ad avere le prestazioni di una 5090 racchiuso tutto all interno di una scheda grande quanto una sola ventola no, o addirittura ma mi sembra difficile arrivare ad avere una scheda video con prestazioni migliori della 5090 o oltre tutto racchiuso in un unico chip simile ad un processore no? Ciò che succederà lo dirà solo il tempo.
Passare dal silicio al grafene o disolfuro di molibdeno, non ci fermeremo mai, e non esiste un limite fisico al momento. Si potrebbero fare un sacco di cose solo che a loro conviene così perché ci guadagnano molto di più, ti truffano alla grande, ti costringono a cambiare hardware ogni 3*2, ti infilano porcate tipo dlss multi frame gen e cazzate inutilissime ai fini di ciò che paghiamo, insomma avete capito in che disastro di mondo viviamo oppure no? Potrei proseguire sino alla mia morte e non avrei finito di elencare tutto. E sappiate che per noi comuni mortali le tecnologie che spacciano per nuove sono già vecchie almeno di 10 anni se non di più. Ricordate noi siamo pecore al pascolo e loro sono i pastori non ci faranno mai sapere ciò che non vogliono che noi sappiamo!
Ragazzi siamo nel 2025!! 50w dovrebbero essere considerati eccessivi, non 500!! Sono 20 anni che questi sfornano prodotti sempre più assurdi, in termine di consumi e non sono mai soddisfatti!! Ma non vi sentite ridicoli ad inserire nel case un’automobile al posto di una semplice scheda? Composta da dissipatori e triple ventole, sempre più rumorose e grandi? Non esiste che nel 2025 si producano questi livelli di consumi: il produttore si dovrebbe vergognare al solo proporli alla vendita e al pubblico, ma la colpa probabilmente è anche del consumatore. Mi auguro questa ridicola nicchia di mercato imploda su se stessa e non venga affatto seguita come esempio dal resto del mercato (telefoni, tablet, console). Siamo oltre al ridicolo da 10 anni, e si prosegue dritti a testa bassa altre ogni logica. Non rimpiango di essere passato dai pc al tablet per il mio utilizzo privato e alle console per l’utilizzo in game! nemmeno un po’!
Comprendo che gli altri non siano me, e che abbiano necessità diverse, ma a me personalmente come range di scheda video, per l'uso del pc che ne faccio io, interessa la 5060/5060 Ti/5060 Super biventola manco triventola (quando escono le serie 60). Non sento la necessità di andare oltre i 300/massimo 500 € di scheda video. Reputo stupido(sempre personalmente sott'inteso) spendere 2.500,00€(avendoli) per una scheda video, considerando che fra soli 2 anni ci sarà la serie nuova. Con me ripeto per l'uso che ne faccio io attualmente, una 5090 sarebbe solo uno spreco di soldi, spazio nel case, corrente e risorse prestazionali. Il mio parere sulle schede Nvidia 90.
Una scheda top di gamma dovrebbe durare 3 generazioni di schede in genere, ad esempio per chi ha comprato una 1080 ti adesso è il momento di aggiornarla. Chi acquista la top in genere spende una volta e la tiene, poi c'è chi vuole il nuovo sempre, c'è chi non si accontenta mai. Io ad esempio voglio un pc che spendo una volta e mi duri almeno 6 anni se di più ancora meglio, non posso comprare la base perché dopo 3/4 anni la devo cambiare, mi metto sulla fascia alta di AMD e son sicuro di non spendere un rene e che mi duri
Nvidia aumentando sempre piu' i consumi sta seguendo la brutta strada di Intel, ma hanno il monopolio e nessuno puo' contraddirli. Beh almeno sviluppano buoni sistemi di dissipazione
Un'altra scheda da smanettoni, dato che bisognerà fare lock della potenza con msi afterburner dal grafico ( Ctrl+F ) o addirittura downvolt perché tanto se fatto been perdi massimo 10fps (multi-framegenerati 40 🤣) perché se non lo si fa poi magari finisce come le 3090 e 3080 di vari brand che si bruciavano con new world
sto sinceramente rivalutando l'acquisto dopo il discorso dei consumi. Ho trovato una 4090 a 1600€ con ancora due anni di garanzia e sinceramente un po' mi sta facendo tentennare.
una scheda tanto potente e poi dlss 4 per giocare in sottoscala? vabbè inutile aggiungere altro Sul discorso grandezza 2025 montateci dei dissipatori a liquido di serie da 240 .
Ragazzi, mi sono accorto che nel video ho chiamato "5080" la mia RTX 4090 Gaming X Trio, a causa della stanchezza mi è uscita una frase ambigua.😂Nel video NON compare la RTX 5080
Quella è la 4090 e potete constatarlo da molti contenuti sul mio canale antecedenti al lancio e dalla recensione stessa della RTX 5090 dove è presente come RTX 4090!
Colpa mia e della stanchezza per l'incomprensione!
Paura heee? si capisce, tranquillo :) domanda... con i drivers nuovi, hai visto cambiamenti di FPS con la 4090?
@@BlackDancer74devo ancora testarlo di nuovo!
Nvidia stava già per chiamarti 😂
Tranquillo :)
Preciso una cosa sui calcoli: i 114 W (che sono solo del *memory subsystem*, quindi VRAM e PHY+controller) derivano dai numeri forniti da nvidia e da un paio di "triangolazioni" con altre schede e versioni di GDDR. Con gli stessi conti risulta essere in linea con i consumi del sottosistema di memoria della 4090, nonostante la banda e la quantità di memoria maggiori, ma l'aumento di efficienza non è appunto sufficiente ad abbassare l'assorbimento effettivo (in teoria aumenta di un paio di W, ma è nel margine di errore).
Purtroppo non posso calcolare tutte le perdite del PCB, ma quello che è sicuro è che, al diminuire della potenza assorbita dalla GPU, aumentano in proporzione (non in valore assoluto) i consumi dei VRM e del memory subsystem. In poche parole non si può scendere più di tanto sotto i 400 W sulla 5090 senza perdere prestazioni in game, anche considerando l'undervolt; per andare oltre bisognerebbe abbassare la frequenza della vram e diminuire il numero di fasi di alimentazione, o perlomeno diminuire la frequenza di switching.
E pensare che quando cambiai la mia Radeon 5870 dal Tdp di 185W del 2009, con la Gtx 980 da 165W nel 2015 dissi: caspita dopo circa sei anni che efficienza nei consumi! 😮
Per la serie 6000 tocchera' ampliare casa dedicando una stanza alla gpu? ..Se avete dei parenti o figli che vivono con voi cominciate a dargli lo sfratto gia da ora..XD
Servirà anche ampliare i kW lato gestore dell'energia elettrica... :D
Quindi di fatto questa 5090 È PIÙ EFFICIENTE della 4090, visto che se cappate agli stessi consumi, il divario prestazionale resta (o sarebbe più corretto dire che la nuova architettura è più efficiente della scorsa, e ci mancherebbe). Il problema sono quegli enormi 150W in più che in proporzione aggiungono poche prestazioni in più cercando di giustificare uno spropositato aumento di prezzo che giustificabile non lo è per niente. È la ripartizione delle fasce di prezzo che come al solito è penosa e totalmente sballata. In pratica se uscisse una 5080Ti a 450W con queste prestazioni, sarebbe lei la VERA SOSTITUTA della 4090. La conclusione è che viene sempre più difficile paragonare le top di gamma tra di loro, se ogni volta la fascia di consumo e di prezzo cambia in maniera così idiota…
Sicuramente è una scheda che andrebbe gestita esclusivamente utenti che sanno destreggiarsi con le curve si afterburner. Ma in ogni caso il rapporto prestazioni consumi rimane esageratamente sfavorevole. Il mondo hardware deve tornare a puntare sull' efficienza e non pretendere consumi abominevoli in cambio di prestazioni non alla pari. Vedo poi che nessuno parla del fatto che sia stato eliminata la possibilità di leggere l hot spot. Questo probabilmente è ancora peggio, specie per hw del genere...
5080: "non la posso far vedere CIT.
È una 4090 quella in video!
@@MoreThanTech 🤣
.
Scusate ma come avete messo il clock della CPU e delle memorie con la riduzione di potenza su firestorm?
La cpu è rimasta inalterata, idem ogni valore della scheda video
è solo un test approssimativo sull'efficienza della scheda
@MoreThanTech grazie mille, in pratica hai solo abbassato il Power Limit?
Si
Gli rgb della suprim x si possono controllare anche tramite il software scheda madre(non msi) o devi installare msi center necessariamente?
Ma puo essere anche che con qualche nuovo driver venga ottimizzato il consumo eccessivo in gaming di questa scheda secondo te?
Non penso, non è un errore ma una scelta ponderata a tavolino
Non lo hanno fatto per la 4090, dubito lo faranno per questa
Un video dove provi anche undervolt e più in generale un tuning più di fino quando? 🙏🙏
L'andamento dei prezzi è pessimo per i negozi italiani parliamo di 5080 custom intorno o sopra i 1.600 euro per prestazioni imbarazzanti solo del 15/20% rispetto alla vecchia 4080 che sono sempre rimasti a 1.200/1.400 euro. Sento spesso giustificare il miglioramento prestazione per aumentare i prezzi invece di sostituire i prodotti precedenti. I tempi della pandemia sono ormai lontani, peccato che non si pensi a incentivare un mercato che non cresce più. Un vero peccato la prima generazione dove una 70 ti non raggiunge le prestazioni della vecchia top di gamma ma affianca la 70 ti della vecchia generazione 😂😅
Infatti si cambia produttore da Nvidia a AMD, almeno non vendo i reni
Ciao, vorrei assemblare un pc da 1700 euro soprattutto per il gaming, ma anche per il lavoro, con cpu intel core ultra 7 265k e nvidia rtx come gpu, cosa mi consiglieresti ? E come mai c’è tantissima gente che consiglia processore amd e non intel ? Grazie
Intel diciamo he sta facendo un po' schifo in questo ultimo periodo, se vuoi andare solo per il gaming un 9700x e una 4070 ti super su due piedi ti direi che è la scelta migliore oppure una 4080 super, se vuoi restare su Intel (se ci fai un minimo di produttività è meglio) vai con 14700k e sempre una delle scelte che ti metto prima
che diminuzione di temperature hai notato tra stock e 420W?
Ciao! Hai ragione, non ne abbiamo parlato: circa 5-6°C sono andati via!
@@MoreThanTech di nulla, avrei 2 domande
1) a piena potenza con dlss4+PT+fmgx4 cyberpunk riesce a girare a 240fps, quanto perde con la potenza ridotta a 420W?
2) settando dlss4+PT+fmgx4 ma mettendo il limite a 120fps (o il v-sync per i monitor a 120/144hz) la gpu riesce a scendere anche sotto i 420W?
Anche la 4090 ha questo TDP fuori di testa che poi porta a pochi risultati, Derbauer aveva un video dove la limitava a 300W e perdeva tra il 5 ed il 10%.
Ciao a breve dovrei cambiare CPU quindi devo cambiare anche la scheda madre....secondo te una configurazione con una GTX 1650 di Asus e una Intel core i5 10400 e buono per il gaming? Comunque bel video mi stupisci ogni volta 👍
Ciao, personalmente se non hai stretta necessità di un PC ti consiglierei di passare su console piuttosto che prendere una 1650, finisci a dover rosicchiare molti giochi per usarli decentemente
Poi va in base alle preferenze, chiaro!
@@mattex2618 è una vga vecchia con una gpu vecchia. Dipende tutto a cosa giochi, come giochi e quanto ti costa il tutto.
Lo uso per giocare a Minecraft va bene comunque?
@@mattex2618 per quel gioco va bene ma come consigliato, se giochi anche ad altro meglio una console. Valuta anche di non comprare nulla e di farti il game pass ultimate e giocare via cloud.
Ok però almeno e una buona combo GTX 1650 e Intel core i5 10400?
Speriamo che sia anche per la RTX 5070ti , vorrei prenderla ma ho un MSI mpg da 650w e non ho voglia di cambiarlo visto che mi trovo alla grande
Una volta che usciranno le schede con i driver completi sarà interessante fargli undervolt e overclock
Si effettivamente ormai dalle 2000 in poi ho sempre avuto schede che salivano molto in vram, quindi riducendo il PL ma aumentando il clock vram alla fine consuma meno ma mantieni le prestazioni, a giudicare da questo test è possibile che valga ancora una volta tutto ciò.
Ovviamente poi è da vedere come si comportano le gddr7 a livello di overclock, ma in linea di massima, me lo aspetto.
@@Nathan01Drake Per la mia limitata esperienza in oc ti dico che ho ottenuto più benefici dall'oc della gpu piuttosto che della vram, poi come hai detto te non ho idea di come si comportino le gddr7, quindi sarà da approfondire.
Ma sicuramente non lo approfondiro con la 5090... Non ho tutti sti soldi ahahhaha
Invece di puntare all'efficienza prestazionale ed energetica, otteniamo schede video sempre più grandi, più energivore e più bisognose di un potente sistema di raffreddamento. Che vergogna. Speriamo che in futuro la situazione cambi.
passa la roba che ti fumi anche a noi....
@@appaiosi anche un tir a 5 assi ha un consume per ruota inferire alla Panda, ma che cazzo di paragoni fai ?!
@@mari8it forse devo ricordare cosa significhi efficienza? non credo. faccio i paragoni per dimostrare che l’efficienza di x > di y
@appaio "falso" un paio di palle. Fin'ora così è stato, e venire a parlare della serie 5000 ,unica esclusione alla situazione che ho descritto, è sbagliato. Magari è un primo passo verso l'efficienza, ma ancora ce ne vuole per arrivare a una certa decenza.
@@appaio forse hai bisogno tu di un dizionario e pure di capire ciò che scrivi. Io ne sono perfettamente conscio. Non c'è nulla da discutere. Il mio messaggio iniziale è incontestabile. Buona giornata.
13:41 diciamo che come outro ti fa onore
400 W sono la scelta più intelligente, poi chissà facendo UV, probabilmente la differenza si appiattirebbe ulteriormente.
Ancora più intelligente però sarebbe non comprare questa scheda 😅
Bel video!
Ragazzi... Giacchetta ringrazia tutti noi utonti per aver seguito la sua supercazzola del Ray Tracing... 9 anni fa...lui era davanti a un bivo... oggi non esistono giochi in grado di impensierire le sk video top di gamma... idea!!!... metto una funzione che in Hardware non è fattibile al giorno d'oggi, poi mi invento l' upscaler per poter far finta di poterlo usare... e noi utonti ci cadiamo come polli... e per usarlo ti crei artefatti e latenze che non hanno senso...
e pensare che l'altra soluzione era lavorare sull'efficienza al posto che sulle supercazzole... in ogni caso ringrazio giacchetta visto che ho guadagnato il 100% in azioni di Nvidia...
per me il mult resta ne cassetto.. aumenta le latenze e fa scendere il minimum frame rate...
Non è che lo fa scendere, è che i programmi basati su RTSS non riescono a vederlo perché non sono programmati per quello
Solo l’overlay di nvidia lo rileva correttamente
Comunque sei un po’ confuso sull’argomento RT: il concetto esiste da prima di Nvidia, è una standard cinematografico da molto prima di 9 anni fa ed è la naturale evoluzione di qualsiasi media che calchi quella strada
Nvidia semplicemente essendo l’azienda più “libera” del tempo (AMD ancora stava annaspando con Vega e il pesantissimo periodo dopo l’orlo della bancarotta) ha saputo cavalcare un trend che sarebbe arrivato a prescindere da loro, anche perché l’RT (poi RTRT) nasce, ripeto, nel cinema e anche loro ora fanno largo uso di simulazioni in tempo reale, così come mostrato nel video precedente per architettura e altri ambiti
Il vero problema del gaming è un altro: gli sviluppatori. Ci sono svariati video online che dimostrano come piccole soluzioni possano effettivamente migliorare di tanto la QOL dei giochi, impattando meno sulle prestazioni
RDR2 è un esempio di un titolo che persino senza RTRT riesce a rendere benissimo, ma non è così per tutti quelli esistenti ed è una questione di un mercato che sta diventando il McDonald’s delle produzioni videoludiche
Infatti. Dopo sennò l'alimentazione €€💪
sarei curioso di vedere l'efficienza dell'architettura a 60fps su quei giochi in cui sia la 4090 che la 5090 venga superata questa soglia senza il frame cap.
Bel test! Probabilmente NVIDIA ha voluto pompare le percentuali di incremento rosicchiando anche gli ultimi FPS. Sinceramente preferisco impostazioni che curano l'efficienza. 🔝🍺
a quando la recensione della 5080?
Ma invece di usare programmi terzi, perchè non usi nvidia app per il power limit?
perché nvidia app fa un overclock automatico e quindi invece di decrementare il wattaggio, lo incrementa. In piu forse l'overclock di nvidia app non funziona in realtà, cioè non viene applicato
L’ho detto nel video, nessun programma funzionava!
Numeri alla mano sembra che 13 fps di differenza tra 5090 predefinita e 5090 a 420 W siano tanti, ma tra 104 e 117 fps l'occhio neanche nota che c'è questo margine, oppure se lo si nota è perché proprio si vuole fare caso alla differenza; secondo me è un esperimento dai riscontri molto positivi.
Recensione della 5080 a quando?
Ciao, gli embarghi per le custom decadono il 30!
siccome sono interessato ad acquistare la 5090, mi converebbe accopiarla con un ryzen 9900x o un 9800x3d? so che gli x3d sono ottimi per il gioco, ma per quanto riguarda la produttività di contetuni e streaming com'è?
@@_.francescodm in linea generale gli x3d sono consigliati per giocare e dipende sempre a quale risoluzione. Fanno cagare lato produttività. Forse l'unico processore interessante che potrebbe difendersi su entrambi i fronti è il 9950x3d
@fabiob9147 se mi dici così allora mi sa che mi tocca puntare più sul 9900x ahaha, poi non so come sara il 9950x3d, è tutto da vedere
@@_.francescodm a che risoluzione giochi?
@@fabiob9147 1440p
@ beh..diciamo che un X3D ti aiuterebbe. Ma solo se col PC 99% ci giochi...prendi il 9800X3D ad occhi chiusi
video molto interessante e utile. Grazie!
cosa ne pensi della 4060 ti nel 2025? ha senso acquistarla, chiedo per il moo futuro pc
Provo a risponderti io, anche se non sono un esperto in ambito pc, ma solamente un appassionato che si è avvicinato in modo approfondito da 3/4 anni a questa parte. Se il tuo obiettivo fosse quello di puntare sulla risoluzione 1080p allora ti dico di dargli un occhio, siccome anche su amazon, a differenza delle altre schede della serie 4000, la 4060 ti ha ancora un prezzo abbastanza umano (la stessa nvidia punta attualmente a mantenere questa scheda ancora in produzione per un po', per tenerla come entry level attuale ambito pc). Se invece puntavi a una risoluzione 1440p o addirittura 4k, la 4060ti non va proprio bene e piuttosto che puntare sulle altre della serie 4000, ti suggerisco di provare a dare un occhio quando usciranno le recensioni della fascia bassa/media delle nuove 5000.
@@AR-Sundrips prendi la 7800xt, va meglio.
@matteocoffani2838 ok grazie, il mio futuro pc lo farò con un budget di 1400, voglio informarmi il più possibile perché ho ancora 16 anni e non sarebbe una ottima cosa buttare 1400 euro dopo aver lavorato tutta l'estate, grazie🔥
Con 1400 euro (escluso monitor?) vai sulla 7800xt. Ma piuttosto della 4060 meglio anche la 7700xt. Contando che potrai sicuramente giocare solo ed esclusivamente in full HD, non potrai di certo giocare in ray tracing, vai di amd che hanno rapporti qualità prezzo di gran lunga superiori in quella fascia di prezzo. Con 100 euro in più hai un incremento notevole di performance. Tanto se spendi 500 euro per una scheda video per il full HD, con un buon monitor 144hz o +, ti avanzano i 1400 euro fidati
Ciao alla fine si piu giocare ancora overclock ho e già arrivata meta 😅😅😅 ???
Occare per cosa? Battere il record al 3D Marketta? LOL
@@lorp74e be compro un scheda da paura e poi non posso giocare overclock che ciofega e ???!
@@andreasolca868 Per me l'overclock ha senso semmai su schede di fascia media dove sulla carta si possono avere più margini e maggiore utilità in fatto di aumenti prestazionali...su schede come la 5090 che già fanno centinaia di fps e tendenzialmente sono già "tirate" di loro ci sono più svantaggi che vantaggi.
@@lorp74 ahh sto qua penso intenda il gioco overclocked HASFGHASGHA ma almeno scrivere in italiano comprensibile dovrebbe essere il minimo
@@KarmaOTS Già... :D
Va detto che con la 4090 succede più o meno la stessa cosa, se la limiti 100 Watt sotto, il margine della 5090 si riavvicina.
Assolutamente si! Ma è un trend che va avanti da anni: possiamo fare la stessa cosa anche con la 3090
@@MoreThanTech Lo so, anche con le precedenti e anche con AMD, però se lo mostri su una sola non si capisce bene.
Quindi il mio evga 750w g2 gold regge ancora?
Se la limiti dovresti reggerla, ma non è consigliato avvicinarsi troppo al tetto dell'ali; Si stressa, perdi efficienza e aumenta il rumore.
@@lucaboss4491 ok vedrò in futuro
600watt... e poi ci sono io con l'intero sistema vado al massimo 230 watt😂😂 felicissimo col cavolo 600 watt di gpu... con i rialzi delle bollette manco per sogno. Felice possessore della mia 4060 ti 16gb vram 165 watt massimi e gioco tutto maxxato in 2k senza problemi.
Non credo proprio che un futuro possessore di 5090 si faccia tanti problemi per il consumo di 600w
E non deve avere l'animo ambientalista...:D
Io usero la silent ma senza abbassare i watt manualmente
Sinceramente non vedo granché su questa nuova generazione di schede....una generazione nuova dovrebbe avere un aumento del 20% do prestazioni almeno, ma a parità di consumi e soprattutto senza dover andare a cambiare manualmente le impostazioni della scheda....poi certo questa è la 5090 dove tutti si aspettavano appunto un miglioramento, ora bisogna vedere la 80 e le altre se effettivamente hanno un miglioramento oppure no, contando sempre i consumi....se alla fine ho un +20% di prestazioni ma anche di consumi sinceramente non vedo nulla di eccezionale....se per accendere un pc devo fare un contratto di un kwatt in piu in casa, ufficio o ambiente dove lo si usa...anche no (considerando poi anche il prezzo della scheda)
scheda dalle prestazioni fenomenali, innegabile. allo stesso modo è innegabile che sia un forno, per il case e per la stanza.
L'osservazione che vorrei buttare nel mezzo è la seguente:
Da sempre, per migliorare l'efficienza le prestazioni e tutto il resto, si passava ad un processo produttivo migliore (oltre alle migliorie architetturali, ma diciamo che il grosso lo hanno sempre fatto i processi produttivi più avanzati e sofisticati). Negli ultimi decenni, siamo passati dai 130nm ai 90nm ... poi 65, 45, 32, 22, 10, 7, 5, 4 etc etc ... avrete già capito dove voglio andare a parare. Ci stiamo avvicinando al limite fisico del rimpicciolimento della materia ... una volta arrivati allo 0 (zero) virgola qualche decimale nanometri, dopo come la mettiamo nome ... come si avanza ?. Io credo che più andiamo avanti e più sarà complesso e costoso andare a creare nuove generazioni di chip che siano più veloci delle precedenti ... dopotutto converrete con me che, se viene meno l'innovazione del processo produttivo (causa impossibilità fisica dei materiali, e ripeto che ormai siamo sempre più vicini allo zero), l'unico modo per ottenere più prestazioni sarà quello di aumentare il numero dei transistor, ma questo aumenterà inevitabilmente la grandezza dei chip, i consumi, la produzione di calore e tutto il resto. Voi cosa ne pensate ?
Quando si sta per arrivare ad un limite tecnologico per evitare uno stallo completo (che sicuramente non è il massimo) ci possono essere delle soluzioni (al momento ipotizzo cose totalmente ipotetiche, quindi da prendere con le pinze per il "semplice" scopo didattico):
1) Cambiare totalmente sistema, come fu dal passare alle valvole ai transistor. Cambiando di molto (o totalmente) per un sistema migliore (già nei primi tempi o in seguito) fa la differenza. Sarebbe la soluzione migliore, ma ciò richiede moltissima ricerca, sviluppo, fallimenti ed anche colpi di fortuna.
2) In attesa del cambio di tecnologia si può provare a fare delle ulteriore migliorie (ipotizzo: cambio della forma che, magari, può aiutare. Scelta di un materiale simile ma più prestante, anche parziale. Miglioramento lato software, cosa che già si sta tendendo a fare grazie ad i vari Super Sampling Imagine ed ottimizzatori di vario tipo. Cambio della struttura logica anche in modo limitata. Ecc...)
è ovvio che tutto ciò che ho scritto sopra è molto generico e molto semplificato, ma serve per rendere un po' l'idea con la speranza di aver risposto alla domanda (anche se ipotizzo parzialmente).
Non si rimpicciolisce la materia ma il "solco" che i laser scavano. Al momento come soluzione si pensa di cambiare il silicio con il carbonio se non ricordo male. Ma dlss e framegen sono la risposta a ciò che chiedi.
bro si arriverà ad un limite tra pochi anni, UN ESEMPIO? I telefoni, sono da circa 2 anni che sia samsung che Apple non fanno qualcosa di diverso o nuovo, sempre le stesse cose con qualche cambiamenti qua e là, il rimpicciolire i componenti e solo una delle caratteristiche che aiuta a ridurre temperature e grandezze ma volendo basterebbe una specie di rivoluzione o comunque un nuovo tipo di tecnologia.Piu che impicciolire i chip punteranno sicuramente in futuro a rimpicciolire il dissipatore e l intera pcb, magari fare un pcb con le componenti FRONTE RETRO è con un sistema di raffreddamento sofisticattissimo arriveresti ad avere le prestazioni di una 5090 racchiuso tutto all interno di una scheda grande quanto una sola ventola no, o addirittura ma mi sembra difficile arrivare ad avere una scheda video con prestazioni migliori della 5090 o oltre tutto racchiuso in un unico chip simile ad un processore no? Ciò che succederà lo dirà solo il tempo.
@@19ture79Dlss e frame gen non sono nessuna risposta, anzi sono un malvagissimo modo di truffare i consumatori amico mio
Passare dal silicio al grafene o disolfuro di molibdeno, non ci fermeremo mai, e non esiste un limite fisico al momento. Si potrebbero fare un sacco di cose solo che a loro conviene così perché ci guadagnano molto di più, ti truffano alla grande, ti costringono a cambiare hardware ogni 3*2, ti infilano porcate tipo dlss multi frame gen e cazzate inutilissime ai fini di ciò che paghiamo, insomma avete capito in che disastro di mondo viviamo oppure no? Potrei proseguire sino alla mia morte e non avrei finito di elencare tutto. E sappiate che per noi comuni mortali le tecnologie che spacciano per nuove sono già vecchie almeno di 10 anni se non di più. Ricordate noi siamo pecore al pascolo e loro sono i pastori non ci faranno mai sapere ciò che non vogliono che noi sappiamo!
Ragazzi siamo nel 2025!! 50w dovrebbero essere considerati eccessivi, non 500!! Sono 20 anni che questi sfornano prodotti sempre più assurdi, in termine di consumi e non sono mai soddisfatti!! Ma non vi sentite ridicoli ad inserire nel case un’automobile al posto di una semplice scheda? Composta da dissipatori e triple ventole, sempre più rumorose e grandi? Non esiste che nel 2025 si producano questi livelli di consumi: il produttore si dovrebbe vergognare al solo proporli alla vendita e al pubblico, ma la colpa probabilmente è anche del consumatore. Mi auguro questa ridicola nicchia di mercato imploda su se stessa e non venga affatto seguita come esempio dal resto del mercato (telefoni, tablet, console). Siamo oltre al ridicolo da 10 anni, e si prosegue dritti a testa bassa altre ogni logica. Non rimpiango di essere passato dai pc al tablet per il mio utilizzo privato e alle console per l’utilizzo in game! nemmeno un po’!
Sarebbe bello sapere se la vga non è cpu limited...
P.s. hanno visto che consuma 900W per un millisecondo.
il 9800x3d in diversi casi fatica, ma non essendoci niente di meglio è un po' difficile capire la situazione!
Comprendo che gli altri non siano me, e che abbiano necessità diverse, ma a me personalmente come range di scheda video, per l'uso del pc che ne faccio io, interessa la 5060/5060 Ti/5060 Super biventola manco triventola (quando escono le serie 60). Non sento la necessità di andare oltre i 300/massimo 500 € di scheda video. Reputo stupido(sempre personalmente sott'inteso) spendere 2.500,00€(avendoli) per una scheda video, considerando che fra soli 2 anni ci sarà la serie nuova. Con me ripeto per l'uso che ne faccio io attualmente, una 5090 sarebbe solo uno spreco di soldi, spazio nel case, corrente e risorse prestazionali. Il mio parere sulle schede Nvidia 90.
Una scheda top di gamma dovrebbe durare 3 generazioni di schede in genere, ad esempio per chi ha comprato una 1080 ti adesso è il momento di aggiornarla. Chi acquista la top in genere spende una volta e la tiene, poi c'è chi vuole il nuovo sempre, c'è chi non si accontenta mai. Io ad esempio voglio un pc che spendo una volta e mi duri almeno 6 anni se di più ancora meglio, non posso comprare la base perché dopo 3/4 anni la devo cambiare, mi metto sulla fascia alta di AMD e son sicuro di non spendere un rene e che mi duri
una stufetta elettrica...stacca il contatore se mia madre fa na pizza...
Nvidia aumentando sempre piu' i consumi sta seguendo la brutta strada di Intel, ma hanno il monopolio e nessuno puo' contraddirli. Beh almeno sviluppano buoni sistemi di dissipazione
600w per andare più della 4090.... Ma quanto di più? Poi se devo spendere 4k e levargli volt per andare simile alla 4090 mi sembra la pazzia assoluta.
C’è il video dedicato con tutte le prestazioni e si vede ampiamente anche in questo
Super interessante e ottimo video come sempre. Volendo fare una battutaccia prendiamo una Ferrari e poi la mettiamo a GPL
posso sapere che tipo di bentch usi ... cioe mi sembra che non sia msi afterburnner
Lo è!
quella scheda è un arma.
ma non potevi l'applicazione nvdia? cioè puoi farci tutto ormai
Non funziona in questo caso
Un'altra scheda da smanettoni, dato che bisognerà fare lock della potenza con msi afterburner dal grafico ( Ctrl+F ) o addirittura downvolt perché tanto se fatto been perdi massimo 10fps (multi-framegenerati 40 🤣) perché se non lo si fa poi magari finisce come le 3090 e 3080 di vari brand che si bruciavano con new world
Con ste bollette se la possono tenere 😂😂😂
sto sinceramente rivalutando l'acquisto dopo il discorso dei consumi. Ho trovato una 4090 a 1600€ con ancora due anni di garanzia e sinceramente un po' mi sta facendo tentennare.
@@sambridges7112 1250 con granzia fino a novembre 2025 la vuoi?
@@fabiogigliotti489 di dove sei??
@@sambridges7112 torino
Minchia speriamo sto mese 400 e di solito è la metà
Almeno per il gaming a questo punto conviene usarla a 400w 😅
Ottimo ed interessante argomento, Per approfondire e/o confrontare rislultati vedere video DerBauer di ieri
Fai un undervolt, ci metti il dlss, gli aggiungi il multi frame generation e boom! 200 fps con 300 watt su una 5090
L'unica scheda decente sarà la 5070ti. La butto lì
per i fake frame rispetto alle 4000 si.
@@GiulioDevCloud non sono fake e se dici così non hai provato a giocare con il dlss
una scheda tanto potente e poi dlss 4 per giocare in sottoscala? vabbè inutile aggiungere altro Sul discorso grandezza 2025 montateci dei dissipatori a liquido di serie da 240 .
@@MondoAmici non so cosa hai visto o capito, questa vga non ha bisogno del dlss 4.0 se non in una manciata di giochi in 4k path tracing, tutto maxato.
@@19ture79 forse non hai compreso che ti propone merda sssociata per venderti una gpu al doppio del suo valore ...
1 minuto fa é abuso
Davvero interessante
ruclips.net/video/kdjOfKPt51s/видео.html&ab_channel=der8auerEN
È arrivato nostro padre Der
MIAO
Primo
Cringe