Concordo,comunque per il momento non siamo ancora arrivati ad avere queste tecnologie come standard (anche se la strada è quella), quindi io continuo per ora a fare i miei acquisti basandomi sulle prestazioni base e le tecnologie mi vengono in aiuto in quei pochi giochi veramente pesanti. Penso ci sia un lato del discorso dei supersampling del quando convenga usarlo o no che viene spesso tralasciato, l'utilizzo di quest'ultimi in diverse categorie di giochi cambia di molto la loro validità in relazione allo scopo finale. Col marketing odierno questo viene totalmente "insabbiato"
Ciao Ferry, ti seguo sempre. Che il mercato delle schede grafiche è incasinato me ne ero accorto a fine novembre quando mi era salita la scimmia di costruirmi una build top da 2300 euro. E come la scimmia sia scappata a gambe levate, dopo aver letto e analizzato di tutto. Attualmente penso che aspetterò altri sei mesi o forse il 2025, per farla ritornare sta scimmia. Quello che mi intriga è proprio questa AI cosi prepotentemente integrata, quasi a scovare l'oro in questa nuova eldorado che mi fa salire un hype indotto su possibili capovolgimenti e incasinamenti ulteriori , e magari in questo chaos, trovare quella scheda grafica che, oltre a farmi giocare a risoluzioni 4k, possa anche mettere piede a palazzo per iniziare a giocare io stesso con modelli AI sfruttando la potenza dei cuda core. Sono mie fantasie, ma sicuramente è cio che mi fa stare a livello periscopio e capire qualcosa dal chaos incasinante che secondo me continuera almeno fino a fine 2025
Come spieghi tu non spiega nessuno, complimenti, sempre chiaro, non ho parole! Comunque, grazie a queste feature, la 1070 Ti che ho tiene ancora botta ... altrimenti era da cestinare!
Video come sempre chiarissimo ed equilibrato :-) Mi trovo in tutto nell'analisi. Aggiungerei solo, anche se non è questo forse il video specifico, il tema delle tecnologie implementabili a livello di driver. È vero che il DLSS è un po' più avanti ed i driver Nvidia sono più curati (questo lo aggiungo io), ma senza essere tifosi, da vecchio utente Nvidia passato recentemente ad AMD, il DLSS dipende dal gioco/mod; Nvidia Experience non consente di 'forzarlo' a livelli driver se manca. AMD Adrenaline consente vari settaggi generali e per singolo gioco a livello driver compreso l'upscaling (FSR) indipendentemente dal fatto che il gioco lo supporti nativamente. Non conosco il mondo Intel sul punto, ma nel mio caso il cambio è anche dovuto a queste funzioni di Adrenalin settabili extra gioco.
concordo su tutto, spiegazione chiara e semplificata, complimenti per la possibilità di fare chiarezza su specifiche tecniche, quello che spero è che si arrivi ad un prezzo decente.
Idem con patate. Ho sempre avuto gpu nvidia ma questa volta, circa 6 mesi fa, venduta la 3070 insieme al monitor, sono passato ad amd prendendo una 7900xt affiancata a un monitor 34 1440p ultra wide...
Boh io la differenza tra nativo e super sampling la vedo eccome in 1440p... Ma poi comprare una scheda da 500€ nata per il 1440p e renderizzare a 768p in quality mi da fastidio in partenza... Finché posso gioco in nativo
Ciao Ferry, mi trovo TOTALMENTE in disaccordo con un'affermazione che fai: "stanno facendo del bene". A mio avviso è proprio il contrario: quando queste tecnologie sono uscite, i giochi IN GENERALE con un hardware medio - medio/basso erano fruibili (55-65 fps), POI con l'aggiunta del DLSS/FSR, si passava a 75/90 FPS...erano nate quindi come AGGIUNTA, come un "di più"....un bonus diciamo...come hai detto tu stesso, dovevano aumentare le prestazioni, a parità (o quasi) di qualità grafica. Oggi non è ASSOLUTAMENTE così, ormai giocare SENZA DLSS o FSR con un Refresh Rate DECENTE è difficilissimo...senza queste tecnologie la maggior parte dei giochi fa 40 fps anche sulle GPU più nuove; perché questo? A mio avviso, in soldoni, gli sviluppatori dicono "vabbè il gioco più o meno gira, TANTO C'E' il DLSS"....i giochi dovrebbero girare BENE (60 fps circa) con un hardware MEDIO a dettagli MEDI SENZA DLSS....poi se uno vuole un Refresh Rate maggiore allora applica queste tecnologie....ormai invece sono un requisito...basta guardare Starfield...ci stanno spingendo ad aggiornare COMPULSIVAMENTE l'hardware.
sono perfettamente d'accordo. ora con la scusa del dlss e fsr fanno uscire dei giochi scandalosi vedi starfield che non riusciva a far girare neanche 60 fps sulla 4060 in full hd. veramente penoso
ciao, il mio "stanno facendo del bene " è riferito al fatto che permettono con schede meno costose di raggiungere livelli qualitativi migliori. Quindi è un bene perché si spende di meno e si ottiene di più.
Io ho una nvidia serie 3000 quindi non so come sia la questione con le schede di ultima generazione, ma la differenza di definizione tra dlss (2.0 nel mio caso) attivo e dlss disattivo si vede eccome, soprattutto in vr. I pannelli strumenti di flight simulator ad esempio si leggono molto meglio con dlss disattivo che attivo. Se non ci si arriva con gli fps il dlss si attiva, ma si tratta comunque di un compromesso. Si può usare la IA più avanzata che si vuole, ma un upscale non sarà mai definito come un render a risoluzione nativa. Per cui le schede di fascia top serviranno sempre. Purtroppo questa moda di far uscire titoli in cui il supersampling è attivo di default sta prendendo piede, questo è vero, ma la vedo più come una scusa usata dagli sviluppatori per evitare di ottimizzare piuttosto che una reale necessità. Un futuro in cui ci abitueremo a giocare in supersampling, sacrificando la qualità dell'immagine e dando per scontato che non si possa fare altrimenti, a mio avviso non è un bel futuro.
Grazie per i tuoi video e le tue analisi specifiche nonché ricche di tecnicismi vari. Io ritengo che il mercato sia più complesso di ciò che sembra, nel senso che è vero che principalmente un utente decide la risoluzione di riferimento per poi decidere quale GPU acquistare, è altrettanto vero che bisognerebbe aver una cultura superiore su come impostare i vari dettagli grafici, mi spiego meglio: l'utente X vorrebbe giocare in QHD senza compromessi, ossia tutto "maxato", solitamente il consiglio è una 4070TI oppure una 7900XT, in realtà lo stesso gioco, impostando i settaggio grafici a dovere (esempio: ombre su alto anziché ultra) può sicuramente offrire prestazioni paragonabili nonché simili, anche dal punto di vista della qualità grafica e non solo di frame, sicuramente ottimali anche con una GPU di un "gradino" più basso, portando l'utente X a risparmiare per poi avere comunque prestazioni ottimali, ed è qui che le tecniche trovano terreno fertile.
Ciao caro... Se ho capito bene se tipo uso l fsr su un gioco della mia rog ally non ha senso impostare l fsr su una risoluzione a 1080p ma conviene abbassare la risoluzione a 720p e poi applicare l fsr? Ho capito bene?
2:55 insomma, l'fsr a risoluzioni sotto il 4k ha spesso artefatti orribili che si notano eccome, anche al preset qualità, cosa che dlss e (spesso) XeSS non presentano, o presentano in modo minore. Per quanto riguarda l'upscaling per le schede di fascia altissima, serve, perché rende quantomeno più consistenete l'esperienza di gioco sui titoli più pesanti, considerando anche quelli che usciranno, o rendere possibili cose che non lo sarebbero altrimenti, nemmeno su una 4090 e no, non sono situazioni così assurde. Cyberpunk, uscito quasi 4 anni fa, maxato con PT, 4090 o meno, senza upscaling non esisterebbe.
Ragazzi, alla fine di questa rincorsa infinita al dettaglio c'è l'imbuto più importante di tutti: le capacità visive umane! Perché non ne parla un'anima in questi video divulgativi? Come è successo per gli schermi dei cellulari, a un certo punto arrivati perfino ai 4K, il mercato si fa portare a spasso con tante finte promesse. Per fortuna la corsa alla risoluzione va più a rilento delle loro previsioni e quindi tanti gamer influencer delle varie 4090 non sanno che farsene. Per me sarebbe ora di finirla con l'andazzo di +30% di potenza e -10 di consumo. Che diano priorità all'efficienza, si avvicinerà così la fine delle schede video discrete, cosa soltanto positiva per noi consumatori.
Una RTX 4060 va bene per giocare a 1080p per il 2024. Ha 8Gb di VRAM (il minimo) e le impostazioni di grafica sono variabili (Low < x < Ultra). Ha DLSS 3 e 3.5. Chi fa animazione oppure progetti 3D e vuole anche giocare deve prendere una RTX, sta lui se vuole la Top di gamma oppre la medio/bassa. In sintesi le RTX non sono fatte per solo giocare ma posso offrire le stesse prestazioni per fare tutti quelli lavori in 3D.
completamente d'accordo..con la standirdazzione dei vari dlss e amici vari sicuramente si potranno spendere meno soldi sulle schede video... forse quelle di top gamma andranno piu sull'8k a sto punto...
Ma a chi serve l'8K? Già un monitor 4K su 42" ha più di 104 come pixels per pollici... Se poi c'è gente invece di mettere il monitor su una scrivania lo mette nel salone e ne compra uno gigante, allora sì che l'8K forse può avere senso, ma sempre se ci si siede abbastanza vicini ad esso... Forse anche troppo vicini per la salute dei propri occhi, boh...
@@Z3t487 tutti ! con l'andare avanti della tecnologia avremmo risoluzioni semrpe superiori a prezzi sempre inferiori!già ci sono ora filmati su yt di giochi in 8 k.Il tuo discorso sulla distanza di visione mi sembra fatto da mia nonna con conoscenze pari a zero!benq consiglia per un 27 pollici 4 k distanza 1.7ft (52cm) per un 32 distanza 2ft (61cm)
@@MassimilianoCarinci Mi son basato anche su quello che diceva Linus Tech Tipa, che anni fa chiamava il 4K "dumb" ed ora pure l'8K, dove ha fatto provare alla cieca l'8K ed i suoi dipendenti non sapevano distinguere il 4K dall'8K. E poi la distanza di visuale certo che ha importanza, perché la nostra vista, anche fosse perfetta, ha dei limiti e quindi ad un certo punto appunto raggiungi il limite cui sai distinguere dei dettagli, ovvero pixels in più. Mi fido più della parola di Linus Sebastian che di Asus, visto che Asus potrebbe avere una cosa che si chiama "conflitto di interessi".
@@Z3t487 intanto era benq... conflitto di interesse in cosa scua??sei un po confuso su quello che dovrebbe essere un conflitto di interesse..fidati di quello che ti pare.. è un dato di fatto che andando avanti con le tecnologie aumenteranno le risoluzioni! è fisiologico...mica penserai che rimarremo cosi no??al momento non abbiamo raggiunto il limite di risoluzione percepibile...
@@MassimilianoCarinci Ah ma allora credo che tu stia parlando del 32K cioè quei teorici 500 e rotti megapixels oltre i quali praticamente sarebbe come vedere qualcosa nel mondo reale, cioè le immagini sul monitor avrebbero una definizione tale da rendere impossibile il distinguere i pixels, anche con schermi giganti, almeno a livello di grandezza che entrino ancora nelle case dei comuni mortali... Quindi diciamo da 100" al massimo? 150"? Dimmi te ché io effettivamente ne so pochissimo. Comunque il conflitto di interessi nel senso che ad Asus interessa venderti lo schermo, non ha certo interesse a non separarti dai tuoi soldi e a dirti:" guarda che secondo me 1440p su un 27" alla giusta distanza bastano ed avanzano". Poi io sono totalmente ignorante sul come si calcoli la distanza ideale, io per esempio il mio 24.5" 1080p lo tengo a 70 cm dai miei occhi e mi trovo bene così, senza fare calcoli particolari.
scusami... ma credo che al minuto 5.57, ti sia dimenticato che PER scegliere la scheda grafica serve sapere : A CHE RISOLUZIONE VUOI giocare e CON CHE REFRESHRATE ...il classico 60hz o i vari VRR 100/144/244 eccc..... converrai con me che c'è differenza se voglio giocare a 1080P /60HZ o 1080P/con freesynk/g-synk 244hz in quetso caso bisogna valutare schede DIVERSE , nonostante le tecniche di supersampling
Ciao, ma il refresh rate è secondario. Si vuole puntare almeno ai 60 FPS per ogni gioco, competitivi a parte, il resto sono dettagli che fanno una differenza minima. In ogni caso ho fatto diversi video sul rapporto refresh rate e FPS.
Gran bel video! Approfitto per fare una domanda: che scade video consigli per giocare senza compromessi in 2k? Ha senso secondo te aspettare le super e andare su una 4070super?
Io sto aspettando la 4070 super per passare da una 3070 ! Dai rumors sembra che costeranno attorno ai 600$…l’unica pecca sono i 12gb. Comunque lunedì ci sarà la presentazione !
devo dire da nvidia alcune cose non mi piacciono ultimamente come quella di lockare dlss 3 alla rtx 40... io per esempio come penso molti ho visto il ragazzo su reddit che era riuscito a fare partire il dlss3 su una rtx 2070 e il risultato era come dire incredibile?? quindi se ci è riuscito tizio x a casa penso tranquillamente era fattibile anche per l'igegneri nvidia (il tizio spiegava che gli rt core e tensore core servivano ma bastavano anche quella della 2000)
Bisognerebbe dividere gli utenti gaming in 3 macro categorie. 1) Il purista ( Entusiast ) Top di gamma sensa super sampling , budget finanziario Alto. 2) il gamer appassionato ( Vorrei ma non posso ). Ottimizzo il mio budget comprando il meglio ma non il top e giocando con super sampling. 3) Il gamer "Vero" che ha trasceso la qualità grafica che cmq apprezza , e che gioca con qualsiasi gioco che gli trasmette emozioni"anche retro consolle etc".
Dobbiamo accettare queste tecniche paracule di sampling. Il passato insegna ad esempio quando i motori erano ad aspirazione e ci fu qualcuno che si inventò il turbo compressori che era una tecnica paracula di allora per avere più potenza con lo stesso motore. Il mondo è pieno di esempi come questo.
Video idea caro Ferry: il grafene l'hanno davvero *sistemato" in modo da farlo diventare un super conduttore? Perché fosse una notizia vera, perdonami che non ho controllato la fonte, sarebbe a quanto pare rivoluzionario per il mondo dei computer: computer fino a 10 volte più veloce e che scaldano meno. L'articolo parlava di grafene in 2D perché si utilizerebbe un solo strato di atomi del suddetto materiale.
Ottima analisi, poi a livello di fps va bene averne molti ma bisogna anche tenere in considerazione dove arriva l'occhio umano e quello che riesce a percepire.
una riflessione... ma arrivati a questo punto, gli sviluppatori di videogame faranno anche giochi ottimizzati con i piedi perche' tanto c'e' potenza da vendere o sistemi come questi che aggirano parzialmente i problemi?
Sarebbe interessante capire quanto impattano queste tecnologie sui consumi e sulle temperature delle GPU. Se fossero in grado di far ottenere all'utenza anche una riduzione sensibile di questi due fattori avrebbero molto più senso anche sulle Top di gamma (mettendo da parte il discorso produttività per questa fascia).
Se vuoi una GPU entry level e che consumi già poco di suo allora vai di RTX 4060, no? Poi puoi anche puntare ad una RTX 4090 che, se sai fare un po' di undervolting sicuro, ti consuma molto di meno e perdi poche performance.
@@Z3t487 Undervolt sulle serie 4000 (soprattutto 80 e 90) è inutile. Scaldano pochissimo e hanno una dissipazione ottima da sole. Mai visto fare alla mia 4080 FE più di 40 gradi sotto sforzo
Come ho detto l'altra volta, io mi sono invece basato sul fatto che se c'é il ray-tracing perché non attivarlo e se porta a benefici visivi e magari aumento di prestazioni (compreso ray recostruction e frame generation attivando il dlss3.5, se supportati) sia un elemento da prendere in considerazione. Certo,.quando stavo valutando.ik dlss era ben oltre all'fsr. Ora la situazione é cambiata ma da vedere come queste tecnologie evolveranno e come, magari, si integreranno tra loro
Concordo....... Un consiglio se posso chiederti, io dovrei rifarmi un Pc da zero visto che il mio I7 4790K e Gtx 1070 di 8 anni inizia ad essere vecchiotto quindi più che un upgrade devo rifarmene uno da zero, io desidererei giocare in 2k supportato dal mio Tv con connettore Hdmi 2.1 ad un frame rate che sia almeno 60 Fps con dettagli ultra o alti, io pensavo visto che il mio budget non è alto ad una Rtx 3070 o al massimo la Rtx 4070 e ti volevo chiedere quale processore mi consigli io preferirei restare su intel, che scheda madre mi consigli e che alimentatore, io pensavo ad un Watt 850. La domanda è ovviamente rivolta a tutti, ringrazio in anticipo.
Le top di gamma okay sono penalizzate dal dlss e dall'fsr nel presente perché non ne hanno bisogno e perché questi ultimi favoreggiano l'acquisto di schede inferiori ma non nel futuro perchè è lì che dlss e fsr faranno la differenza e fanno sì che una top di gamma di vecchia generazione possa essere competitiva con una fascia medio/alta di due/tre generazioni successive.
credo che queste innovazioni siano molto utili, si può arrivare a prendere una scheda senza spendere una follia, ma che ti permetta anche di giocare con qualche soddisfazione
Comunque FSR o DLSS, è uguale: beati quelli che non vedono il degrado grafico. In Flight simulator purtroppo ci sono le condizioni "migliori" per accorgersene: le ali bianche sullo sfondo azzurro, quando muovete di rollio l'aereo, si nota sempre una specie di scia staccarsi dal profilo delle ali (DLSS).
Forse lo puoi aiutare. Ho scritto il dlss per la 3060 ti. Impostato nelle impostazioni dlss su fs2020. Ho notato però che i monitor dentro nel aereo sono molto sfociati
Appunto per l'anziano Ferry nel paragrafo: "Cosa cambia tra le 3 tecniche?" non stai dando una buona informazione ai tuoi follower. FSR e XeSS possono essere usati da tutti, ma non al meglio della loro specifica come quando vengono usati con la GPU del produttore dell'algoritmo. FSR usa FP16 e lo fa perchè l'algoritmo di base che si usa su tutti e tre gli upscaler, l'algoritmo di Lanczos, basato sulle convoluzioni, non richiede una precisione superiore, almeno fino a che non usi una profondità di colore superiore ai 16 bits, ed oggi siamo a 10 bit se usi l'HDR... e, sì, tutti usano questo algoritmo come base di partenza; la differenza è con che circuito HW viene calcolato e come vengono corretti i problemi sistematici che genera. il DLSS usa i tensori, degli specifici "cores" che gestiscono al meglio i calcoli delle matrici. ma, attenzione: i tensori non possono gestire autonomamente l'algoritmo di Lancrzos, ma solo i calcoli sulle matrici che questo effettua; tutto il resto viene comunque calcolato dai cudacore e sui calcoli matriciali viene comunque usato un certo numero di cudacore per dare supporto ai tensori (che altro non sono che un array di celle con una circuitazione "a metrica fissa", ossia che fa solo quelle 4 operazioni specifiche; da notare che sono "a metrica fissa" e che non sono propriamente adatti a gestire matrici così minute come quelle di Lancrzos; le calcolano, aggiungendo quindi potenza di calcolo, ma lo fanno con la stesa potenza di calcolo e impiego di transistors che hai quando calcoli matrici che sono 64 volte più grandi, perchè sono specificatamente pensati per il mondo HPC e non pe ril DLSS; insomma, con il DLSS stai usando una marea di transistors, ma solo parte di questi in modo attivo, che in realtà potrebbero fare un lavoro ben più elevato). XeSS è su due DEV; il primo, che usa solo Intel, e che è specificatamente pensato per usare gli Xe COres, null'altro che delle SIMD AVX che Intel ha inserito nelle sue GPU, che hanno le proprie pipeline di calcolo adiacenti (ti assicuro che accanto hanno un X86, x64 che è pari ad un core Atom); anche qui un'enorme iniezione di potenza di calcolo e una versatilità maggiore dei tensor cores, perchè le istruzioni AVX, che sulle GPU Intel vengono richiamate da specifiche isruzioni, sono assai più versatili in quanto sono propriamente core vettoriali. è per questo che Intel recupera moltissimo quando si usa il DXR nei giochi; gran parte del lavoro viene direttamente demandato agli Xe cores, che hanno annessa una cache che funziona da RT cores, dove viene inderita la gerarchia dei volumi degli oggetti e dove poi gli Xe cores andranno a calcolare i vettori e i loro core "atom" calcoleranno il punto di collisione e la traiettoria di uscita. il second o DEV dell'XeSS è su DP4A, una specifica standard dello shader model 6.6 di Microsoft e che gestisce proprio le convoluzioni che si fanno in deep learning. il problema qui è che Intel fa quel DEV in 32 bit, mentre tramite il primo DEV Intel calcola tutto a 16 bit (ed in effetti gli sarebbe bastato aggiungere un core di supporto tipo un P55, come c'era nel progetto Larrabee, ma visto che anche qui quell'architettura viene utilizzata in ambito HPC, servono i 64 bit; logicamente parliamo delle sole pipeline APU, perchè sono ormai anni che sia AMD che Intel usano le AVX anche per gestire tutti i calcoli in FP; le AVX sono, in effetti, le unità FPU dei processori moderni, da più di 10 anni, di AMD e Intel)... delle architetture nvidia solo Turing potrebbe gestire adeguatamente algoritmi in FP16, perchè ha delle unità FP32 aggregate, ossia che possono eseguire 2 istanze indipendenti FP16 per ogni pipeline FP32 (e visto che tutte le pipeline delle GPU e delle CPU del mercato mainstream da 30 anni a questa parte, tranne Kepler, possono gestire 2 istanze FP32 alla volta, perchè sono 2 vie di computazione, diventano 4 istanze per ogni unità di calcolo). Le altre architetture nvidia non possono farlo ed usano quindi una intera unità FP32 per emularne una in FP16 8riduzione di precisione). ma per nvidia, per il suo DLSS, non è molto rilevante, perchè la vera differenza tra DLSS1 e DLSS2 (anzi, 2.4) è stato proprio il passaggio del codice da FP16 a FP32. questo perchè serve maggiore precisione ad nvidia per il successivo passaggio dell'upscaler, ossia la correzione degli errori generati dalle convoluzioni dell'algoritmo di Lanczos; nvidia lo fa tramite il vettore di movimento e per attenuare il ghosting è dovuta passare da una precisione da 16 a 32 bit . lo fa perchè poi usa quegli stessi dati del vector motion per gestire l'algoritmo di Anti Aliasing, il TAA, che è implementato di default sul DLSS, da sempre. quindi, riassumendo, DLSS lo può usare solo nvidia, in quanto chiuso; FSR verrà gestito da AMD in FP16, con un dimezzamento delle unità necessarie al suo calcolo perchè userà unità di calcolo FP32 in 2x FP16, mentre nvidia userà unità FP32 emulando FP16, 1:1, perdendo quindi un 10-15% abbondante di potenza di calcolo, perchè dovrà usare più unità FP32 per l'upscaler che verranno tolte dall'esecuzione dei calcoli per la costruzione del frame; questo avviene anche su Turing, per scelta di nvidia, anche se potrebbe eseguirlo nativamente come le GPU Vega e RDNA di AMD; Intel, per scelta, esegue FSR in FP32, pur avendo la stessa caratteristica delel unità di calcolo di AMD (FP32 = 2x FP16), perdendo, anche qui, un buon 15% abbondante di prestazioni. questo comporta che i giochi dovranno essere settati ad una qualità inferiore per l'FSR sia su Intel che su nvidia, ma spesso anche su AMD, perchè gli sviluppatori settano quel parametro senza discriminante della GPU, uguale per tutti; le mod su FSR ci hanno insegnato come andare a riportare FSR alla massima qualità per usarlo con AMD su diversi giochi, ma che diventerebbe del tutto inutile su AMD ed Intel, perchè a quel punto la potenza di calcolo impiegata dall'upscaler, usato in FP32, ti mangerebbe del tutto il guadagno di usare una risoluzione inferiore per guadagnare FPS; e che lo usi a fare l'upscaler se per una qualità inferiore al nativo, perchè ogni upscaler è inferiore al nativo, se guadagni si e no 5 FPS? XeSS invece verrà processato tramite DP4a da AMD e nvidia, con rendimenti di calcolo inferiori perchè passi attraverso altri layer delle API, e verrà calcolato in FP32, mentre Intel userà direttamente gli Xe cores in FP16, che praticamente fanno tutti i calcoli loro... il risultato quale è? che, sì, puoi usare FSR e XeSS su tutte le schede e su una nvidia puoi usare sia DLSS, che FSR, che XeSS, ma in tutti i casi il risultato migliore lo otterrai solo usando l'upscaler dello stesso produttore della GPU, che sia per questioni architetturali o per libera scelta del produttore dell'upscaler o dei concorrenti. non c'è soluzione: se vuoi il risultato decente da parte dell'upscaler dovrai usare quello della tua marca, non gli altri, perchè anche in questo caso c'è di mezzo il marketing e far sembrare peggiore quello degli altri. sì, è vero che FSR sembra peggiore su una nvidia, ma è per un motivo tecnico dovuto alla limitazione di nvidia, sia architetturale se parli di Ada e Ampere, sia per scelta se parli di Turing. sì, FSR si vede peggio di XeSS su una Intel, per scelte di Intel, e comunque sarà meno prestazionale, perchè Intel demanda tutto il lavoro dell'XeSS sugli Xe-cores, aggiungendo potenza di calcolo, quella che in realtà gli manca normalmente a causa di driver acerbi e dal fatto che un Xe core, proprio per come è fatto, occupa una marea di spazio e ti trovi una A750 che ha un die grosso il doppio di una RX 7600, pur essendo fatte con lo stesso processo produttivo, ma che non la supera, consumando pure di più (semplicemente perchè è una GPU per HPC, non per gaming). sì, FSR funziona al meglio solo su AMD e funziona benissimo, senza aver nulla da lamentars in confronto al DLSS (sempre a seconda dell'implementazione nel gioco, perchè inizialmente facevano proprio delle carognate), se non quando usi l'upscaler da risoluzioni ridicole, tipo 540p to 1440p, in cui se lo fai con una scheda video già adatta al 1440p arrivi al collasso del processore, perchè raggiungi rapidamente il massimo dei framerate che puoi raggiungere anche usando un intel a 450W, e se lo fai con una GPU scadente.... perchè lo fai? perchè voler giocare male pur di dimostrare una condizione che non è sfruttabile? ma nemmeno con la switch! quindi non contesto che gli upscaler possono essere aggiunti alla valutazione dell'HW, ma.... per cortesia finiamola di dire che DLSS è meglio di FSR solo basandoci su confronti fatti sulla "scheda sbagliata"... vuoi usare bene FSR? oggi puoi farlo solo con AMD, per colpa di nvidia e Intel che non vogliono vedere sminuire il loro HW HPC, totalmente inadatto a quel tipo di uso, sulle proprie GPU. e poi vedremo con l'arrivazione dei Matrix di RDNA3 se l'algoritmo migliora ulteriormente (SOLO PER LE RDNA3), visto che anche quelli sono tensori a metrica fissa, ma sono proprio 16x16, come serve per un upscaler. PS: se domani faranno GPU capaci di gestire nativamente 8K in rasterizzazione nativa, allora si passa direttamente al path tracing e ci togliamo di mezzo anche questo finto RT. in questa ottica Intel è molto più avanti di AMD e nvidia, perchè su una GPU per il path tracing ci vogliono principalmente processori vettoriali, non scalari.
@@davidebaloo3606 spero solo che la metà della metà abbia capito che se usi un upscaling di un brand dovrai usarlo sulla scheda di quel brand, o dovrai accontentarti delle inferiori prestazioni che offre, ma che in tutto questo non puoi metterti a dire: FSR fa schifo a confronto del DLSS, visto che se stai usando il DLSS stai usando una nvidia e difficilmente tu hai anche una scheda AMD per fare il confronto vis a vis sulle immagini che generano. quindi come puoi confermarlo se non hai un riscontro sull'HW più adatto per quell'algoritmo? loro lo dicono solo perchè fanno lo stesso mestiere della Ferragni...
Proprio stamattina ho scaricato e provato la mod che va a sostituire l'FSR 2 con il FS3. Provato per ora solo su Alan Wake II. Davvero stupefacente come risultato: ho una rx6900xt giocavo in 2k con settaggi medio/alti (no Rtx) e fsr su bilanciato, raggiungevo i 80fps circa in ogni situazione. Con la mod FSR3 e stessa risoluzione, modalitá bilanciata, settaggi max (no rtx) 120/130fps. Sono speranzoso per l'implementazione ufficiale e per tutte le schede che cosí, guadagneranno qualche anno di vita
provata anche io la mod e con una 3080 su cyberpunk e con pathtracing attivo in 2k ho praticamente performance simili a una 4070ti, spero che nvidia faccia qualcosa per una versione di framegeneration per le vecchie generazioni di schede video, dato che sta mod funziona anche su una gtx 1060 e qui ho detto tutto
O magari le case produttrici ottimizzeranno ancora meno i videogiochi perché penseranno erroneamente che tanto ci penserà il super sampling a fornire prestazioni adeguate
Ma un bel video su anti aliasing e dlaa? Ho recentemente preso una 4070, e piuttosto che usare Ray racing con dlss sto giocando nativo con antialiasing dlaa e sembra tutto molto bello
io non sono a favore degli upscaling, se compro una scheda di fascia alta che senso a giocare con un rendering di 1440p o 1080p e checche se ne dica non avranno mai la qualità della risoluzione nativa difatti l'unica cosa in cui fanno meglo sono gli antialiasing ((questo è anche colpa delle case di sviluppo che non implementano antialiasing migliori)), secondo, si venderanno schede video castrate (guarda la 4060 in primis) per fare massimo profitto, terzo le passate generazioni non avranno accesso alle nuove tecnologie anche se pienamente compatibili nvidia serie 2000/3000 con il dlss 3 etc...
Buongiorno, apprezzo moltissimo i tuoi video, ho visto online che per i dispositivi mobili stanno sviluppando una nuova tecnologia di dissipazione chiamata airjet, la quale promette cose eccezionali, mi piacerebbe avere maggiori info su questa tecnologia e sapere se secondo te è rivoluzione o cavolata.
l'8K non è minimamente possibile oggi. Ci sono 4 volte i pixel del 4K se le tecniche di super sampling non facciano ulteriori miracoli oltre quanto hanno già fatto, la vedo veramente difficile. Con le tecnologie attuali quadruplicare la potenza bruta sicuramente non è sufficiente. Probabilmente per un 8k servirebbero schede che si avvicinano molto al PFlop (1000 TFlop). Oggi la 4080 e la 4090 avrebbero effettivamente senso solo per un VR 2x4k con RTX, ma questo visore nemmeno esiste. E' pur vero che comprare una 4080 potrebbe portarti a saltare una generazione in più di chi oggi prende una 4070. In un altro video parlavi che ormai si è raggiunto il fotorealismo, e ti avevo risposto che assolutamente non è vero e Alan Wake 2, ancora non era uscito. Quest'ultimo che in alcuni momenti è veramente a livello della CGI dei film della Marvel, in realtà usa molto (non so come si chiama) quella cosa che i particolari aumentano ma mano che ti avvicini ad un oggetto, questo accade in particolare per gli effetti di luce e di ombra e se si sta attenti si nota, per poter avere tutta la scena visibile tutta maxata al massimo anche per quella foglia che si trova a 50m dal POV, ce ne vuole ancora. Poi non hai considerato la dimensione delle texture. L'ultra di oggi potrebbe diventare il medio nei prossimi videogiochi e creare texture ultra a risoluzioni gigantesche. La qualità dell'RTX può essere ulteriormente migliorata. Insomma i margini per sfruttare appieno anche una 4090 rimanendo alla risoluzione 4k, che ritengo sarà il top per almeno altri 10 anni, ci sono eccome, ma i videogiochi ancora non le sfruttano, sicuramente lo faranno in futuro.
NON SONO D'ACCORDO mi spiego: il riferimento alle prestazioni non è corretto. Quantomeno nel confronto DLSS2 e FSR1, dove quest'ultimo era generalmente più veloce nel settaggio di qualità massimo. Poi per la qualità dipende da 2 fattori: risoluzione di input e Anti aliasing. Xess è generalmente più lento nel settaggio di qualità più alto. Salvo poi situazioni legate al ghosting ecc... Ma oggigiorno fra DLSS3.5 e FSR3, voglio vedere ad occhio se te ne accorgi...(riferito ai fanboy)
Ni, sono parzialmente d'accordo, ti darei ragione se i giochi fossero scritti bene, purtroppo per esigenze di mercato escono buggati o addirittura non pronti, così l'unica alternativa per farli girare decentemente è usare una scheda di fascia alta e a volte non basta neanche quella...
Io devo ancora capire l'impatto dell'FSR sul mondo console, se sta venendo usato anche lì e con che risultati. Immagino che di base ad una casa di sviluppo neutrale (senza accordi commerciali con Nvidia o Intel) convenga implementare primariamente l'FSR, che risulterebbe compatibile con tutto l'hardware gaming moderno.
Ci sono diversi giochi su console che usano FSR, la Switch ha l'FSR 1 su Xenoblade ad esempio. Su console casalinghe in alcuni giochi si usa FSR 2 e di solito sono quelli dove la ps5 mostra più il fianco, probabilmente per mancanza di compatibilità piena.
secondo me l'utente medio compra in un modo molto più semplice di quello che hai esposto, e cioè: non ho tanti soldi prendo quella col numero nel nome più basso, ho tanti soldi prendo quella col numero più alto nel nome, meglio ancora se alla fine ci sta tipo XT, Turbo, Ultra, Platinum, Overclock, TurboPower, MegaUltra
Ragazzi ho una nvidia rtx 4070 e non riesco a giocare bene a fortnite nonostante il dlss 3. Imposto tutto al massimo 2k e dlss su bilanciato (sopratutto con il lumen e nanite). Molto spesso gli fps sono alti ma ci sono continui lag e abbassamenti di prestazioni che rendono ingiocabile il gioco. Come mai?
il problema che va menzionato dlss : ma appena uscirà la nuova 5090 Nvidia lascerà indietro con gli aggiornamenti come ha fatto con la serie 30 xx a 40xx .. o continuerà a dare supporto ed aggiornamenti dlss? " motivo che la gente ha strapagato una schea video." Motivo in qui io sono passato con AMD e devo dire di non pentirmi per nulla . .. Anzi dovevo farlo già dalla serie 69xx . invece di dare un rene per una 3080 che non mi ha mai convinto del tutto
Possiedo una RTX 4070 e gioco a risoluzione 1440p mentre un mio amico ha una RTX 3080 e gioca alla stessa risoluzione, (sappiamo che le schede sono pressochè identiche anzi la 3080 su alcuni giochi spinge di piu), ho potuto vedere che su Alan Wake 2 settato al massimo con la 4070 riesce a farmi giocare sui 60 frame circa con ray tracing e patch tracing attivi abilitando però il dlss e il frame generation. La 3080 invece a pari di settaggi grafici viene pesantemente penalizzata dalla mancanza del frame generation e questo mio amico non riesce ad andare oltre ai 30\35fps. Dato che parliamo della stessa scheda grafica in termini di prestazioni nude e crude sulla potenza di calcolo è ormai palese che cio che sposta l'ago della bilancia sono le varie tecnologie.
Grazie al frame generator riesci a fare così tanti fps in più, semplicemente Nvidia per vendere le sue schede ha fatto l'unica cosa possibile che poteva fare per vendere quell' immondizia delle 4000; limitare le 3000 lasciandole senza frame generator. Perché ok l'efficienza energetica delle 4000 tanta roba ma oltre la 4090 è una gen abbastanza pessima considera ho acquistato una 3060 ti usata a 240€ ora la 4070 nuova costa 600€ non ne vale assolutamente la pena spendere più del doppio per quello che ti offre un più che non è così tanto poi
Dipende cosa vuoi ottenere come gamer, vuoi i 60fps? i 120fps? il pc è scalabile, i giochi sono altamente scalabili, quindi se sei disposto a scendere a "patti" scalando la grafica all'occorrenza una gpu medio gamma andrà bene per la maggior parte dei giochi, se vuoi tutto ultra in 4k con RT attivo all'occorrenza a fps alti, allora dovrai spendere ;) Io dopo due gen con NVidia ( ultima 3060 TI ) sono tornato su AMD e ho preso una Sapphire 7800 XT con 16gb, ad oggi gioco ancora in FHD anche se quest'anno penso di cambiare monitor e passare a 1440p che mi basta e avanza ( non gioco su TV ma in postazione ), mi basta stare fisso a 60 fps non chiedo di più e quindi per ora sto e starò bene cosi per un pò, farei comunque notare che ad oggi già solo in FHD con grafica tutto Ultra alcuni giochi saturano e vanno oltre agli 8gb di Vram Concludendo ad oggi prenderei appunto o la 7800 XT o a poco più la 4070, scendere sotto come gpu significa scendere a compromessi, sopra per me serve solo per il 4k o per FPS elevati
Se metteranno quelle porcate di default in tutti i giochi ci aspetterà davvero un futuro videoludico pessimo. Già oggi abbiamo una fascia bassa e medio bassa venduta a prezzi assurdi manco fossero schede di fascia superiore(4060 Ti su tutte), in futuro se ci venderanno FPS finti e upscaler del cavolo al posto della potenza bruta delle GPU la vedo proprio male male male
Ma se renderanno le schede di alta gamma inutili dovremmo essere tutti contenti, non pagheremo una scheda come un motorino...ma non penso lo faranno, c'è sempre di mezzo la qualità dell'immagine e degli effetti. Certo non si daranno la zappa sui piedi
Oggi i produttori spingono di piu il medio alto - alto, la rx7600xt è uscita solo da poco, la rx7700xt è posizionata a livello di prezzo in modo che sia conveniente comprare una 7800xt. La 4070 e la 4060 non hanno rapporto prestazioni/prezzo convenienti.. a me sembra che le aziende spingano perchè acquistiamo le gpu di fascia medio alta-alta. Anche ieri nvidia ha annunciato le super e hanno migliorato il rapporto prestazioni prezzo nelle fasce medio alta e alta. Per il resto condivido il discorso riguardo le prestazioni pareggiate con le tecniche di super sampling tra schede di fasce diverse.
Le radeon attuali non sono appetibili. Col rapporto qualità prezzo ci fai poco se sono indietro tecnologicamente. La 7600xt 16gb è la peggior scheda video mai creata dall'uomo... bah... 🤦🏻♂️
@@sgress960 ma che risposta è? Cosa c'entra con le prestazioni ridicole che ha la 7600xt? Ok parliamo di raster: quella sotto specie di gpu, la 7600xt, va quanto una 4060 in raster, costa uguale ma assorbe il doppio, solo che la 4060 in più ha il supporto a tutte le migliori tecnologie grafiche di ultima gen a differenza di tutte le radeon. Quindi, cosa c'entra cosa interessa alla gente? Ma perchè la gente comune, i gamers sanno veramente cosa vuol dire rendering in raster o in RT? Dai su.... tanto per farti capire, solo i fanboy AMD stanno esaltando questa scheda di 💩, perchè altro non è. Chi ci capisce un minimo, ma attenzione, UN MINIMO, questa scheda la tirerebbe solo nel cesso
E comunque il metodo di rendering di un gioco non è un fattore a cui deve pensare il gamer, quest'ultimo deve prendere in mano il dispositivo e giocare. Per tua sfortuna, i developers preferiscono il rendering in RT per ovvie ragioni che non sto qui ad elencarti
Guarda nel mio commento volevo solo dire che i produttori stanno spingendo le vendite delle schede video di fascia medio-alta alta e cercavo di far notare che una 7600xt è uscita solo ora, con il fatto che le rtx hanno migliorato il rapporto qualità prezzo nelle fasce alte medio-alte
Ferry non ce n'è confusione, l'upscaling di Nvidia è meglio, si usa in modalità qualità in full HD/qualità o bilanciato su schede più scarse in 1440p, in 4 va bene anche su prestazioni. Poi si mette la mod di nukem per usare fsr 3.0 per generare frame, per chi ha una serie 3000. Il frame generation di AMD è migliore del previsto. Per altri due anni ci conserviamo i soldi al posto di comprare una 4000
quella di nukem è una bella mod. Però è stata provata su una 4000 e ci sono differenze sia per quanto riguarda piccoli e pochi glitch aggiuntivi ed una latenza un filo superiore... però sti cavoli, è un ottimo compromesso, per un tripla A va alla grande! Sono contento che ci sia questa mod... è l'unica cosa che apprezzo di AMD ultimamente 😂😂😂 Tu che gpu hai?
@@OmnianMIU una 3080, chi ha dalla 3080 in sù può stare ancora tranquillo, con una base di 60 frame la latenza è abbastanza decente per un single player FPS considerando il reflex, sopra gli 80 frame alla grande, per un 1440p 144/240hz al top. Al momento davvero l'unico upgrade valido sarebbe la 4090 ma dato il prezzo se la possono tenere.
L'AI permettera' di avere performance maggiori e ottimizzazioni , ma quanto cambiano o alterano l'immagine reale? Il 4k per non parlare del futuro 8k sono un bello scoglio computazionale vedremo in futuro chi riuscira' a dare performance valide in presenza anche di algoritmi di luce estremamente esigenti come il path tracing . Ma gia' adesso le schede video hanno prezzi fuori scala per la maggior parte della gente il gaming pc sta' tornando elitario il settore console ringrazia. Saluti a tutti
Io voglio sapere dopo quanto tempo dalla pubblicazione di un video si può lasciare un commento senza che RUclips automaticamente lo reputi spam e lo auto-elimini? 🥴 Comunque... Io personalmente compro schede video di fascia alta e gioco con un monitor 1080p e secondo me non è pazzia perché: - il 1080p mi serve perché il monitor è ad alto refresh rate e quindi quando gioco in competitivo io gioco in 1080p. - Con il DLDSR posso far diventare il 1080p 1440p o 1620p (vedete l'equivalente per AMD ed Intel) Ho insomma un monitor flessibile che va bene sia per il competitivo sia che restituisce buone immagini per i giochi single player. - È pure IPS a bassissima latenza e mi trovo bene (è l'Acer 1080p 390 Hz se a qualcuno interessa). Se dovessi farmi un monitor nuovo punterei a quello 1080p 540 Hz, ma siccome il gioco competitivo che gioco è limitato a 333 fps non mi interessa personalmente, ma lo consiglio se giocate ovviamente giochi con un cap di fps altissimo. Sì, lo so che questo monitor da 540 Hz è TN, ma è TN di nuova generazione e Optimum, bravissimo RUclipsr che raccomando di seguire, dice che è ai livelli di un buon IPS. È pure velocissimo, con tempi di risposta reali di 1.1 ms.
e un ragionamento semplice non complicato e sono d'accordo con quello che dici , mai avuto un PC ma lo sto facendo ora e ho puntato su una 7800xt abbinato ad un ryzen 5 7600 piattaforma m5 32 GB di RAM a 6000mhz SSD 990.pro da 1tb alimentatore Mew 80 Gold plus 750w full.modular raffreddamento a liquido master liquid 240l l'unica cosa che credo di aver sbagliato e la scheda madre ho preso una forse troppo economica la pro b650m-p e il case e un 3000 air flow mimpotresti dire cosa ne pensi e se la scheda madre può essere il limite. grazie, comunque sono un bene queste tecniche se non vogliamo avere dei PC che costano un botto e consumano 30000w xcfsre girare i tripla a
vai tranquillo, dato che è il tuo primo pc monta il 240 sulla parte superiore e ricordati nel tempo di controllare ogni tanto se le temperature del processore tendono a salire, essendo a liquido negli anni evapora e perde di efficacia. Se non ricordo male quel case viene venduto con 2 ventole, in caso vaglia di aggiungerne 1 o 2 sul davanti in immissione per migliorare il giro d'aria, per semplicità ti conviene prenderle uguali allo scopo di non incappare in connettori diversi.
Le schede video cosi come tutto il resto dei componenti del pc si scelgono solo ed esclusivamente con una regola: "Il Portafoglio". Dopodichè è tutto grasso che cola.
@@Z3t487 la fregatura è proprio li. Una 4090 ha quelle prestazioni e costa quel prezzo li stop. Se ti servono quelle prestazioni spendi quei soldi. Non è che se continuiamo a dire che la 4090 è cara come prezzo le prestazioni cambiano o il prezzo diminuisce e il concetto che esiste un equilibrio tra prezzo è prestazione e una cosa aleatoria. I consumatori non possono stabilire questo equilibrio e i produttori non privilegiano i bisogni dei consumatori sui propri interessi dunque tutto si riduce al "soldo". Te la puoi permettere? Ok la compri, viceversa desisti!
@@Mamba_7631 Ma perché aleatorio? La RTX 4060 Ti 8 GB costa 350 circa e la RTX 4090 va per tre volte di più ma costa 2450 euro (prezzi trovaprezzi . it ) cioè per 7 volte. Forse siete voi che siete convinti di aver bisogno del 4K quando il 1080p su monitor 21" ha lo stesso PPI (pixels per inch) di un monitor 4K da 42". Io il monitor 21" me lo tengo più vicino e non ho bisogno del mega monitor o del 4K, salvando un sacco di soldi nel frattempo.
RUclips ha considerato il mio commento spam... Io gioco su un monitor 24.5" 1080p ma avrei preso volentieri un 21" 1080p che ha lo stesso PPI (pixels per inch) di un 42" 4K. Perché spendere dunque 2450 euro 😂 di RTX 4090 quando potrei avere la stessa percepita sharpness, nitidezza dell'immagine, con un 21" 1080p spendendo "solo" (si fà per dire) 350 euro con una RTX 4060 Ti 8 GB@@Mamba_7631
Eh si... ormai va avanti così da una diecina di anni ormai.... con maxwell nvidia ha preso un distacco enorme da amd la quale quest'ultima non ha mai più colmato... ci si è avicinata con le rx 6000, ma era comunque indietro con upscaler ed rt...
La risoluzione va di paripasso con la gradezza del monitor/tv che danno la densità, è sulla densità che bisogna ragionare. Di conseguenza magari su un 40 pollici non è percepibile ma su un 200 pollici si....
@@ResolvedSamu Si d'accordissimo ma è li il concetto, la densità dei pixel (distanza tra i puntini)...... Onesto penso che anche su un 80 pollici non saprei se a 2 metri la differenza sia percepibile, figuariamoci sotto di diagonali.
@@alessio79aaa46 per me oltre il 4k nel mondo reale (nel senso che non abbiamo posto per monitor enormi, costi ecc) non ha senso andare quindi vedremo come si svilupperà questo settore.. oltre a fare giochi più elaborati e fatti bene non so quanto senso abbia andare su 8k e un ipotetico 16k tra 15 anni magari
@@Z3t487 Anche, ma puzzava soprattutto che ne fossero 4 di fila e ancor di più le frasi scritte, di gente proprio troppo di passaggio (su questo pianeta...) per essere credibili.
Concordo con la tua analisi, almeno finché le schede video non saranno rese inutili dal gaming in streaming. Ovviamente infrastruttura permettendo. Ciao
ti faccio i complimenti perchè dopo essere stato fregato da voi youtuber che, mi avete convinto che valeva la pena di predere un 4k ed una scheda video adeguata, oggi ti sento dire una cosa che io sostengo da tempo : se giochi non guardi i minimi particolari, non ne hai il tempo. il 4k e la 3080 li ho rivenduti ad un buon prezzo ,mi sono preso un fhd 144hz di ultima generazione ed una rx 6800xt usata. ho messo in tasca soldi (anche se ci ho rimesso comunque) e vivo bene. c'è chi ha visto il monitor fhd acceso e mi ha chiesto se era un 4k, cio significa che diferenza non è poi evidente.
In parte … se mai ci sarà un boom del vr sara necessario avere una scheda che dovra renderizzare il doppio. Poi immagino che le ai inizieranno entrare anche nel gaming. Quindi mi aspetto che avremo bisogno di schede sempre piu potenti.
Concordo,comunque per il momento non siamo ancora arrivati ad avere queste tecnologie come standard (anche se la strada è quella), quindi io continuo per ora a fare i miei acquisti basandomi sulle prestazioni base e le tecnologie mi vengono in aiuto in quei pochi giochi veramente pesanti.
Penso ci sia un lato del discorso dei supersampling del quando convenga usarlo o no che viene spesso tralasciato, l'utilizzo di quest'ultimi in diverse categorie di giochi cambia di molto la loro validità in relazione allo scopo finale.
Col marketing odierno questo viene totalmente "insabbiato"
Ciao Ferry, ti seguo sempre. Che il mercato delle schede grafiche è incasinato me ne ero accorto a fine novembre quando mi era salita la scimmia di costruirmi una build top da 2300 euro. E come la scimmia sia scappata a gambe levate, dopo aver letto e analizzato di tutto. Attualmente penso che aspetterò altri sei mesi o forse il 2025, per farla ritornare sta scimmia. Quello che mi intriga è proprio questa AI cosi prepotentemente integrata, quasi a scovare l'oro in questa nuova eldorado che mi fa salire un hype indotto su possibili capovolgimenti e incasinamenti ulteriori , e magari in questo chaos, trovare quella scheda grafica che, oltre a farmi giocare a risoluzioni 4k, possa anche mettere piede a palazzo per iniziare a giocare io stesso con modelli AI sfruttando la potenza dei cuda core. Sono mie fantasie, ma sicuramente è cio che mi fa stare a livello periscopio e capire qualcosa dal chaos incasinante che secondo me continuera almeno fino a fine 2025
Come spieghi tu non spiega nessuno, complimenti, sempre chiaro, non ho parole!
Comunque, grazie a queste feature, la 1070 Ti che ho tiene ancora botta ... altrimenti era da cestinare!
Video come sempre chiarissimo ed equilibrato :-)
Mi trovo in tutto nell'analisi. Aggiungerei solo, anche se non è questo forse il video specifico, il tema delle tecnologie implementabili a livello di driver. È vero che il DLSS è un po' più avanti ed i driver Nvidia sono più curati (questo lo aggiungo io), ma senza essere tifosi, da vecchio utente Nvidia passato recentemente ad AMD, il DLSS dipende dal gioco/mod; Nvidia Experience non consente di 'forzarlo' a livelli driver se manca. AMD Adrenaline consente vari settaggi generali e per singolo gioco a livello driver compreso l'upscaling (FSR) indipendentemente dal fatto che il gioco lo supporti nativamente. Non conosco il mondo Intel sul punto, ma nel mio caso il cambio è anche dovuto a queste funzioni di Adrenalin settabili extra gioco.
concordo su tutto, spiegazione chiara e semplificata, complimenti per la possibilità di fare chiarezza su specifiche tecniche, quello che spero è che si arrivi ad un prezzo decente.
Utente amd reperto A: "a me piace giocare nativo e senza artefatti"
Io con la 6800xt gioco in 2k a ultra su monitor 144hz e non ho mai avuto il bisogno di usare fsr
@@ResolvedSamu Prova Alan Wake II e poi mi dici
@@federicoliguori2698 Alan Wake II pure una 4090 fa fatica
Idem con patate. Ho sempre avuto gpu nvidia ma questa volta, circa 6 mesi fa, venduta la 3070 insieme al monitor, sono passato ad amd prendendo una 7900xt affiancata a un monitor 34 1440p ultra wide...
Boh io la differenza tra nativo e super sampling la vedo eccome in 1440p...
Ma poi comprare una scheda da 500€ nata per il 1440p e renderizzare a 768p in quality mi da fastidio in partenza...
Finché posso gioco in nativo
Ciao Ferry, mi trovo TOTALMENTE in disaccordo con un'affermazione che fai: "stanno facendo del bene". A mio avviso è proprio il contrario: quando queste tecnologie sono uscite, i giochi IN GENERALE con un hardware medio - medio/basso erano fruibili (55-65 fps), POI con l'aggiunta del DLSS/FSR, si passava a 75/90 FPS...erano nate quindi come AGGIUNTA, come un "di più"....un bonus diciamo...come hai detto tu stesso, dovevano aumentare le prestazioni, a parità (o quasi) di qualità grafica. Oggi non è ASSOLUTAMENTE così, ormai giocare SENZA DLSS o FSR con un Refresh Rate DECENTE è difficilissimo...senza queste tecnologie la maggior parte dei giochi fa 40 fps anche sulle GPU più nuove; perché questo? A mio avviso, in soldoni, gli sviluppatori dicono "vabbè il gioco più o meno gira, TANTO C'E' il DLSS"....i giochi dovrebbero girare BENE (60 fps circa) con un hardware MEDIO a dettagli MEDI SENZA DLSS....poi se uno vuole un Refresh Rate maggiore allora applica queste tecnologie....ormai invece sono un requisito...basta guardare Starfield...ci stanno spingendo ad aggiornare COMPULSIVAMENTE l'hardware.
sono perfettamente d'accordo. ora con la scusa del dlss e fsr fanno uscire dei giochi scandalosi vedi starfield che non riusciva a far girare neanche 60 fps sulla 4060 in full hd. veramente penoso
ciao, il mio "stanno facendo del bene " è riferito al fatto che permettono con schede meno costose di raggiungere livelli qualitativi migliori. Quindi è un bene perché si spende di meno e si ottiene di più.
Io ho una nvidia serie 3000 quindi non so come sia la questione con le schede di ultima generazione, ma la differenza di definizione tra dlss (2.0 nel mio caso) attivo e dlss disattivo si vede eccome, soprattutto in vr. I pannelli strumenti di flight simulator ad esempio si leggono molto meglio con dlss disattivo che attivo. Se non ci si arriva con gli fps il dlss si attiva, ma si tratta comunque di un compromesso. Si può usare la IA più avanzata che si vuole, ma un upscale non sarà mai definito come un render a risoluzione nativa. Per cui le schede di fascia top serviranno sempre. Purtroppo questa moda di far uscire titoli in cui il supersampling è attivo di default sta prendendo piede, questo è vero, ma la vedo più come una scusa usata dagli sviluppatori per evitare di ottimizzare piuttosto che una reale necessità. Un futuro in cui ci abitueremo a giocare in supersampling, sacrificando la qualità dell'immagine e dando per scontato che non si possa fare altrimenti, a mio avviso non è un bel futuro.
Come rendi così semplice i concetti, nessuno come te. Bravo😮😊
Grazie per i tuoi video e le tue analisi specifiche nonché ricche di tecnicismi vari. Io ritengo che il mercato sia più complesso di ciò che sembra, nel senso che è vero che principalmente un utente decide la risoluzione di riferimento per poi decidere quale GPU acquistare, è altrettanto vero che bisognerebbe aver una cultura superiore su come impostare i vari dettagli grafici, mi spiego meglio: l'utente X vorrebbe giocare in QHD senza compromessi, ossia tutto "maxato", solitamente il consiglio è una 4070TI oppure una 7900XT, in realtà lo stesso gioco, impostando i settaggio grafici a dovere (esempio: ombre su alto anziché ultra) può sicuramente offrire prestazioni paragonabili nonché simili, anche dal punto di vista della qualità grafica e non solo di frame, sicuramente ottimali anche con una GPU di un "gradino" più basso, portando l'utente X a risparmiare per poi avere comunque prestazioni ottimali, ed è qui che le tecniche trovano terreno fertile.
Ciao caro... Se ho capito bene se tipo uso l fsr su un gioco della mia rog ally non ha senso impostare l fsr su una risoluzione a 1080p ma conviene abbassare la risoluzione a 720p e poi applicare l fsr? Ho capito bene?
2:55 insomma, l'fsr a risoluzioni sotto il 4k ha spesso artefatti orribili che si notano eccome, anche al preset qualità, cosa che dlss e (spesso) XeSS non presentano, o presentano in modo minore. Per quanto riguarda l'upscaling per le schede di fascia altissima, serve, perché rende quantomeno più consistenete l'esperienza di gioco sui titoli più pesanti, considerando anche quelli che usciranno, o rendere possibili cose che non lo sarebbero altrimenti, nemmeno su una 4090 e no, non sono situazioni così assurde. Cyberpunk, uscito quasi 4 anni fa, maxato con PT, 4090 o meno, senza upscaling non esisterebbe.
Ragazzi, alla fine di questa rincorsa infinita al dettaglio c'è l'imbuto più importante di tutti: le capacità visive umane! Perché non ne parla un'anima in questi video divulgativi?
Come è successo per gli schermi dei cellulari, a un certo punto arrivati perfino ai 4K, il mercato si fa portare a spasso con tante finte promesse.
Per fortuna la corsa alla risoluzione va più a rilento delle loro previsioni e quindi tanti gamer influencer delle varie 4090 non sanno che farsene. Per me sarebbe ora di finirla con l'andazzo di +30% di potenza e -10 di consumo. Che diano priorità all'efficienza, si avvicinerà così la fine delle schede video discrete, cosa soltanto positiva per noi consumatori.
Una RTX 4060 va bene per giocare a 1080p per il 2024. Ha 8Gb di VRAM (il minimo) e le impostazioni di grafica sono variabili (Low < x < Ultra). Ha DLSS 3 e 3.5. Chi fa animazione oppure progetti 3D e vuole anche giocare deve prendere una RTX, sta lui se vuole la Top di gamma oppre la medio/bassa. In sintesi le RTX non sono fatte per solo giocare ma posso offrire le stesse prestazioni per fare tutti quelli lavori in 3D.
completamente d'accordo..con la standirdazzione dei vari dlss e amici vari sicuramente si potranno spendere meno soldi sulle schede video... forse quelle di top gamma andranno piu sull'8k a sto punto...
Ma a chi serve l'8K? Già un monitor 4K su 42" ha più di 104 come pixels per pollici... Se poi c'è gente invece di mettere il monitor su una scrivania lo mette nel salone e ne compra uno gigante, allora sì che l'8K forse può avere senso, ma sempre se ci si siede abbastanza vicini ad esso... Forse anche troppo vicini per la salute dei propri occhi, boh...
@@Z3t487 tutti ! con l'andare avanti della tecnologia avremmo risoluzioni semrpe superiori a prezzi sempre inferiori!già ci sono ora filmati su yt di giochi in 8 k.Il tuo discorso sulla distanza di visione mi sembra fatto da mia nonna con conoscenze pari a zero!benq consiglia per un 27 pollici 4 k distanza 1.7ft (52cm) per un 32 distanza 2ft (61cm)
@@MassimilianoCarinci Mi son basato anche su quello che diceva Linus Tech Tipa, che anni fa chiamava il 4K "dumb" ed ora pure l'8K, dove ha fatto provare alla cieca l'8K ed i suoi dipendenti non sapevano distinguere il 4K dall'8K.
E poi la distanza di visuale certo che ha importanza, perché la nostra vista, anche fosse perfetta, ha dei limiti e quindi ad un certo punto appunto raggiungi il limite cui sai distinguere dei dettagli, ovvero pixels in più.
Mi fido più della parola di Linus Sebastian che di Asus, visto che Asus potrebbe avere una cosa che si chiama "conflitto di interessi".
@@Z3t487 intanto era benq... conflitto di interesse in cosa scua??sei un po confuso su quello che dovrebbe essere un conflitto di interesse..fidati di quello che ti pare.. è un dato di fatto che andando avanti con le tecnologie aumenteranno le risoluzioni! è fisiologico...mica penserai che rimarremo cosi no??al momento non abbiamo raggiunto il limite di risoluzione percepibile...
@@MassimilianoCarinci Ah ma allora credo che tu stia parlando del 32K cioè quei teorici 500 e rotti megapixels oltre i quali praticamente sarebbe come vedere qualcosa nel mondo reale, cioè le immagini sul monitor avrebbero una definizione tale da rendere impossibile il distinguere i pixels, anche con schermi giganti, almeno a livello di grandezza che entrino ancora nelle case dei comuni mortali... Quindi diciamo da 100" al massimo? 150"? Dimmi te ché io effettivamente ne so pochissimo.
Comunque il conflitto di interessi nel senso che ad Asus interessa venderti lo schermo, non ha certo interesse a non separarti dai tuoi soldi e a dirti:" guarda che secondo me 1440p su un 27" alla giusta distanza bastano ed avanzano".
Poi io sono totalmente ignorante sul come si calcoli la distanza ideale, io per esempio il mio 24.5" 1080p lo tengo a 70 cm dai miei occhi e mi trovo bene così, senza fare calcoli particolari.
scusami... ma credo che al minuto 5.57, ti sia dimenticato che PER scegliere la scheda grafica serve sapere : A CHE RISOLUZIONE VUOI giocare e CON CHE REFRESHRATE ...il classico 60hz o i vari VRR 100/144/244 eccc.....
converrai con me che c'è differenza se voglio giocare a 1080P /60HZ o 1080P/con freesynk/g-synk 244hz
in quetso caso bisogna valutare schede DIVERSE , nonostante le tecniche di supersampling
Ciao, ma il refresh rate è secondario. Si vuole puntare almeno ai 60 FPS per ogni gioco, competitivi a parte, il resto sono dettagli che fanno una differenza minima. In ogni caso ho fatto diversi video sul rapporto refresh rate e FPS.
Gran bel video! Approfitto per fare una domanda: che scade video consigli per giocare senza compromessi in 2k? Ha senso secondo te aspettare le super e andare su una 4070super?
Io sto aspettando la 4070 super per passare da una 3070 ! Dai rumors sembra che costeranno attorno ai 600$…l’unica pecca sono i 12gb. Comunque lunedì ci sarà la presentazione !
Una giusta analisi, mi chiedo se entrerà in scena nvidia con i suoi processori cosa porterà di nuovo a questo mercato, diciamo saturo.
devo dire da nvidia alcune cose non mi piacciono ultimamente come quella di lockare dlss 3 alla rtx 40... io per esempio come penso molti ho visto il ragazzo su reddit che era riuscito a fare partire il dlss3 su una rtx 2070 e il risultato era come dire incredibile?? quindi se ci è riuscito tizio x a casa penso tranquillamente era fattibile anche per l'igegneri nvidia (il tizio spiegava che gli rt core e tensore core servivano ma bastavano anche quella della 2000)
Bisognerebbe dividere gli utenti gaming in 3 macro categorie.
1) Il purista ( Entusiast ) Top di gamma sensa super sampling , budget finanziario Alto.
2) il gamer appassionato ( Vorrei ma non posso ). Ottimizzo il mio budget comprando il meglio ma non il top e giocando con super sampling.
3) Il gamer "Vero" che ha trasceso la qualità grafica che cmq apprezza , e che gioca con qualsiasi gioco che gli trasmette emozioni"anche retro consolle etc".
Dobbiamo accettare queste tecniche paracule di sampling. Il passato insegna ad esempio quando i motori erano ad aspirazione e ci fu qualcuno che si inventò il turbo compressori che era una tecnica paracula di allora per avere più potenza con lo stesso motore. Il mondo è pieno di esempi come questo.
Sei il migliore. Oggettivo, senza pregiudizi e chiaro in ogni aspetto.
Video idea caro Ferry: il grafene l'hanno davvero *sistemato" in modo da farlo diventare un super conduttore? Perché fosse una notizia vera, perdonami che non ho controllato la fonte, sarebbe a quanto pare rivoluzionario per il mondo dei computer: computer fino a 10 volte più veloce e che scaldano meno. L'articolo parlava di grafene in 2D perché si utilizerebbe un solo strato di atomi del suddetto materiale.
a quanto pare sono riusciti a farlo, vedrò nelle prossime settimane se c'è modo di approfondire, grazie! :)
Ottima analisi, poi a livello di fps va bene averne molti ma bisogna anche tenere in considerazione dove arriva l'occhio umano e quello che riesce a percepire.
LA MIA 1080TI SFRUTTA BENISSIMO L'FSR.. PERO ORA HO CAMBIATO CON 3070 HO IL DOPPIO DEI FRAME GRAZIE AL DLSS
una riflessione... ma arrivati a questo punto, gli sviluppatori di videogame faranno anche giochi ottimizzati con i piedi perche' tanto c'e' potenza da vendere o sistemi come questi che aggirano parzialmente i problemi?
mi sembra un buon punto, e un rischio..
Sarebbe interessante capire quanto impattano queste tecnologie sui consumi e sulle temperature delle GPU. Se fossero in grado di far ottenere all'utenza anche una riduzione sensibile di questi due fattori avrebbero molto più senso anche sulle Top di gamma (mettendo da parte il discorso produttività per questa fascia).
Se vuoi una GPU entry level e che consumi già poco di suo allora vai di RTX 4060, no? Poi puoi anche puntare ad una RTX 4090 che, se sai fare un po' di undervolting sicuro, ti consuma molto di meno e perdi poche performance.
@@Z3t487
Undervolt sulle serie 4000 (soprattutto 80 e 90) è inutile. Scaldano pochissimo e hanno una dissipazione ottima da sole.
Mai visto fare alla mia 4080 FE più di 40 gradi sotto sforzo
@@GoodLife90 Per i consumi energetici diciamo, alla fine si perde pochissimo in prestazioni, no?
@@Z3t487
Nì: il consumo della serie 4000 è contenutissimo già.
Io ho una 4080 e un 13700K, AIO e altre 6 ventole, rientra tutto in un PSU 850 watt
Come ho detto l'altra volta, io mi sono invece basato sul fatto che se c'é il ray-tracing perché non attivarlo e se porta a benefici visivi e magari aumento di prestazioni (compreso ray recostruction e frame generation attivando il dlss3.5, se supportati) sia un elemento da prendere in considerazione. Certo,.quando stavo valutando.ik dlss era ben oltre all'fsr. Ora la situazione é cambiata ma da vedere come queste tecnologie evolveranno e come, magari, si integreranno tra loro
Concordo.......
Un consiglio se posso chiederti, io dovrei rifarmi un Pc da zero visto che il mio I7 4790K e Gtx 1070 di 8 anni inizia ad essere vecchiotto quindi più che un upgrade devo rifarmene uno da zero, io desidererei giocare in 2k supportato dal mio Tv con connettore Hdmi 2.1 ad un frame rate che sia almeno 60 Fps con dettagli ultra o alti, io pensavo visto che il mio budget non è alto ad una Rtx 3070 o al massimo la Rtx 4070 e ti volevo chiedere quale processore mi consigli io preferirei restare su intel, che scheda madre mi consigli e che alimentatore, io pensavo ad un Watt 850.
La domanda è ovviamente rivolta a tutti, ringrazio in anticipo.
Le top di gamma okay sono penalizzate dal dlss e dall'fsr nel presente perché non ne hanno bisogno e perché questi ultimi favoreggiano l'acquisto di schede inferiori ma non nel futuro perchè è lì che dlss e fsr faranno la differenza e fanno sì che una top di gamma di vecchia generazione possa essere competitiva con una fascia medio/alta di due/tre generazioni successive.
Per un utilizzo con ACAD quale sarebbe consigliabile senza spendere un botto ?
Bellissimo video.....ma la t-shirt è sensazionale 😂😮😅
credo che queste innovazioni siano molto utili, si può arrivare a prendere una scheda senza spendere una follia, ma che ti permetta anche di giocare con qualche soddisfazione
Comunque FSR o DLSS, è uguale: beati quelli che non vedono il degrado grafico. In Flight simulator purtroppo ci sono le condizioni "migliori" per accorgersene: le ali bianche sullo sfondo azzurro, quando muovete di rollio l'aereo, si nota sempre una specie di scia staccarsi dal profilo delle ali (DLSS).
il ghosting può essere causato da più fattori, anche un semplice settare male monitor e tv
Sapete xk quando uso dlss fa effetto ghosting??
Quindi in soldoni conviene più una 4070 Super o una 4070 ti Super (o addirittura una 4080 super)? :D
Forse lo puoi aiutare. Ho scritto il dlss per la 3060 ti. Impostato nelle impostazioni dlss su fs2020. Ho notato però che i monitor dentro nel aereo sono molto sfociati
Appunto per l'anziano Ferry
nel paragrafo: "Cosa cambia tra le 3 tecniche?" non stai dando una buona informazione ai tuoi follower.
FSR e XeSS possono essere usati da tutti, ma non al meglio della loro specifica come quando vengono usati con la GPU del produttore dell'algoritmo.
FSR usa FP16 e lo fa perchè l'algoritmo di base che si usa su tutti e tre gli upscaler, l'algoritmo di Lanczos, basato sulle convoluzioni, non richiede una precisione superiore, almeno fino a che non usi una profondità di colore superiore ai 16 bits, ed oggi siamo a 10 bit se usi l'HDR...
e, sì, tutti usano questo algoritmo come base di partenza; la differenza è con che circuito HW viene calcolato e come vengono corretti i problemi sistematici che genera.
il DLSS usa i tensori, degli specifici "cores" che gestiscono al meglio i calcoli delle matrici.
ma, attenzione:
i tensori non possono gestire autonomamente l'algoritmo di Lancrzos, ma solo i calcoli sulle matrici che questo effettua; tutto il resto viene comunque calcolato dai cudacore e sui calcoli matriciali viene comunque usato un certo numero di cudacore per dare supporto ai tensori (che altro non sono che un array di celle con una circuitazione "a metrica fissa", ossia che fa solo quelle 4 operazioni specifiche; da notare che sono "a metrica fissa" e che non sono propriamente adatti a gestire matrici così minute come quelle di Lancrzos; le calcolano, aggiungendo quindi potenza di calcolo, ma lo fanno con la stesa potenza di calcolo e impiego di transistors che hai quando calcoli matrici che sono 64 volte più grandi, perchè sono specificatamente pensati per il mondo HPC e non pe ril DLSS; insomma, con il DLSS stai usando una marea di transistors, ma solo parte di questi in modo attivo, che in realtà potrebbero fare un lavoro ben più elevato).
XeSS è su due DEV;
il primo, che usa solo Intel, e che è specificatamente pensato per usare gli Xe COres, null'altro che delle SIMD AVX che Intel ha inserito nelle sue GPU, che hanno le proprie pipeline di calcolo adiacenti (ti assicuro che accanto hanno un X86, x64 che è pari ad un core Atom); anche qui un'enorme iniezione di potenza di calcolo e una versatilità maggiore dei tensor cores, perchè le istruzioni AVX, che sulle GPU Intel vengono richiamate da specifiche isruzioni, sono assai più versatili in quanto sono propriamente core vettoriali.
è per questo che Intel recupera moltissimo quando si usa il DXR nei giochi; gran parte del lavoro viene direttamente demandato agli Xe cores, che hanno annessa una cache che funziona da RT cores, dove viene inderita la gerarchia dei volumi degli oggetti e dove poi gli Xe cores andranno a calcolare i vettori e i loro core "atom" calcoleranno il punto di collisione e la traiettoria di uscita.
il second o DEV dell'XeSS è su DP4A, una specifica standard dello shader model 6.6 di Microsoft e che gestisce proprio le convoluzioni che si fanno in deep learning.
il problema qui è che Intel fa quel DEV in 32 bit, mentre tramite il primo DEV Intel calcola tutto a 16 bit (ed in effetti gli sarebbe bastato aggiungere un core di supporto tipo un P55, come c'era nel progetto Larrabee, ma visto che anche qui quell'architettura viene utilizzata in ambito HPC, servono i 64 bit; logicamente parliamo delle sole pipeline APU, perchè sono ormai anni che sia AMD che Intel usano le AVX anche per gestire tutti i calcoli in FP; le AVX sono, in effetti, le unità FPU dei processori moderni, da più di 10 anni, di AMD e Intel)...
delle architetture nvidia solo Turing potrebbe gestire adeguatamente algoritmi in FP16, perchè ha delle unità FP32 aggregate, ossia che possono eseguire 2 istanze indipendenti FP16 per ogni pipeline FP32 (e visto che tutte le pipeline delle GPU e delle CPU del mercato mainstream da 30 anni a questa parte, tranne Kepler, possono gestire 2 istanze FP32 alla volta, perchè sono 2 vie di computazione, diventano 4 istanze per ogni unità di calcolo).
Le altre architetture nvidia non possono farlo ed usano quindi una intera unità FP32 per emularne una in FP16 8riduzione di precisione).
ma per nvidia, per il suo DLSS, non è molto rilevante, perchè la vera differenza tra DLSS1 e DLSS2 (anzi, 2.4) è stato proprio il passaggio del codice da FP16 a FP32.
questo perchè serve maggiore precisione ad nvidia per il successivo passaggio dell'upscaler, ossia la correzione degli errori generati dalle convoluzioni dell'algoritmo di Lanczos; nvidia lo fa tramite il vettore di movimento e per attenuare il ghosting è dovuta passare da una precisione da 16 a 32 bit .
lo fa perchè poi usa quegli stessi dati del vector motion per gestire l'algoritmo di Anti Aliasing, il TAA, che è implementato di default sul DLSS, da sempre.
quindi, riassumendo, DLSS lo può usare solo nvidia, in quanto chiuso;
FSR verrà gestito da AMD in FP16, con un dimezzamento delle unità necessarie al suo calcolo perchè userà unità di calcolo FP32 in 2x FP16, mentre nvidia userà unità FP32 emulando FP16, 1:1, perdendo quindi un 10-15% abbondante di potenza di calcolo, perchè dovrà usare più unità FP32 per l'upscaler che verranno tolte dall'esecuzione dei calcoli per la costruzione del frame; questo avviene anche su Turing, per scelta di nvidia, anche se potrebbe eseguirlo nativamente come le GPU Vega e RDNA di AMD;
Intel, per scelta, esegue FSR in FP32, pur avendo la stessa caratteristica delel unità di calcolo di AMD (FP32 = 2x FP16), perdendo, anche qui, un buon 15% abbondante di prestazioni.
questo comporta che i giochi dovranno essere settati ad una qualità inferiore per l'FSR sia su Intel che su nvidia, ma spesso anche su AMD, perchè gli sviluppatori settano quel parametro senza discriminante della GPU, uguale per tutti; le mod su FSR ci hanno insegnato come andare a riportare FSR alla massima qualità per usarlo con AMD su diversi giochi, ma che diventerebbe del tutto inutile su AMD ed Intel, perchè a quel punto la potenza di calcolo impiegata dall'upscaler, usato in FP32, ti mangerebbe del tutto il guadagno di usare una risoluzione inferiore per guadagnare FPS; e che lo usi a fare l'upscaler se per una qualità inferiore al nativo, perchè ogni upscaler è inferiore al nativo, se guadagni si e no 5 FPS?
XeSS invece verrà processato tramite DP4a da AMD e nvidia, con rendimenti di calcolo inferiori perchè passi attraverso altri layer delle API, e verrà calcolato in FP32, mentre Intel userà direttamente gli Xe cores in FP16, che praticamente fanno tutti i calcoli loro...
il risultato quale è?
che, sì, puoi usare FSR e XeSS su tutte le schede e su una nvidia puoi usare sia DLSS, che FSR, che XeSS, ma in tutti i casi il risultato migliore lo otterrai solo usando l'upscaler dello stesso produttore della GPU, che sia per questioni architetturali o per libera scelta del produttore dell'upscaler o dei concorrenti.
non c'è soluzione: se vuoi il risultato decente da parte dell'upscaler dovrai usare quello della tua marca, non gli altri, perchè anche in questo caso c'è di mezzo il marketing e far sembrare peggiore quello degli altri.
sì, è vero che FSR sembra peggiore su una nvidia, ma è per un motivo tecnico dovuto alla limitazione di nvidia, sia architetturale se parli di Ada e Ampere, sia per scelta se parli di Turing.
sì, FSR si vede peggio di XeSS su una Intel, per scelte di Intel, e comunque sarà meno prestazionale, perchè Intel demanda tutto il lavoro dell'XeSS sugli Xe-cores, aggiungendo potenza di calcolo, quella che in realtà gli manca normalmente a causa di driver acerbi e dal fatto che un Xe core, proprio per come è fatto, occupa una marea di spazio e ti trovi una A750 che ha un die grosso il doppio di una RX 7600, pur essendo fatte con lo stesso processo produttivo, ma che non la supera, consumando pure di più (semplicemente perchè è una GPU per HPC, non per gaming).
sì, FSR funziona al meglio solo su AMD e funziona benissimo, senza aver nulla da lamentars in confronto al DLSS (sempre a seconda dell'implementazione nel gioco, perchè inizialmente facevano proprio delle carognate), se non quando usi l'upscaler da risoluzioni ridicole, tipo 540p to 1440p, in cui se lo fai con una scheda video già adatta al 1440p arrivi al collasso del processore, perchè raggiungi rapidamente il massimo dei framerate che puoi raggiungere anche usando un intel a 450W, e se lo fai con una GPU scadente.... perchè lo fai? perchè voler giocare male pur di dimostrare una condizione che non è sfruttabile? ma nemmeno con la switch!
quindi non contesto che gli upscaler possono essere aggiunti alla valutazione dell'HW, ma.... per cortesia finiamola di dire che DLSS è meglio di FSR solo basandoci su confronti fatti sulla "scheda sbagliata"... vuoi usare bene FSR? oggi puoi farlo solo con AMD, per colpa di nvidia e Intel che non vogliono vedere sminuire il loro HW HPC, totalmente inadatto a quel tipo di uso, sulle proprie GPU.
e poi vedremo con l'arrivazione dei Matrix di RDNA3 se l'algoritmo migliora ulteriormente (SOLO PER LE RDNA3), visto che anche quelli sono tensori a metrica fissa, ma sono proprio 16x16, come serve per un upscaler.
PS:
se domani faranno GPU capaci di gestire nativamente 8K in rasterizzazione nativa, allora si passa direttamente al path tracing e ci togliamo di mezzo anche questo finto RT.
in questa ottica Intel è molto più avanti di AMD e nvidia, perchè su una GPU per il path tracing ci vogliono principalmente processori vettoriali, non scalari.
E che lavori per Nvidia Amd o Intel? La maggior parte dell’utenza (me compreso) ha capito la metà di quello che hai scritto, figurarsi dirlo nel video
@@davidebaloo3606 spero solo che la metà della metà abbia capito che se usi un upscaling di un brand dovrai usarlo sulla scheda di quel brand, o dovrai accontentarti delle inferiori prestazioni che offre, ma che in tutto questo non puoi metterti a dire: FSR fa schifo a confronto del DLSS, visto che se stai usando il DLSS stai usando una nvidia e difficilmente tu hai anche una scheda AMD per fare il confronto vis a vis sulle immagini che generano.
quindi come puoi confermarlo se non hai un riscontro sull'HW più adatto per quell'algoritmo?
loro lo dicono solo perchè fanno lo stesso mestiere della Ferragni...
Proprio stamattina ho scaricato e provato la mod che va a sostituire l'FSR 2 con il FS3. Provato per ora solo su Alan Wake II.
Davvero stupefacente come risultato: ho una rx6900xt giocavo in 2k con settaggi medio/alti (no Rtx) e fsr su bilanciato, raggiungevo i 80fps circa in ogni situazione.
Con la mod FSR3 e stessa risoluzione, modalitá bilanciata, settaggi max (no rtx) 120/130fps.
Sono speranzoso per l'implementazione ufficiale e per tutte le schede che cosí, guadagneranno qualche anno di vita
provata anche io la mod e con una 3080 su cyberpunk e con pathtracing attivo in 2k ho praticamente performance simili a una 4070ti, spero che nvidia faccia qualcosa per una versione di framegeneration per le vecchie generazioni di schede video, dato che sta mod funziona anche su una gtx 1060 e qui ho detto tutto
Che programmi di render arcviz usano queste tecnologie? Grazie!🥂
Basterebbe giocare in fullhd. Magari sfruttando il "risparmio" per una illuminazione globale più credibile.
Si ma è anche vero che tra un po tutto questo sarà indifferente con l avvento del gaming cloud la potenza dei PC non sarà una priorità
servirà ancora tempo per il cloud, sono già anni che ci si prova e il cammino non sarà breve
poi c'è anche il frame generation che raddoppia quasi gli fps, e una GPU di fascia media gira come una di fascia alta....
Concordo. Complimentissimi per i tuoi video.
O magari le case produttrici ottimizzeranno ancora meno i videogiochi perché penseranno erroneamente che tanto ci penserà il super sampling a fornire prestazioni adeguate
Ma un bel video su anti aliasing e dlaa? Ho recentemente preso una 4070, e piuttosto che usare Ray racing con dlss sto giocando nativo con antialiasing dlaa e sembra tutto molto bello
io non sono a favore degli upscaling, se compro una scheda di fascia alta che senso a giocare con un rendering di 1440p o 1080p e checche se ne dica non avranno mai la qualità della risoluzione nativa difatti l'unica cosa in cui fanno meglo sono gli antialiasing ((questo è anche colpa delle case di sviluppo che non implementano antialiasing migliori)), secondo, si venderanno schede video castrate (guarda la 4060 in primis) per fare massimo profitto, terzo le passate generazioni non avranno accesso alle nuove tecnologie anche se pienamente compatibili nvidia serie 2000/3000 con il dlss 3 etc...
Buongiorno, apprezzo moltissimo i tuoi video, ho visto online che per i dispositivi mobili stanno sviluppando una nuova tecnologia di dissipazione chiamata airjet, la quale promette cose eccezionali, mi piacerebbe avere maggiori info su questa tecnologia e sapere se secondo te è rivoluzione o cavolata.
ciao, ok vedo se c'è abbastanza per approfondire, grazie per l'idea :)
l'8K non è minimamente possibile oggi. Ci sono 4 volte i pixel del 4K se le tecniche di super sampling non facciano ulteriori miracoli oltre quanto hanno già fatto, la vedo veramente difficile. Con le tecnologie attuali quadruplicare la potenza bruta sicuramente non è sufficiente. Probabilmente per un 8k servirebbero schede che si avvicinano molto al PFlop (1000 TFlop). Oggi la 4080 e la 4090 avrebbero effettivamente senso solo per un VR 2x4k con RTX, ma questo visore nemmeno esiste. E' pur vero che comprare una 4080 potrebbe portarti a saltare una generazione in più di chi oggi prende una 4070.
In un altro video parlavi che ormai si è raggiunto il fotorealismo, e ti avevo risposto che assolutamente non è vero e Alan Wake 2, ancora non era uscito. Quest'ultimo che in alcuni momenti è veramente a livello della CGI dei film della Marvel, in realtà usa molto (non so come si chiama) quella cosa che i particolari aumentano ma mano che ti avvicini ad un oggetto, questo accade in particolare per gli effetti di luce e di ombra e se si sta attenti si nota, per poter avere tutta la scena visibile tutta maxata al massimo anche per quella foglia che si trova a 50m dal POV, ce ne vuole ancora. Poi non hai considerato la dimensione delle texture. L'ultra di oggi potrebbe diventare il medio nei prossimi videogiochi e creare texture ultra a risoluzioni gigantesche. La qualità dell'RTX può essere ulteriormente migliorata. Insomma i margini per sfruttare appieno anche una 4090 rimanendo alla risoluzione 4k, che ritengo sarà il top per almeno altri 10 anni, ci sono eccome, ma i videogiochi ancora non le sfruttano, sicuramente lo faranno in futuro.
NON SONO D'ACCORDO
mi spiego: il riferimento alle prestazioni non è corretto. Quantomeno nel confronto DLSS2 e FSR1, dove quest'ultimo era generalmente più veloce nel settaggio di qualità massimo. Poi per la qualità dipende da 2 fattori: risoluzione di input e Anti aliasing.
Xess è generalmente più lento nel settaggio di qualità più alto.
Salvo poi situazioni legate al ghosting ecc...
Ma oggigiorno fra DLSS3.5 e FSR3, voglio vedere ad occhio se te ne accorgi...(riferito ai fanboy)
Ni, sono parzialmente d'accordo, ti darei ragione se i giochi fossero scritti bene, purtroppo per esigenze di mercato escono buggati o addirittura non pronti, così l'unica alternativa per farli girare decentemente è usare una scheda di fascia alta e a volte non basta neanche quella...
Io devo ancora capire l'impatto dell'FSR sul mondo console, se sta venendo usato anche lì e con che risultati. Immagino che di base ad una casa di sviluppo neutrale (senza accordi commerciali con Nvidia o Intel) convenga implementare primariamente l'FSR, che risulterebbe compatibile con tutto l'hardware gaming moderno.
Ci sono diversi giochi su console che usano FSR, la Switch ha l'FSR 1 su Xenoblade ad esempio.
Su console casalinghe in alcuni giochi si usa FSR 2 e di solito sono quelli dove la ps5 mostra più il fianco, probabilmente per mancanza di compatibilità piena.
secondo me l'utente medio compra in un modo molto più semplice di quello che hai esposto, e cioè: non ho tanti soldi prendo quella col numero nel nome più basso, ho tanti soldi prendo quella col numero più alto nel nome, meglio ancora se alla fine ci sta tipo XT, Turbo, Ultra, Platinum, Overclock, TurboPower, MegaUltra
Ragazzi ho una nvidia rtx 4070 e non riesco a giocare bene a fortnite nonostante il dlss 3. Imposto tutto al massimo 2k e dlss su bilanciato (sopratutto con il lumen e nanite). Molto spesso gli fps sono alti ma ci sono continui lag e abbassamenti di prestazioni che rendono ingiocabile il gioco. Come mai?
concordo in totum....ottima spiegazione
il problema che va menzionato dlss : ma appena uscirà la nuova 5090 Nvidia lascerà indietro con gli aggiornamenti come ha fatto con la serie 30 xx a 40xx .. o continuerà a dare supporto ed aggiornamenti dlss? " motivo che la gente ha strapagato una schea video." Motivo in qui io sono passato con AMD e devo dire di non pentirmi per nulla . .. Anzi dovevo farlo già dalla serie 69xx . invece di dare un rene per una 3080 che non mi ha mai convinto del tutto
Possiedo una RTX 4070 e gioco a risoluzione 1440p mentre un mio amico ha una RTX 3080 e gioca alla stessa risoluzione, (sappiamo che le schede sono pressochè identiche anzi la 3080 su alcuni giochi spinge di piu), ho potuto vedere che su Alan Wake 2 settato al massimo con la 4070 riesce a farmi giocare sui 60 frame circa con ray tracing e patch tracing attivi abilitando però il dlss e il frame generation. La 3080 invece a pari di settaggi grafici viene pesantemente penalizzata dalla mancanza del frame generation e questo mio amico non riesce ad andare oltre ai 30\35fps.
Dato che parliamo della stessa scheda grafica in termini di prestazioni nude e crude sulla potenza di calcolo è ormai palese che cio che sposta l'ago della bilancia sono le varie tecnologie.
Digli al tuo amico che cerca su Google nukem fsr 3.0 mod ❤❤❤❤ e poi vediamo come va la 3080
Grazie al frame generator riesci a fare così tanti fps in più, semplicemente Nvidia per vendere le sue schede ha fatto l'unica cosa possibile che poteva fare per vendere quell' immondizia delle 4000; limitare le 3000 lasciandole senza frame generator. Perché ok l'efficienza energetica delle 4000 tanta roba ma oltre la 4090 è una gen abbastanza pessima considera ho acquistato una 3060 ti usata a 240€ ora la 4070 nuova costa 600€ non ne vale assolutamente la pena spendere più del doppio per quello che ti offre un più che non è così tanto poi
Dipende cosa vuoi ottenere come gamer, vuoi i 60fps? i 120fps? il pc è scalabile, i giochi sono altamente scalabili, quindi se sei disposto a scendere a "patti" scalando la grafica all'occorrenza una gpu medio gamma andrà bene per la maggior parte dei giochi, se vuoi tutto ultra in 4k con RT attivo all'occorrenza a fps alti, allora dovrai spendere ;)
Io dopo due gen con NVidia ( ultima 3060 TI ) sono tornato su AMD e ho preso una Sapphire 7800 XT con 16gb, ad oggi gioco ancora in FHD anche se quest'anno penso di cambiare monitor e passare a 1440p che mi basta e avanza ( non gioco su TV ma in postazione ), mi basta stare fisso a 60 fps non chiedo di più e quindi per ora sto e starò bene cosi per un pò, farei comunque notare che ad oggi già solo in FHD con grafica tutto Ultra alcuni giochi saturano e vanno oltre agli 8gb di Vram
Concludendo ad oggi prenderei appunto o la 7800 XT o a poco più la 4070, scendere sotto come gpu significa scendere a compromessi, sopra per me serve solo per il 4k o per FPS elevati
Se metteranno quelle porcate di default in tutti i giochi ci aspetterà davvero un futuro videoludico pessimo.
Già oggi abbiamo una fascia bassa e medio bassa venduta a prezzi assurdi manco fossero schede di fascia superiore(4060 Ti su tutte), in futuro se ci venderanno FPS finti e upscaler del cavolo al posto della potenza bruta delle GPU la vedo proprio male male male
Ma se renderanno le schede di alta gamma inutili dovremmo essere tutti contenti, non pagheremo una scheda come un motorino...ma non penso lo faranno, c'è sempre di mezzo la qualità dell'immagine e degli effetti. Certo non si daranno la zappa sui piedi
Oggi i produttori spingono di piu il medio alto - alto, la rx7600xt è uscita solo da poco, la rx7700xt è posizionata a livello di prezzo in modo che sia conveniente comprare una 7800xt.
La 4070 e la 4060 non hanno rapporto prestazioni/prezzo convenienti.. a me sembra che le aziende spingano perchè acquistiamo le gpu di fascia medio alta-alta.
Anche ieri nvidia ha annunciato le super e hanno migliorato il rapporto prestazioni prezzo nelle fasce medio alta e alta.
Per il resto condivido il discorso riguardo le prestazioni pareggiate con le tecniche di super sampling tra schede di fasce diverse.
Le radeon attuali non sono appetibili. Col rapporto qualità prezzo ci fai poco se sono indietro tecnologicamente. La 7600xt 16gb è la peggior scheda video mai creata dall'uomo... bah... 🤦🏻♂️
@@OmnianMIU il raster è una tecnologia, c è gente a cui interessa quella.
@@sgress960 ma che risposta è? Cosa c'entra con le prestazioni ridicole che ha la 7600xt? Ok parliamo di raster: quella sotto specie di gpu, la 7600xt, va quanto una 4060 in raster, costa uguale ma assorbe il doppio, solo che la 4060 in più ha il supporto a tutte le migliori tecnologie grafiche di ultima gen a differenza di tutte le radeon. Quindi, cosa c'entra cosa interessa alla gente? Ma perchè la gente comune, i gamers sanno veramente cosa vuol dire rendering in raster o in RT? Dai su.... tanto per farti capire, solo i fanboy AMD stanno esaltando questa scheda di 💩, perchè altro non è. Chi ci capisce un minimo, ma attenzione, UN MINIMO, questa scheda la tirerebbe solo nel cesso
E comunque il metodo di rendering di un gioco non è un fattore a cui deve pensare il gamer, quest'ultimo deve prendere in mano il dispositivo e giocare. Per tua sfortuna, i developers preferiscono il rendering in RT per ovvie ragioni che non sto qui ad elencarti
Guarda nel mio commento volevo solo dire che i produttori stanno spingendo le vendite delle schede video di fascia medio-alta alta e cercavo di far notare che una 7600xt è uscita solo ora, con il fatto che le rtx hanno migliorato il rapporto qualità prezzo nelle fasce alte medio-alte
Ferry non ce n'è confusione, l'upscaling di Nvidia è meglio, si usa in modalità qualità in full HD/qualità o bilanciato su schede più scarse in 1440p, in 4 va bene anche su prestazioni. Poi si mette la mod di nukem per usare fsr 3.0 per generare frame, per chi ha una serie 3000. Il frame generation di AMD è migliore del previsto. Per altri due anni ci conserviamo i soldi al posto di comprare una 4000
È gratis la mod di nukem? Ed è sicura? Si scarica dal Nexus?
@@Z3t487yes
Esatto 👏🏻👏🏻👏🏻
quella di nukem è una bella mod. Però è stata provata su una 4000 e ci sono differenze sia per quanto riguarda piccoli e pochi glitch aggiuntivi ed una latenza un filo superiore... però sti cavoli, è un ottimo compromesso, per un tripla A va alla grande! Sono contento che ci sia questa mod... è l'unica cosa che apprezzo di AMD ultimamente 😂😂😂
Tu che gpu hai?
@@OmnianMIU una 3080, chi ha dalla 3080 in sù può stare ancora tranquillo, con una base di 60 frame la latenza è abbastanza decente per un single player FPS considerando il reflex, sopra gli 80 frame alla grande, per un 1440p 144/240hz al top. Al momento davvero l'unico upgrade valido sarebbe la 4090 ma dato il prezzo se la possono tenere.
L'AI permettera' di avere performance maggiori e ottimizzazioni , ma quanto cambiano o alterano l'immagine reale? Il 4k per non parlare del futuro 8k sono un bello scoglio computazionale vedremo in futuro chi riuscira' a dare performance valide in presenza anche di algoritmi di luce estremamente esigenti come il path tracing . Ma gia' adesso le schede video hanno prezzi fuori scala per la maggior parte della gente il gaming pc sta' tornando elitario il settore console ringrazia. Saluti a tutti
Perchè sbattersi per ottimizzare?!
Io voglio sapere dopo quanto tempo dalla pubblicazione di un video si può lasciare un commento senza che RUclips automaticamente lo reputi spam e lo auto-elimini? 🥴
Comunque...
Io personalmente compro schede video di fascia alta e gioco con un monitor 1080p e secondo me non è pazzia perché:
- il 1080p mi serve perché il monitor è ad alto refresh rate e quindi quando gioco in competitivo io gioco in 1080p.
- Con il DLDSR posso far diventare il 1080p 1440p o 1620p (vedete l'equivalente per AMD ed Intel)
Ho insomma un monitor flessibile che va bene sia per il competitivo sia che restituisce buone immagini per i giochi single player.
- È pure IPS a bassissima latenza e mi trovo bene (è l'Acer 1080p 390 Hz se a qualcuno interessa).
Se dovessi farmi un monitor nuovo punterei a quello 1080p 540 Hz, ma siccome il gioco competitivo che gioco è limitato a 333 fps non mi interessa personalmente, ma lo consiglio se giocate ovviamente giochi con un cap di fps altissimo.
Sì, lo so che questo monitor da 540 Hz è TN, ma è TN di nuova generazione e Optimum, bravissimo RUclipsr che raccomando di seguire, dice che è ai livelli di un buon IPS.
È pure velocissimo, con tempi di risposta reali di 1.1 ms.
La tecnologia più interessante è il frame generator amd anche se da affinare potrebbe dare un boost prestazionale non indifferente
Dio benedica FSR3.0 + FG che permettono ancora alla mia "vecchia" Nvidia GTX di lavorare in modo egregio e questo grazie ad AMD (paradosso)
Finche non faranno una minischeda con le solite prestazioni di una 4090 non la compro troppo groose quei catafalchi ché ci sono adesso😅
e un ragionamento semplice non complicato e sono d'accordo con quello che dici , mai avuto un PC ma lo sto facendo ora e ho puntato su una 7800xt abbinato ad un ryzen 5 7600 piattaforma m5 32 GB di RAM a 6000mhz SSD 990.pro da 1tb alimentatore Mew 80 Gold plus 750w full.modular raffreddamento a liquido master liquid 240l l'unica cosa che credo di aver sbagliato e la scheda madre ho preso una forse troppo economica la pro b650m-p e il case e un 3000 air flow mimpotresti dire cosa ne pensi e se la scheda madre può essere il limite. grazie, comunque sono un bene queste tecniche se non vogliamo avere dei PC che costano un botto e consumano 30000w xcfsre girare i tripla a
vai tranquillo, dato che è il tuo primo pc monta il 240 sulla parte superiore e ricordati nel tempo di controllare ogni tanto se le temperature del processore tendono a salire, essendo a liquido negli anni evapora e perde di efficacia.
Se non ricordo male quel case viene venduto con 2 ventole, in caso vaglia di aggiungerne 1 o 2 sul davanti in immissione per migliorare il giro d'aria, per semplicità ti conviene prenderle uguali allo scopo di non incappare in connettori diversi.
@@alessio79aaa46 grazie
Le schede video cosi come tutto il resto dei componenti del pc si scelgono solo ed esclusivamente con una regola: "Il Portafoglio". Dopodichè è tutto grasso che cola.
Andrebbero scelte il basse al rapporto prezzo/prestazioni per non farsi fregare.
@@Z3t487 la fregatura è proprio li. Una 4090 ha quelle prestazioni e costa quel prezzo li stop. Se ti servono quelle prestazioni spendi quei soldi. Non è che se continuiamo a dire che la 4090 è cara come prezzo le prestazioni cambiano o il prezzo diminuisce e il concetto che esiste un equilibrio tra prezzo è prestazione e una cosa aleatoria. I consumatori non possono stabilire questo equilibrio e i produttori non privilegiano i bisogni dei consumatori sui propri interessi dunque tutto si riduce al "soldo". Te la puoi permettere? Ok la compri, viceversa desisti!
@@Mamba_7631 Ma perché aleatorio? La RTX 4060 Ti 8 GB costa 350 circa e la RTX 4090 va per tre volte di più ma costa 2450 euro (prezzi trovaprezzi . it ) cioè per 7 volte.
Forse siete voi che siete convinti di aver bisogno del 4K quando il 1080p su monitor 21" ha lo stesso PPI (pixels per inch) di un monitor 4K da 42". Io il monitor 21" me lo tengo più vicino e non ho bisogno del mega monitor o del 4K, salvando un sacco di soldi nel frattempo.
RUclips ha considerato il mio commento spam...
Io gioco su un monitor 24.5" 1080p ma avrei preso volentieri un 21" 1080p che ha lo stesso PPI (pixels per inch) di un 42" 4K.
Perché spendere dunque 2450 euro 😂 di RTX 4090 quando potrei avere la stessa percepita sharpness, nitidezza dell'immagine, con un 21" 1080p spendendo "solo" (si fà per dire) 350 euro con una RTX 4060 Ti 8 GB@@Mamba_7631
A volte i miei commenti li vedo, altre volte spariscono...🥴
Ciao, la penso come te nulla da aggiungere!
Cosa ne pensi dei rumor che vogliono una tecnologia simile anche su console?
arriverà sicuro, perché è l'unico modo per avere realmente il 4K.
AMD copia Nvidia questo si capisce.
Eh si... ormai va avanti così da una diecina di anni ormai.... con maxwell nvidia ha preso un distacco enorme da amd la quale quest'ultima non ha mai più colmato... ci si è avicinata con le rx 6000, ma era comunque indietro con upscaler ed rt...
Ti si vuole bene ❤
Ma l'occhio umano riesce a vedere una differenza tangibile tra gaming 4k e 8k?
La risoluzione va di paripasso con la gradezza del monitor/tv che danno la densità, è sulla densità che bisogna ragionare.
Di conseguenza magari su un 40 pollici non è percepibile ma su un 200 pollici si....
@@alessio79aaa46 però penso che pochissime persone abbia posto per un 200" al di là del prezzo
@@ResolvedSamu Si d'accordissimo ma è li il concetto, la densità dei pixel (distanza tra i puntini)......
Onesto penso che anche su un 80 pollici non saprei se a 2 metri la differenza sia percepibile, figuariamoci sotto di diagonali.
@@alessio79aaa46 per me oltre il 4k nel mondo reale (nel senso che non abbiamo posto per monitor enormi, costi ecc) non ha senso andare quindi vedremo come si svilupperà questo settore.. oltre a fare giochi più elaborati e fatti bene non so quanto senso abbia andare su 8k e un ipotetico 16k tra 15 anni magari
@@ResolvedSamu concordo in tutto, infatti parte del marketing odierno è la gara a chi ce l'ha più lungo non una reale utilità.
A me basta non avere giochi che pesano mezzo tera.😂
Oh, ma i commenti qui sotto sono palesemente di bot! Daje su...
PS: sarebbe corretto aggiornare il titolo inserendo anche l'XeSS di Intel.
Sì, se hanno l'avatar che suggerisce contenuti sessuali sono palesemente bot.
@@Z3t487 Anche, ma puzzava soprattutto che ne fossero 4 di fila e ancor di più le frasi scritte, di gente proprio troppo di passaggio (su questo pianeta...) per essere credibili.
@@cBromo Certo, anche il contenuto generico dove si tessono le lodi è un campanello d'allarme.
Concordo con la tua analisi, almeno finché le schede video non saranno rese inutili dal gaming in streaming. Ovviamente infrastruttura permettendo. Ciao
OK !
Mirko, hai perso il nome!
T-shirt top 👍
bella maglietta
ti faccio i complimenti perchè dopo essere stato fregato da voi youtuber che, mi avete convinto che valeva la pena di predere un 4k ed una scheda video adeguata, oggi ti sento dire una cosa che io sostengo da tempo : se giochi non guardi i minimi particolari, non ne hai il tempo. il 4k e la 3080 li ho rivenduti ad un buon prezzo ,mi sono preso un fhd 144hz di ultima generazione ed una rx 6800xt usata. ho messo in tasca soldi (anche se ci ho rimesso comunque) e vivo bene. c'è chi ha visto il monitor fhd acceso e mi ha chiesto se era un 4k, cio significa che diferenza non è poi evidente.
In parte … se mai ci sarà un boom del vr sara necessario avere una scheda che dovra renderizzare il doppio. Poi immagino che le ai inizieranno entrare anche nel gaming. Quindi mi aspetto che avremo bisogno di schede sempre piu potenti.
il VR è ancora molto nicchia, sono un sacco di anni che il mercato ci prova senza riuscirci e l'interesse è bassissimo
Ci sta che non capisci, quando hai bisogno ti spiega uno di noi. Tranquillo
Meglio renderizzare tutto sulla risoluzione nativa.
Queste tecniche mi sembrano un passo indietro.