NVIDIA DLSS e AMD FSR hanno incasinato tutto ! Cosa succede ?

Поделиться
HTML-код
  • Опубликовано: 17 ноя 2024

Комментарии • 163

  • @alessio79aaa46
    @alessio79aaa46 10 месяцев назад +10

    Concordo,comunque per il momento non siamo ancora arrivati ad avere queste tecnologie come standard (anche se la strada è quella), quindi io continuo per ora a fare i miei acquisti basandomi sulle prestazioni base e le tecnologie mi vengono in aiuto in quei pochi giochi veramente pesanti.
    Penso ci sia un lato del discorso dei supersampling del quando convenga usarlo o no che viene spesso tralasciato, l'utilizzo di quest'ultimi in diverse categorie di giochi cambia di molto la loro validità in relazione allo scopo finale.
    Col marketing odierno questo viene totalmente "insabbiato"

  • @AlessandroModica
    @AlessandroModica 10 месяцев назад +2

    Ciao Ferry, ti seguo sempre. Che il mercato delle schede grafiche è incasinato me ne ero accorto a fine novembre quando mi era salita la scimmia di costruirmi una build top da 2300 euro. E come la scimmia sia scappata a gambe levate, dopo aver letto e analizzato di tutto. Attualmente penso che aspetterò altri sei mesi o forse il 2025, per farla ritornare sta scimmia. Quello che mi intriga è proprio questa AI cosi prepotentemente integrata, quasi a scovare l'oro in questa nuova eldorado che mi fa salire un hype indotto su possibili capovolgimenti e incasinamenti ulteriori , e magari in questo chaos, trovare quella scheda grafica che, oltre a farmi giocare a risoluzioni 4k, possa anche mettere piede a palazzo per iniziare a giocare io stesso con modelli AI sfruttando la potenza dei cuda core. Sono mie fantasie, ma sicuramente è cio che mi fa stare a livello periscopio e capire qualcosa dal chaos incasinante che secondo me continuera almeno fino a fine 2025

  • @fiorillogianluca2791
    @fiorillogianluca2791 10 месяцев назад +4

    Come spieghi tu non spiega nessuno, complimenti, sempre chiaro, non ho parole!
    Comunque, grazie a queste feature, la 1070 Ti che ho tiene ancora botta ... altrimenti era da cestinare!

  • @TheCardinal80
    @TheCardinal80 10 месяцев назад +2

    Video come sempre chiarissimo ed equilibrato :-)
    Mi trovo in tutto nell'analisi. Aggiungerei solo, anche se non è questo forse il video specifico, il tema delle tecnologie implementabili a livello di driver. È vero che il DLSS è un po' più avanti ed i driver Nvidia sono più curati (questo lo aggiungo io), ma senza essere tifosi, da vecchio utente Nvidia passato recentemente ad AMD, il DLSS dipende dal gioco/mod; Nvidia Experience non consente di 'forzarlo' a livelli driver se manca. AMD Adrenaline consente vari settaggi generali e per singolo gioco a livello driver compreso l'upscaling (FSR) indipendentemente dal fatto che il gioco lo supporti nativamente. Non conosco il mondo Intel sul punto, ma nel mio caso il cambio è anche dovuto a queste funzioni di Adrenalin settabili extra gioco.

  • @dantepiga2463
    @dantepiga2463 10 месяцев назад +1

    concordo su tutto, spiegazione chiara e semplificata, complimenti per la possibilità di fare chiarezza su specifiche tecniche, quello che spero è che si arrivi ad un prezzo decente.

  • @ivanor8621
    @ivanor8621 10 месяцев назад +15

    Utente amd reperto A: "a me piace giocare nativo e senza artefatti"

    • @ResolvedSamu
      @ResolvedSamu 10 месяцев назад +6

      Io con la 6800xt gioco in 2k a ultra su monitor 144hz e non ho mai avuto il bisogno di usare fsr

    • @federicoliguori2698
      @federicoliguori2698 10 месяцев назад +9

      ​@@ResolvedSamu Prova Alan Wake II e poi mi dici

    • @simonelanza5770
      @simonelanza5770 10 месяцев назад +7

      @@federicoliguori2698 Alan Wake II pure una 4090 fa fatica

    • @tabletsamsung8491
      @tabletsamsung8491 10 месяцев назад +5

      Idem con patate. Ho sempre avuto gpu nvidia ma questa volta, circa 6 mesi fa, venduta la 3070 insieme al monitor, sono passato ad amd prendendo una 7900xt affiancata a un monitor 34 1440p ultra wide...

    • @fazza92u34
      @fazza92u34 10 месяцев назад +4

      Boh io la differenza tra nativo e super sampling la vedo eccome in 1440p...
      Ma poi comprare una scheda da 500€ nata per il 1440p e renderizzare a 768p in quality mi da fastidio in partenza...
      Finché posso gioco in nativo

  • @queenannesrevenge2792
    @queenannesrevenge2792 10 месяцев назад +2

    Ciao Ferry, mi trovo TOTALMENTE in disaccordo con un'affermazione che fai: "stanno facendo del bene". A mio avviso è proprio il contrario: quando queste tecnologie sono uscite, i giochi IN GENERALE con un hardware medio - medio/basso erano fruibili (55-65 fps), POI con l'aggiunta del DLSS/FSR, si passava a 75/90 FPS...erano nate quindi come AGGIUNTA, come un "di più"....un bonus diciamo...come hai detto tu stesso, dovevano aumentare le prestazioni, a parità (o quasi) di qualità grafica. Oggi non è ASSOLUTAMENTE così, ormai giocare SENZA DLSS o FSR con un Refresh Rate DECENTE è difficilissimo...senza queste tecnologie la maggior parte dei giochi fa 40 fps anche sulle GPU più nuove; perché questo? A mio avviso, in soldoni, gli sviluppatori dicono "vabbè il gioco più o meno gira, TANTO C'E' il DLSS"....i giochi dovrebbero girare BENE (60 fps circa) con un hardware MEDIO a dettagli MEDI SENZA DLSS....poi se uno vuole un Refresh Rate maggiore allora applica queste tecnologie....ormai invece sono un requisito...basta guardare Starfield...ci stanno spingendo ad aggiornare COMPULSIVAMENTE l'hardware.

    • @tizzi91able
      @tizzi91able 10 месяцев назад +1

      sono perfettamente d'accordo. ora con la scusa del dlss e fsr fanno uscire dei giochi scandalosi vedi starfield che non riusciva a far girare neanche 60 fps sulla 4060 in full hd. veramente penoso

    • @ferrystech
      @ferrystech  10 месяцев назад

      ciao, il mio "stanno facendo del bene " è riferito al fatto che permettono con schede meno costose di raggiungere livelli qualitativi migliori. Quindi è un bene perché si spende di meno e si ottiene di più.

  • @andrealioce4341
    @andrealioce4341 10 месяцев назад +1

    Io ho una nvidia serie 3000 quindi non so come sia la questione con le schede di ultima generazione, ma la differenza di definizione tra dlss (2.0 nel mio caso) attivo e dlss disattivo si vede eccome, soprattutto in vr. I pannelli strumenti di flight simulator ad esempio si leggono molto meglio con dlss disattivo che attivo. Se non ci si arriva con gli fps il dlss si attiva, ma si tratta comunque di un compromesso. Si può usare la IA più avanzata che si vuole, ma un upscale non sarà mai definito come un render a risoluzione nativa. Per cui le schede di fascia top serviranno sempre. Purtroppo questa moda di far uscire titoli in cui il supersampling è attivo di default sta prendendo piede, questo è vero, ma la vedo più come una scusa usata dagli sviluppatori per evitare di ottimizzare piuttosto che una reale necessità. Un futuro in cui ci abitueremo a giocare in supersampling, sacrificando la qualità dell'immagine e dando per scontato che non si possa fare altrimenti, a mio avviso non è un bel futuro.

  • @alenter958
    @alenter958 7 месяцев назад

    Come rendi così semplice i concetti, nessuno come te. Bravo😮😊

  • @mattiaspadaro8803
    @mattiaspadaro8803 10 месяцев назад +1

    Grazie per i tuoi video e le tue analisi specifiche nonché ricche di tecnicismi vari. Io ritengo che il mercato sia più complesso di ciò che sembra, nel senso che è vero che principalmente un utente decide la risoluzione di riferimento per poi decidere quale GPU acquistare, è altrettanto vero che bisognerebbe aver una cultura superiore su come impostare i vari dettagli grafici, mi spiego meglio: l'utente X vorrebbe giocare in QHD senza compromessi, ossia tutto "maxato", solitamente il consiglio è una 4070TI oppure una 7900XT, in realtà lo stesso gioco, impostando i settaggio grafici a dovere (esempio: ombre su alto anziché ultra) può sicuramente offrire prestazioni paragonabili nonché simili, anche dal punto di vista della qualità grafica e non solo di frame, sicuramente ottimali anche con una GPU di un "gradino" più basso, portando l'utente X a risparmiare per poi avere comunque prestazioni ottimali, ed è qui che le tecniche trovano terreno fertile.

  • @jacopo205
    @jacopo205 8 месяцев назад

    Ciao caro... Se ho capito bene se tipo uso l fsr su un gioco della mia rog ally non ha senso impostare l fsr su una risoluzione a 1080p ma conviene abbassare la risoluzione a 720p e poi applicare l fsr? Ho capito bene?

  • @matte_bar
    @matte_bar 10 месяцев назад +1

    2:55 insomma, l'fsr a risoluzioni sotto il 4k ha spesso artefatti orribili che si notano eccome, anche al preset qualità, cosa che dlss e (spesso) XeSS non presentano, o presentano in modo minore. Per quanto riguarda l'upscaling per le schede di fascia altissima, serve, perché rende quantomeno più consistenete l'esperienza di gioco sui titoli più pesanti, considerando anche quelli che usciranno, o rendere possibili cose che non lo sarebbero altrimenti, nemmeno su una 4090 e no, non sono situazioni così assurde. Cyberpunk, uscito quasi 4 anni fa, maxato con PT, 4090 o meno, senza upscaling non esisterebbe.

  • @Daniele-ft4rj
    @Daniele-ft4rj 10 месяцев назад

    Ragazzi, alla fine di questa rincorsa infinita al dettaglio c'è l'imbuto più importante di tutti: le capacità visive umane! Perché non ne parla un'anima in questi video divulgativi?
    Come è successo per gli schermi dei cellulari, a un certo punto arrivati perfino ai 4K, il mercato si fa portare a spasso con tante finte promesse.
    Per fortuna la corsa alla risoluzione va più a rilento delle loro previsioni e quindi tanti gamer influencer delle varie 4090 non sanno che farsene. Per me sarebbe ora di finirla con l'andazzo di +30% di potenza e -10 di consumo. Che diano priorità all'efficienza, si avvicinerà così la fine delle schede video discrete, cosa soltanto positiva per noi consumatori.

  • @P4blo4621
    @P4blo4621 10 месяцев назад +1

    Una RTX 4060 va bene per giocare a 1080p per il 2024. Ha 8Gb di VRAM (il minimo) e le impostazioni di grafica sono variabili (Low < x < Ultra). Ha DLSS 3 e 3.5. Chi fa animazione oppure progetti 3D e vuole anche giocare deve prendere una RTX, sta lui se vuole la Top di gamma oppre la medio/bassa. In sintesi le RTX non sono fatte per solo giocare ma posso offrire le stesse prestazioni per fare tutti quelli lavori in 3D.

  • @MassimilianoCarinci
    @MassimilianoCarinci 10 месяцев назад +6

    completamente d'accordo..con la standirdazzione dei vari dlss e amici vari sicuramente si potranno spendere meno soldi sulle schede video... forse quelle di top gamma andranno piu sull'8k a sto punto...

    • @Z3t487
      @Z3t487 10 месяцев назад

      Ma a chi serve l'8K? Già un monitor 4K su 42" ha più di 104 come pixels per pollici... Se poi c'è gente invece di mettere il monitor su una scrivania lo mette nel salone e ne compra uno gigante, allora sì che l'8K forse può avere senso, ma sempre se ci si siede abbastanza vicini ad esso... Forse anche troppo vicini per la salute dei propri occhi, boh...

    • @MassimilianoCarinci
      @MassimilianoCarinci 10 месяцев назад

      @@Z3t487 tutti ! con l'andare avanti della tecnologia avremmo risoluzioni semrpe superiori a prezzi sempre inferiori!già ci sono ora filmati su yt di giochi in 8 k.Il tuo discorso sulla distanza di visione mi sembra fatto da mia nonna con conoscenze pari a zero!benq consiglia per un 27 pollici 4 k distanza 1.7ft (52cm) per un 32 distanza 2ft (61cm)

    • @Z3t487
      @Z3t487 10 месяцев назад +1

      @@MassimilianoCarinci Mi son basato anche su quello che diceva Linus Tech Tipa, che anni fa chiamava il 4K "dumb" ed ora pure l'8K, dove ha fatto provare alla cieca l'8K ed i suoi dipendenti non sapevano distinguere il 4K dall'8K.
      E poi la distanza di visuale certo che ha importanza, perché la nostra vista, anche fosse perfetta, ha dei limiti e quindi ad un certo punto appunto raggiungi il limite cui sai distinguere dei dettagli, ovvero pixels in più.
      Mi fido più della parola di Linus Sebastian che di Asus, visto che Asus potrebbe avere una cosa che si chiama "conflitto di interessi".

    • @MassimilianoCarinci
      @MassimilianoCarinci 10 месяцев назад

      @@Z3t487 intanto era benq... conflitto di interesse in cosa scua??sei un po confuso su quello che dovrebbe essere un conflitto di interesse..fidati di quello che ti pare.. è un dato di fatto che andando avanti con le tecnologie aumenteranno le risoluzioni! è fisiologico...mica penserai che rimarremo cosi no??al momento non abbiamo raggiunto il limite di risoluzione percepibile...

    • @Z3t487
      @Z3t487 10 месяцев назад

      @@MassimilianoCarinci Ah ma allora credo che tu stia parlando del 32K cioè quei teorici 500 e rotti megapixels oltre i quali praticamente sarebbe come vedere qualcosa nel mondo reale, cioè le immagini sul monitor avrebbero una definizione tale da rendere impossibile il distinguere i pixels, anche con schermi giganti, almeno a livello di grandezza che entrino ancora nelle case dei comuni mortali... Quindi diciamo da 100" al massimo? 150"? Dimmi te ché io effettivamente ne so pochissimo.
      Comunque il conflitto di interessi nel senso che ad Asus interessa venderti lo schermo, non ha certo interesse a non separarti dai tuoi soldi e a dirti:" guarda che secondo me 1440p su un 27" alla giusta distanza bastano ed avanzano".
      Poi io sono totalmente ignorante sul come si calcoli la distanza ideale, io per esempio il mio 24.5" 1080p lo tengo a 70 cm dai miei occhi e mi trovo bene così, senza fare calcoli particolari.

  • @supermoz
    @supermoz 10 месяцев назад +2

    scusami... ma credo che al minuto 5.57, ti sia dimenticato che PER scegliere la scheda grafica serve sapere : A CHE RISOLUZIONE VUOI giocare e CON CHE REFRESHRATE ...il classico 60hz o i vari VRR 100/144/244 eccc.....
    converrai con me che c'è differenza se voglio giocare a 1080P /60HZ o 1080P/con freesynk/g-synk 244hz
    in quetso caso bisogna valutare schede DIVERSE , nonostante le tecniche di supersampling

    • @ferrystech
      @ferrystech  10 месяцев назад

      Ciao, ma il refresh rate è secondario. Si vuole puntare almeno ai 60 FPS per ogni gioco, competitivi a parte, il resto sono dettagli che fanno una differenza minima. In ogni caso ho fatto diversi video sul rapporto refresh rate e FPS.

  • @simo9115
    @simo9115 10 месяцев назад +1

    Gran bel video! Approfitto per fare una domanda: che scade video consigli per giocare senza compromessi in 2k? Ha senso secondo te aspettare le super e andare su una 4070super?

    • @andreaghizzoni9730
      @andreaghizzoni9730 10 месяцев назад

      Io sto aspettando la 4070 super per passare da una 3070 ! Dai rumors sembra che costeranno attorno ai 600$…l’unica pecca sono i 12gb. Comunque lunedì ci sarà la presentazione !

  • @luigiimpero3673
    @luigiimpero3673 10 месяцев назад +1

    Una giusta analisi, mi chiedo se entrerà in scena nvidia con i suoi processori cosa porterà di nuovo a questo mercato, diciamo saturo.

  • @monikaguerra
    @monikaguerra 10 месяцев назад +2

    devo dire da nvidia alcune cose non mi piacciono ultimamente come quella di lockare dlss 3 alla rtx 40... io per esempio come penso molti ho visto il ragazzo su reddit che era riuscito a fare partire il dlss3 su una rtx 2070 e il risultato era come dire incredibile?? quindi se ci è riuscito tizio x a casa penso tranquillamente era fattibile anche per l'igegneri nvidia (il tizio spiegava che gli rt core e tensore core servivano ma bastavano anche quella della 2000)

  • @francescodimieri9758
    @francescodimieri9758 10 месяцев назад

    Bisognerebbe dividere gli utenti gaming in 3 macro categorie.
    1) Il purista ( Entusiast ) Top di gamma sensa super sampling , budget finanziario Alto.
    2) il gamer appassionato ( Vorrei ma non posso ). Ottimizzo il mio budget comprando il meglio ma non il top e giocando con super sampling.
    3) Il gamer "Vero" che ha trasceso la qualità grafica che cmq apprezza , e che gioca con qualsiasi gioco che gli trasmette emozioni"anche retro consolle etc".

  • @djpeppe18
    @djpeppe18 10 месяцев назад

    Dobbiamo accettare queste tecniche paracule di sampling. Il passato insegna ad esempio quando i motori erano ad aspirazione e ci fu qualcuno che si inventò il turbo compressori che era una tecnica paracula di allora per avere più potenza con lo stesso motore. Il mondo è pieno di esempi come questo.

  • @Duddits82
    @Duddits82 9 месяцев назад

    Sei il migliore. Oggettivo, senza pregiudizi e chiaro in ogni aspetto.

  • @Z3t487
    @Z3t487 10 месяцев назад +2

    Video idea caro Ferry: il grafene l'hanno davvero *sistemato" in modo da farlo diventare un super conduttore? Perché fosse una notizia vera, perdonami che non ho controllato la fonte, sarebbe a quanto pare rivoluzionario per il mondo dei computer: computer fino a 10 volte più veloce e che scaldano meno. L'articolo parlava di grafene in 2D perché si utilizerebbe un solo strato di atomi del suddetto materiale.

    • @ferrystech
      @ferrystech  10 месяцев назад +1

      a quanto pare sono riusciti a farlo, vedrò nelle prossime settimane se c'è modo di approfondire, grazie! :)

  • @amedeononni4534
    @amedeononni4534 10 месяцев назад

    Ottima analisi, poi a livello di fps va bene averne molti ma bisogna anche tenere in considerazione dove arriva l'occhio umano e quello che riesce a percepire.

  • @ManuelPassioneHardware
    @ManuelPassioneHardware 10 месяцев назад +1

    LA MIA 1080TI SFRUTTA BENISSIMO L'FSR.. PERO ORA HO CAMBIATO CON 3070 HO IL DOPPIO DEI FRAME GRAZIE AL DLSS

  • @Fn0rD.
    @Fn0rD. 10 месяцев назад +1

    una riflessione... ma arrivati a questo punto, gli sviluppatori di videogame faranno anche giochi ottimizzati con i piedi perche' tanto c'e' potenza da vendere o sistemi come questi che aggirano parzialmente i problemi?

    • @ferrystech
      @ferrystech  10 месяцев назад +1

      mi sembra un buon punto, e un rischio..

  • @mothambo
    @mothambo 10 месяцев назад +1

    Sarebbe interessante capire quanto impattano queste tecnologie sui consumi e sulle temperature delle GPU. Se fossero in grado di far ottenere all'utenza anche una riduzione sensibile di questi due fattori avrebbero molto più senso anche sulle Top di gamma (mettendo da parte il discorso produttività per questa fascia).

    • @Z3t487
      @Z3t487 10 месяцев назад

      Se vuoi una GPU entry level e che consumi già poco di suo allora vai di RTX 4060, no? Poi puoi anche puntare ad una RTX 4090 che, se sai fare un po' di undervolting sicuro, ti consuma molto di meno e perdi poche performance.

    • @GoodLife90
      @GoodLife90 10 месяцев назад

      @@Z3t487
      Undervolt sulle serie 4000 (soprattutto 80 e 90) è inutile. Scaldano pochissimo e hanno una dissipazione ottima da sole.
      Mai visto fare alla mia 4080 FE più di 40 gradi sotto sforzo

    • @Z3t487
      @Z3t487 10 месяцев назад

      @@GoodLife90 Per i consumi energetici diciamo, alla fine si perde pochissimo in prestazioni, no?

    • @GoodLife90
      @GoodLife90 10 месяцев назад

      @@Z3t487
      Nì: il consumo della serie 4000 è contenutissimo già.
      Io ho una 4080 e un 13700K, AIO e altre 6 ventole, rientra tutto in un PSU 850 watt

  • @fcava
    @fcava 10 месяцев назад

    Come ho detto l'altra volta, io mi sono invece basato sul fatto che se c'é il ray-tracing perché non attivarlo e se porta a benefici visivi e magari aumento di prestazioni (compreso ray recostruction e frame generation attivando il dlss3.5, se supportati) sia un elemento da prendere in considerazione. Certo,.quando stavo valutando.ik dlss era ben oltre all'fsr. Ora la situazione é cambiata ma da vedere come queste tecnologie evolveranno e come, magari, si integreranno tra loro

  • @marconadal1412
    @marconadal1412 10 месяцев назад

    Concordo.......
    Un consiglio se posso chiederti, io dovrei rifarmi un Pc da zero visto che il mio I7 4790K e Gtx 1070 di 8 anni inizia ad essere vecchiotto quindi più che un upgrade devo rifarmene uno da zero, io desidererei giocare in 2k supportato dal mio Tv con connettore Hdmi 2.1 ad un frame rate che sia almeno 60 Fps con dettagli ultra o alti, io pensavo visto che il mio budget non è alto ad una Rtx 3070 o al massimo la Rtx 4070 e ti volevo chiedere quale processore mi consigli io preferirei restare su intel, che scheda madre mi consigli e che alimentatore, io pensavo ad un Watt 850.
    La domanda è ovviamente rivolta a tutti, ringrazio in anticipo.

  • @vincenzoadamo4651
    @vincenzoadamo4651 10 месяцев назад +2

    Le top di gamma okay sono penalizzate dal dlss e dall'fsr nel presente perché non ne hanno bisogno e perché questi ultimi favoreggiano l'acquisto di schede inferiori ma non nel futuro perchè è lì che dlss e fsr faranno la differenza e fanno sì che una top di gamma di vecchia generazione possa essere competitiva con una fascia medio/alta di due/tre generazioni successive.

  • @lp4659
    @lp4659 10 месяцев назад

    Per un utilizzo con ACAD quale sarebbe consigliabile senza spendere un botto ?

  • @rodolfoionata9977
    @rodolfoionata9977 10 месяцев назад +4

    Bellissimo video.....ma la t-shirt è sensazionale 😂😮😅

  • @JimCP
    @JimCP 10 месяцев назад +1

    credo che queste innovazioni siano molto utili, si può arrivare a prendere una scheda senza spendere una follia, ma che ti permetta anche di giocare con qualche soddisfazione

  • @luckplat
    @luckplat 10 месяцев назад +2

    Comunque FSR o DLSS, è uguale: beati quelli che non vedono il degrado grafico. In Flight simulator purtroppo ci sono le condizioni "migliori" per accorgersene: le ali bianche sullo sfondo azzurro, quando muovete di rollio l'aereo, si nota sempre una specie di scia staccarsi dal profilo delle ali (DLSS).

    • @alessio79aaa46
      @alessio79aaa46 10 месяцев назад

      il ghosting può essere causato da più fattori, anche un semplice settare male monitor e tv

  • @ruggiero1409
    @ruggiero1409 10 месяцев назад

    Sapete xk quando uso dlss fa effetto ghosting??

  • @johnfrusciante85
    @johnfrusciante85 5 месяцев назад

    Quindi in soldoni conviene più una 4070 Super o una 4070 ti Super (o addirittura una 4080 super)? :D

  • @kevindelmonego342
    @kevindelmonego342 10 месяцев назад

    Forse lo puoi aiutare. Ho scritto il dlss per la 3060 ti. Impostato nelle impostazioni dlss su fs2020. Ho notato però che i monitor dentro nel aereo sono molto sfociati

  • @angelogiramondo1540
    @angelogiramondo1540 10 месяцев назад +1

    Appunto per l'anziano Ferry
    nel paragrafo: "Cosa cambia tra le 3 tecniche?" non stai dando una buona informazione ai tuoi follower.
    FSR e XeSS possono essere usati da tutti, ma non al meglio della loro specifica come quando vengono usati con la GPU del produttore dell'algoritmo.
    FSR usa FP16 e lo fa perchè l'algoritmo di base che si usa su tutti e tre gli upscaler, l'algoritmo di Lanczos, basato sulle convoluzioni, non richiede una precisione superiore, almeno fino a che non usi una profondità di colore superiore ai 16 bits, ed oggi siamo a 10 bit se usi l'HDR...
    e, sì, tutti usano questo algoritmo come base di partenza; la differenza è con che circuito HW viene calcolato e come vengono corretti i problemi sistematici che genera.
    il DLSS usa i tensori, degli specifici "cores" che gestiscono al meglio i calcoli delle matrici.
    ma, attenzione:
    i tensori non possono gestire autonomamente l'algoritmo di Lancrzos, ma solo i calcoli sulle matrici che questo effettua; tutto il resto viene comunque calcolato dai cudacore e sui calcoli matriciali viene comunque usato un certo numero di cudacore per dare supporto ai tensori (che altro non sono che un array di celle con una circuitazione "a metrica fissa", ossia che fa solo quelle 4 operazioni specifiche; da notare che sono "a metrica fissa" e che non sono propriamente adatti a gestire matrici così minute come quelle di Lancrzos; le calcolano, aggiungendo quindi potenza di calcolo, ma lo fanno con la stesa potenza di calcolo e impiego di transistors che hai quando calcoli matrici che sono 64 volte più grandi, perchè sono specificatamente pensati per il mondo HPC e non pe ril DLSS; insomma, con il DLSS stai usando una marea di transistors, ma solo parte di questi in modo attivo, che in realtà potrebbero fare un lavoro ben più elevato).
    XeSS è su due DEV;
    il primo, che usa solo Intel, e che è specificatamente pensato per usare gli Xe COres, null'altro che delle SIMD AVX che Intel ha inserito nelle sue GPU, che hanno le proprie pipeline di calcolo adiacenti (ti assicuro che accanto hanno un X86, x64 che è pari ad un core Atom); anche qui un'enorme iniezione di potenza di calcolo e una versatilità maggiore dei tensor cores, perchè le istruzioni AVX, che sulle GPU Intel vengono richiamate da specifiche isruzioni, sono assai più versatili in quanto sono propriamente core vettoriali.
    è per questo che Intel recupera moltissimo quando si usa il DXR nei giochi; gran parte del lavoro viene direttamente demandato agli Xe cores, che hanno annessa una cache che funziona da RT cores, dove viene inderita la gerarchia dei volumi degli oggetti e dove poi gli Xe cores andranno a calcolare i vettori e i loro core "atom" calcoleranno il punto di collisione e la traiettoria di uscita.
    il second o DEV dell'XeSS è su DP4A, una specifica standard dello shader model 6.6 di Microsoft e che gestisce proprio le convoluzioni che si fanno in deep learning.
    il problema qui è che Intel fa quel DEV in 32 bit, mentre tramite il primo DEV Intel calcola tutto a 16 bit (ed in effetti gli sarebbe bastato aggiungere un core di supporto tipo un P55, come c'era nel progetto Larrabee, ma visto che anche qui quell'architettura viene utilizzata in ambito HPC, servono i 64 bit; logicamente parliamo delle sole pipeline APU, perchè sono ormai anni che sia AMD che Intel usano le AVX anche per gestire tutti i calcoli in FP; le AVX sono, in effetti, le unità FPU dei processori moderni, da più di 10 anni, di AMD e Intel)...
    delle architetture nvidia solo Turing potrebbe gestire adeguatamente algoritmi in FP16, perchè ha delle unità FP32 aggregate, ossia che possono eseguire 2 istanze indipendenti FP16 per ogni pipeline FP32 (e visto che tutte le pipeline delle GPU e delle CPU del mercato mainstream da 30 anni a questa parte, tranne Kepler, possono gestire 2 istanze FP32 alla volta, perchè sono 2 vie di computazione, diventano 4 istanze per ogni unità di calcolo).
    Le altre architetture nvidia non possono farlo ed usano quindi una intera unità FP32 per emularne una in FP16 8riduzione di precisione).
    ma per nvidia, per il suo DLSS, non è molto rilevante, perchè la vera differenza tra DLSS1 e DLSS2 (anzi, 2.4) è stato proprio il passaggio del codice da FP16 a FP32.
    questo perchè serve maggiore precisione ad nvidia per il successivo passaggio dell'upscaler, ossia la correzione degli errori generati dalle convoluzioni dell'algoritmo di Lanczos; nvidia lo fa tramite il vettore di movimento e per attenuare il ghosting è dovuta passare da una precisione da 16 a 32 bit .
    lo fa perchè poi usa quegli stessi dati del vector motion per gestire l'algoritmo di Anti Aliasing, il TAA, che è implementato di default sul DLSS, da sempre.
    quindi, riassumendo, DLSS lo può usare solo nvidia, in quanto chiuso;
    FSR verrà gestito da AMD in FP16, con un dimezzamento delle unità necessarie al suo calcolo perchè userà unità di calcolo FP32 in 2x FP16, mentre nvidia userà unità FP32 emulando FP16, 1:1, perdendo quindi un 10-15% abbondante di potenza di calcolo, perchè dovrà usare più unità FP32 per l'upscaler che verranno tolte dall'esecuzione dei calcoli per la costruzione del frame; questo avviene anche su Turing, per scelta di nvidia, anche se potrebbe eseguirlo nativamente come le GPU Vega e RDNA di AMD;
    Intel, per scelta, esegue FSR in FP32, pur avendo la stessa caratteristica delel unità di calcolo di AMD (FP32 = 2x FP16), perdendo, anche qui, un buon 15% abbondante di prestazioni.
    questo comporta che i giochi dovranno essere settati ad una qualità inferiore per l'FSR sia su Intel che su nvidia, ma spesso anche su AMD, perchè gli sviluppatori settano quel parametro senza discriminante della GPU, uguale per tutti; le mod su FSR ci hanno insegnato come andare a riportare FSR alla massima qualità per usarlo con AMD su diversi giochi, ma che diventerebbe del tutto inutile su AMD ed Intel, perchè a quel punto la potenza di calcolo impiegata dall'upscaler, usato in FP32, ti mangerebbe del tutto il guadagno di usare una risoluzione inferiore per guadagnare FPS; e che lo usi a fare l'upscaler se per una qualità inferiore al nativo, perchè ogni upscaler è inferiore al nativo, se guadagni si e no 5 FPS?
    XeSS invece verrà processato tramite DP4a da AMD e nvidia, con rendimenti di calcolo inferiori perchè passi attraverso altri layer delle API, e verrà calcolato in FP32, mentre Intel userà direttamente gli Xe cores in FP16, che praticamente fanno tutti i calcoli loro...
    il risultato quale è?
    che, sì, puoi usare FSR e XeSS su tutte le schede e su una nvidia puoi usare sia DLSS, che FSR, che XeSS, ma in tutti i casi il risultato migliore lo otterrai solo usando l'upscaler dello stesso produttore della GPU, che sia per questioni architetturali o per libera scelta del produttore dell'upscaler o dei concorrenti.
    non c'è soluzione: se vuoi il risultato decente da parte dell'upscaler dovrai usare quello della tua marca, non gli altri, perchè anche in questo caso c'è di mezzo il marketing e far sembrare peggiore quello degli altri.
    sì, è vero che FSR sembra peggiore su una nvidia, ma è per un motivo tecnico dovuto alla limitazione di nvidia, sia architetturale se parli di Ada e Ampere, sia per scelta se parli di Turing.
    sì, FSR si vede peggio di XeSS su una Intel, per scelte di Intel, e comunque sarà meno prestazionale, perchè Intel demanda tutto il lavoro dell'XeSS sugli Xe-cores, aggiungendo potenza di calcolo, quella che in realtà gli manca normalmente a causa di driver acerbi e dal fatto che un Xe core, proprio per come è fatto, occupa una marea di spazio e ti trovi una A750 che ha un die grosso il doppio di una RX 7600, pur essendo fatte con lo stesso processo produttivo, ma che non la supera, consumando pure di più (semplicemente perchè è una GPU per HPC, non per gaming).
    sì, FSR funziona al meglio solo su AMD e funziona benissimo, senza aver nulla da lamentars in confronto al DLSS (sempre a seconda dell'implementazione nel gioco, perchè inizialmente facevano proprio delle carognate), se non quando usi l'upscaler da risoluzioni ridicole, tipo 540p to 1440p, in cui se lo fai con una scheda video già adatta al 1440p arrivi al collasso del processore, perchè raggiungi rapidamente il massimo dei framerate che puoi raggiungere anche usando un intel a 450W, e se lo fai con una GPU scadente.... perchè lo fai? perchè voler giocare male pur di dimostrare una condizione che non è sfruttabile? ma nemmeno con la switch!
    quindi non contesto che gli upscaler possono essere aggiunti alla valutazione dell'HW, ma.... per cortesia finiamola di dire che DLSS è meglio di FSR solo basandoci su confronti fatti sulla "scheda sbagliata"... vuoi usare bene FSR? oggi puoi farlo solo con AMD, per colpa di nvidia e Intel che non vogliono vedere sminuire il loro HW HPC, totalmente inadatto a quel tipo di uso, sulle proprie GPU.
    e poi vedremo con l'arrivazione dei Matrix di RDNA3 se l'algoritmo migliora ulteriormente (SOLO PER LE RDNA3), visto che anche quelli sono tensori a metrica fissa, ma sono proprio 16x16, come serve per un upscaler.
    PS:
    se domani faranno GPU capaci di gestire nativamente 8K in rasterizzazione nativa, allora si passa direttamente al path tracing e ci togliamo di mezzo anche questo finto RT.
    in questa ottica Intel è molto più avanti di AMD e nvidia, perchè su una GPU per il path tracing ci vogliono principalmente processori vettoriali, non scalari.

    • @davidebaloo3606
      @davidebaloo3606 10 месяцев назад

      E che lavori per Nvidia Amd o Intel? La maggior parte dell’utenza (me compreso) ha capito la metà di quello che hai scritto, figurarsi dirlo nel video

    • @angelogiramondo1540
      @angelogiramondo1540 10 месяцев назад +1

      @@davidebaloo3606 spero solo che la metà della metà abbia capito che se usi un upscaling di un brand dovrai usarlo sulla scheda di quel brand, o dovrai accontentarti delle inferiori prestazioni che offre, ma che in tutto questo non puoi metterti a dire: FSR fa schifo a confronto del DLSS, visto che se stai usando il DLSS stai usando una nvidia e difficilmente tu hai anche una scheda AMD per fare il confronto vis a vis sulle immagini che generano.
      quindi come puoi confermarlo se non hai un riscontro sull'HW più adatto per quell'algoritmo?
      loro lo dicono solo perchè fanno lo stesso mestiere della Ferragni...

  • @spagnoliluca0
    @spagnoliluca0 10 месяцев назад

    Proprio stamattina ho scaricato e provato la mod che va a sostituire l'FSR 2 con il FS3. Provato per ora solo su Alan Wake II.
    Davvero stupefacente come risultato: ho una rx6900xt giocavo in 2k con settaggi medio/alti (no Rtx) e fsr su bilanciato, raggiungevo i 80fps circa in ogni situazione.
    Con la mod FSR3 e stessa risoluzione, modalitá bilanciata, settaggi max (no rtx) 120/130fps.
    Sono speranzoso per l'implementazione ufficiale e per tutte le schede che cosí, guadagneranno qualche anno di vita

    • @SACBart
      @SACBart 10 месяцев назад +2

      provata anche io la mod e con una 3080 su cyberpunk e con pathtracing attivo in 2k ho praticamente performance simili a una 4070ti, spero che nvidia faccia qualcosa per una versione di framegeneration per le vecchie generazioni di schede video, dato che sta mod funziona anche su una gtx 1060 e qui ho detto tutto

  • @ricbattaglia6976
    @ricbattaglia6976 10 месяцев назад

    Che programmi di render arcviz usano queste tecnologie? Grazie!🥂

  • @frankcosta7065
    @frankcosta7065 10 месяцев назад

    Basterebbe giocare in fullhd. Magari sfruttando il "risparmio" per una illuminazione globale più credibile.

  • @lorenzoaiello3965
    @lorenzoaiello3965 10 месяцев назад

    Si ma è anche vero che tra un po tutto questo sarà indifferente con l avvento del gaming cloud la potenza dei PC non sarà una priorità

    • @ferrystech
      @ferrystech  10 месяцев назад +2

      servirà ancora tempo per il cloud, sono già anni che ci si prova e il cammino non sarà breve

  • @emiliomari1904
    @emiliomari1904 10 месяцев назад

    poi c'è anche il frame generation che raddoppia quasi gli fps, e una GPU di fascia media gira come una di fascia alta....

  • @marcoilmagico
    @marcoilmagico 10 месяцев назад +1

    Concordo. Complimentissimi per i tuoi video.

  • @AndreAIXIDOR89
    @AndreAIXIDOR89 10 месяцев назад

    O magari le case produttrici ottimizzeranno ancora meno i videogiochi perché penseranno erroneamente che tanto ci penserà il super sampling a fornire prestazioni adeguate

  • @TheTruePaolo
    @TheTruePaolo 10 месяцев назад

    Ma un bel video su anti aliasing e dlaa? Ho recentemente preso una 4070, e piuttosto che usare Ray racing con dlss sto giocando nativo con antialiasing dlaa e sembra tutto molto bello

  • @razoo911
    @razoo911 10 месяцев назад +1

    io non sono a favore degli upscaling, se compro una scheda di fascia alta che senso a giocare con un rendering di 1440p o 1080p e checche se ne dica non avranno mai la qualità della risoluzione nativa difatti l'unica cosa in cui fanno meglo sono gli antialiasing ((questo è anche colpa delle case di sviluppo che non implementano antialiasing migliori)), secondo, si venderanno schede video castrate (guarda la 4060 in primis) per fare massimo profitto, terzo le passate generazioni non avranno accesso alle nuove tecnologie anche se pienamente compatibili nvidia serie 2000/3000 con il dlss 3 etc...

  • @ginoparigino5856
    @ginoparigino5856 10 месяцев назад

    Buongiorno, apprezzo moltissimo i tuoi video, ho visto online che per i dispositivi mobili stanno sviluppando una nuova tecnologia di dissipazione chiamata airjet, la quale promette cose eccezionali, mi piacerebbe avere maggiori info su questa tecnologia e sapere se secondo te è rivoluzione o cavolata.

    • @ferrystech
      @ferrystech  10 месяцев назад

      ciao, ok vedo se c'è abbastanza per approfondire, grazie per l'idea :)

  • @claudio-u9v
    @claudio-u9v 10 месяцев назад

    l'8K non è minimamente possibile oggi. Ci sono 4 volte i pixel del 4K se le tecniche di super sampling non facciano ulteriori miracoli oltre quanto hanno già fatto, la vedo veramente difficile. Con le tecnologie attuali quadruplicare la potenza bruta sicuramente non è sufficiente. Probabilmente per un 8k servirebbero schede che si avvicinano molto al PFlop (1000 TFlop). Oggi la 4080 e la 4090 avrebbero effettivamente senso solo per un VR 2x4k con RTX, ma questo visore nemmeno esiste. E' pur vero che comprare una 4080 potrebbe portarti a saltare una generazione in più di chi oggi prende una 4070.
    In un altro video parlavi che ormai si è raggiunto il fotorealismo, e ti avevo risposto che assolutamente non è vero e Alan Wake 2, ancora non era uscito. Quest'ultimo che in alcuni momenti è veramente a livello della CGI dei film della Marvel, in realtà usa molto (non so come si chiama) quella cosa che i particolari aumentano ma mano che ti avvicini ad un oggetto, questo accade in particolare per gli effetti di luce e di ombra e se si sta attenti si nota, per poter avere tutta la scena visibile tutta maxata al massimo anche per quella foglia che si trova a 50m dal POV, ce ne vuole ancora. Poi non hai considerato la dimensione delle texture. L'ultra di oggi potrebbe diventare il medio nei prossimi videogiochi e creare texture ultra a risoluzioni gigantesche. La qualità dell'RTX può essere ulteriormente migliorata. Insomma i margini per sfruttare appieno anche una 4090 rimanendo alla risoluzione 4k, che ritengo sarà il top per almeno altri 10 anni, ci sono eccome, ma i videogiochi ancora non le sfruttano, sicuramente lo faranno in futuro.

  • @massimocsw9455
    @massimocsw9455 10 месяцев назад

    NON SONO D'ACCORDO
    mi spiego: il riferimento alle prestazioni non è corretto. Quantomeno nel confronto DLSS2 e FSR1, dove quest'ultimo era generalmente più veloce nel settaggio di qualità massimo. Poi per la qualità dipende da 2 fattori: risoluzione di input e Anti aliasing.
    Xess è generalmente più lento nel settaggio di qualità più alto.
    Salvo poi situazioni legate al ghosting ecc...
    Ma oggigiorno fra DLSS3.5 e FSR3, voglio vedere ad occhio se te ne accorgi...(riferito ai fanboy)

  • @piergiacomodamian1424
    @piergiacomodamian1424 10 месяцев назад

    Ni, sono parzialmente d'accordo, ti darei ragione se i giochi fossero scritti bene, purtroppo per esigenze di mercato escono buggati o addirittura non pronti, così l'unica alternativa per farli girare decentemente è usare una scheda di fascia alta e a volte non basta neanche quella...

  • @TPat-zf5fd
    @TPat-zf5fd 10 месяцев назад

    Io devo ancora capire l'impatto dell'FSR sul mondo console, se sta venendo usato anche lì e con che risultati. Immagino che di base ad una casa di sviluppo neutrale (senza accordi commerciali con Nvidia o Intel) convenga implementare primariamente l'FSR, che risulterebbe compatibile con tutto l'hardware gaming moderno.

    • @fazza92u34
      @fazza92u34 10 месяцев назад

      Ci sono diversi giochi su console che usano FSR, la Switch ha l'FSR 1 su Xenoblade ad esempio.
      Su console casalinghe in alcuni giochi si usa FSR 2 e di solito sono quelli dove la ps5 mostra più il fianco, probabilmente per mancanza di compatibilità piena.

  • @nicoladallamora
    @nicoladallamora 10 месяцев назад

    secondo me l'utente medio compra in un modo molto più semplice di quello che hai esposto, e cioè: non ho tanti soldi prendo quella col numero nel nome più basso, ho tanti soldi prendo quella col numero più alto nel nome, meglio ancora se alla fine ci sta tipo XT, Turbo, Ultra, Platinum, Overclock, TurboPower, MegaUltra

  • @giuseppecerra1138
    @giuseppecerra1138 9 месяцев назад

    Ragazzi ho una nvidia rtx 4070 e non riesco a giocare bene a fortnite nonostante il dlss 3. Imposto tutto al massimo 2k e dlss su bilanciato (sopratutto con il lumen e nanite). Molto spesso gli fps sono alti ma ci sono continui lag e abbassamenti di prestazioni che rendono ingiocabile il gioco. Come mai?

  • @roger_elvis93
    @roger_elvis93 10 месяцев назад

    concordo in totum....ottima spiegazione

  • @MondoAmici
    @MondoAmici 10 месяцев назад

    il problema che va menzionato dlss : ma appena uscirà la nuova 5090 Nvidia lascerà indietro con gli aggiornamenti come ha fatto con la serie 30 xx a 40xx .. o continuerà a dare supporto ed aggiornamenti dlss? " motivo che la gente ha strapagato una schea video." Motivo in qui io sono passato con AMD e devo dire di non pentirmi per nulla . .. Anzi dovevo farlo già dalla serie 69xx . invece di dare un rene per una 3080 che non mi ha mai convinto del tutto

  • @giosub7298
    @giosub7298 10 месяцев назад +1

    Possiedo una RTX 4070 e gioco a risoluzione 1440p mentre un mio amico ha una RTX 3080 e gioca alla stessa risoluzione, (sappiamo che le schede sono pressochè identiche anzi la 3080 su alcuni giochi spinge di piu), ho potuto vedere che su Alan Wake 2 settato al massimo con la 4070 riesce a farmi giocare sui 60 frame circa con ray tracing e patch tracing attivi abilitando però il dlss e il frame generation. La 3080 invece a pari di settaggi grafici viene pesantemente penalizzata dalla mancanza del frame generation e questo mio amico non riesce ad andare oltre ai 30\35fps.
    Dato che parliamo della stessa scheda grafica in termini di prestazioni nude e crude sulla potenza di calcolo è ormai palese che cio che sposta l'ago della bilancia sono le varie tecnologie.

    • @brucendolf
      @brucendolf 10 месяцев назад +1

      Digli al tuo amico che cerca su Google nukem fsr 3.0 mod ❤❤❤❤ e poi vediamo come va la 3080

    • @EternoRitorno
      @EternoRitorno 10 месяцев назад +2

      Grazie al frame generator riesci a fare così tanti fps in più, semplicemente Nvidia per vendere le sue schede ha fatto l'unica cosa possibile che poteva fare per vendere quell' immondizia delle 4000; limitare le 3000 lasciandole senza frame generator. Perché ok l'efficienza energetica delle 4000 tanta roba ma oltre la 4090 è una gen abbastanza pessima considera ho acquistato una 3060 ti usata a 240€ ora la 4070 nuova costa 600€ non ne vale assolutamente la pena spendere più del doppio per quello che ti offre un più che non è così tanto poi

  • @giuliano71
    @giuliano71 10 месяцев назад

    Dipende cosa vuoi ottenere come gamer, vuoi i 60fps? i 120fps? il pc è scalabile, i giochi sono altamente scalabili, quindi se sei disposto a scendere a "patti" scalando la grafica all'occorrenza una gpu medio gamma andrà bene per la maggior parte dei giochi, se vuoi tutto ultra in 4k con RT attivo all'occorrenza a fps alti, allora dovrai spendere ;)
    Io dopo due gen con NVidia ( ultima 3060 TI ) sono tornato su AMD e ho preso una Sapphire 7800 XT con 16gb, ad oggi gioco ancora in FHD anche se quest'anno penso di cambiare monitor e passare a 1440p che mi basta e avanza ( non gioco su TV ma in postazione ), mi basta stare fisso a 60 fps non chiedo di più e quindi per ora sto e starò bene cosi per un pò, farei comunque notare che ad oggi già solo in FHD con grafica tutto Ultra alcuni giochi saturano e vanno oltre agli 8gb di Vram
    Concludendo ad oggi prenderei appunto o la 7800 XT o a poco più la 4070, scendere sotto come gpu significa scendere a compromessi, sopra per me serve solo per il 4k o per FPS elevati

  • @DanyM82
    @DanyM82 10 месяцев назад

    Se metteranno quelle porcate di default in tutti i giochi ci aspetterà davvero un futuro videoludico pessimo.
    Già oggi abbiamo una fascia bassa e medio bassa venduta a prezzi assurdi manco fossero schede di fascia superiore(4060 Ti su tutte), in futuro se ci venderanno FPS finti e upscaler del cavolo al posto della potenza bruta delle GPU la vedo proprio male male male

  • @Andrea-xg6re
    @Andrea-xg6re 10 месяцев назад

    Ma se renderanno le schede di alta gamma inutili dovremmo essere tutti contenti, non pagheremo una scheda come un motorino...ma non penso lo faranno, c'è sempre di mezzo la qualità dell'immagine e degli effetti. Certo non si daranno la zappa sui piedi

  • @sgress960
    @sgress960 10 месяцев назад

    Oggi i produttori spingono di piu il medio alto - alto, la rx7600xt è uscita solo da poco, la rx7700xt è posizionata a livello di prezzo in modo che sia conveniente comprare una 7800xt.
    La 4070 e la 4060 non hanno rapporto prestazioni/prezzo convenienti.. a me sembra che le aziende spingano perchè acquistiamo le gpu di fascia medio alta-alta.
    Anche ieri nvidia ha annunciato le super e hanno migliorato il rapporto prestazioni prezzo nelle fasce medio alta e alta.
    Per il resto condivido il discorso riguardo le prestazioni pareggiate con le tecniche di super sampling tra schede di fasce diverse.

    • @OmnianMIU
      @OmnianMIU 10 месяцев назад

      Le radeon attuali non sono appetibili. Col rapporto qualità prezzo ci fai poco se sono indietro tecnologicamente. La 7600xt 16gb è la peggior scheda video mai creata dall'uomo... bah... 🤦🏻‍♂️

    • @sgress960
      @sgress960 10 месяцев назад

      @@OmnianMIU il raster è una tecnologia, c è gente a cui interessa quella.

    • @OmnianMIU
      @OmnianMIU 10 месяцев назад

      @@sgress960 ma che risposta è? Cosa c'entra con le prestazioni ridicole che ha la 7600xt? Ok parliamo di raster: quella sotto specie di gpu, la 7600xt, va quanto una 4060 in raster, costa uguale ma assorbe il doppio, solo che la 4060 in più ha il supporto a tutte le migliori tecnologie grafiche di ultima gen a differenza di tutte le radeon. Quindi, cosa c'entra cosa interessa alla gente? Ma perchè la gente comune, i gamers sanno veramente cosa vuol dire rendering in raster o in RT? Dai su.... tanto per farti capire, solo i fanboy AMD stanno esaltando questa scheda di 💩, perchè altro non è. Chi ci capisce un minimo, ma attenzione, UN MINIMO, questa scheda la tirerebbe solo nel cesso

    • @OmnianMIU
      @OmnianMIU 10 месяцев назад

      E comunque il metodo di rendering di un gioco non è un fattore a cui deve pensare il gamer, quest'ultimo deve prendere in mano il dispositivo e giocare. Per tua sfortuna, i developers preferiscono il rendering in RT per ovvie ragioni che non sto qui ad elencarti

    • @sgress960
      @sgress960 10 месяцев назад

      Guarda nel mio commento volevo solo dire che i produttori stanno spingendo le vendite delle schede video di fascia medio-alta alta e cercavo di far notare che una 7600xt è uscita solo ora, con il fatto che le rtx hanno migliorato il rapporto qualità prezzo nelle fasce alte medio-alte

  • @brucendolf
    @brucendolf 10 месяцев назад +1

    Ferry non ce n'è confusione, l'upscaling di Nvidia è meglio, si usa in modalità qualità in full HD/qualità o bilanciato su schede più scarse in 1440p, in 4 va bene anche su prestazioni. Poi si mette la mod di nukem per usare fsr 3.0 per generare frame, per chi ha una serie 3000. Il frame generation di AMD è migliore del previsto. Per altri due anni ci conserviamo i soldi al posto di comprare una 4000

    • @Z3t487
      @Z3t487 10 месяцев назад +1

      È gratis la mod di nukem? Ed è sicura? Si scarica dal Nexus?

    • @OmnianMIU
      @OmnianMIU 10 месяцев назад

      ​@@Z3t487yes

    • @OmnianMIU
      @OmnianMIU 10 месяцев назад

      Esatto 👏🏻👏🏻👏🏻

    • @OmnianMIU
      @OmnianMIU 10 месяцев назад

      quella di nukem è una bella mod. Però è stata provata su una 4000 e ci sono differenze sia per quanto riguarda piccoli e pochi glitch aggiuntivi ed una latenza un filo superiore... però sti cavoli, è un ottimo compromesso, per un tripla A va alla grande! Sono contento che ci sia questa mod... è l'unica cosa che apprezzo di AMD ultimamente 😂😂😂
      Tu che gpu hai?

    • @brucendolf
      @brucendolf 10 месяцев назад +1

      @@OmnianMIU una 3080, chi ha dalla 3080 in sù può stare ancora tranquillo, con una base di 60 frame la latenza è abbastanza decente per un single player FPS considerando il reflex, sopra gli 80 frame alla grande, per un 1440p 144/240hz al top. Al momento davvero l'unico upgrade valido sarebbe la 4090 ma dato il prezzo se la possono tenere.

  • @marconwps
    @marconwps 10 месяцев назад

    L'AI permettera' di avere performance maggiori e ottimizzazioni , ma quanto cambiano o alterano l'immagine reale? Il 4k per non parlare del futuro 8k sono un bello scoglio computazionale vedremo in futuro chi riuscira' a dare performance valide in presenza anche di algoritmi di luce estremamente esigenti come il path tracing . Ma gia' adesso le schede video hanno prezzi fuori scala per la maggior parte della gente il gaming pc sta' tornando elitario il settore console ringrazia. Saluti a tutti

  • @Nightek1
    @Nightek1 10 месяцев назад

    Perchè sbattersi per ottimizzare?!

  • @Z3t487
    @Z3t487 10 месяцев назад +1

    Io voglio sapere dopo quanto tempo dalla pubblicazione di un video si può lasciare un commento senza che RUclips automaticamente lo reputi spam e lo auto-elimini? 🥴
    Comunque...
    Io personalmente compro schede video di fascia alta e gioco con un monitor 1080p e secondo me non è pazzia perché:
    - il 1080p mi serve perché il monitor è ad alto refresh rate e quindi quando gioco in competitivo io gioco in 1080p.
    - Con il DLDSR posso far diventare il 1080p 1440p o 1620p (vedete l'equivalente per AMD ed Intel)
    Ho insomma un monitor flessibile che va bene sia per il competitivo sia che restituisce buone immagini per i giochi single player.
    - È pure IPS a bassissima latenza e mi trovo bene (è l'Acer 1080p 390 Hz se a qualcuno interessa).
    Se dovessi farmi un monitor nuovo punterei a quello 1080p 540 Hz, ma siccome il gioco competitivo che gioco è limitato a 333 fps non mi interessa personalmente, ma lo consiglio se giocate ovviamente giochi con un cap di fps altissimo.
    Sì, lo so che questo monitor da 540 Hz è TN, ma è TN di nuova generazione e Optimum, bravissimo RUclipsr che raccomando di seguire, dice che è ai livelli di un buon IPS.
    È pure velocissimo, con tempi di risposta reali di 1.1 ms.

  • @EternoRitorno
    @EternoRitorno 10 месяцев назад +3

    La tecnologia più interessante è il frame generator amd anche se da affinare potrebbe dare un boost prestazionale non indifferente

  • @gianfi1401
    @gianfi1401 10 месяцев назад

    Dio benedica FSR3.0 + FG che permettono ancora alla mia "vecchia" Nvidia GTX di lavorare in modo egregio e questo grazie ad AMD (paradosso)

  • @Aleyandroable
    @Aleyandroable 10 месяцев назад

    Finche non faranno una minischeda con le solite prestazioni di una 4090 non la compro troppo groose quei catafalchi ché ci sono adesso😅

  • @Stency-anima
    @Stency-anima 10 месяцев назад

    e un ragionamento semplice non complicato e sono d'accordo con quello che dici , mai avuto un PC ma lo sto facendo ora e ho puntato su una 7800xt abbinato ad un ryzen 5 7600 piattaforma m5 32 GB di RAM a 6000mhz SSD 990.pro da 1tb alimentatore Mew 80 Gold plus 750w full.modular raffreddamento a liquido master liquid 240l l'unica cosa che credo di aver sbagliato e la scheda madre ho preso una forse troppo economica la pro b650m-p e il case e un 3000 air flow mimpotresti dire cosa ne pensi e se la scheda madre può essere il limite. grazie, comunque sono un bene queste tecniche se non vogliamo avere dei PC che costano un botto e consumano 30000w xcfsre girare i tripla a

    • @alessio79aaa46
      @alessio79aaa46 10 месяцев назад

      vai tranquillo, dato che è il tuo primo pc monta il 240 sulla parte superiore e ricordati nel tempo di controllare ogni tanto se le temperature del processore tendono a salire, essendo a liquido negli anni evapora e perde di efficacia.
      Se non ricordo male quel case viene venduto con 2 ventole, in caso vaglia di aggiungerne 1 o 2 sul davanti in immissione per migliorare il giro d'aria, per semplicità ti conviene prenderle uguali allo scopo di non incappare in connettori diversi.

    • @Stency-anima
      @Stency-anima 10 месяцев назад +1

      @@alessio79aaa46 grazie

  • @Mamba_7631
    @Mamba_7631 10 месяцев назад +1

    Le schede video cosi come tutto il resto dei componenti del pc si scelgono solo ed esclusivamente con una regola: "Il Portafoglio". Dopodichè è tutto grasso che cola.

    • @Z3t487
      @Z3t487 10 месяцев назад

      Andrebbero scelte il basse al rapporto prezzo/prestazioni per non farsi fregare.

    • @Mamba_7631
      @Mamba_7631 10 месяцев назад

      @@Z3t487 la fregatura è proprio li. Una 4090 ha quelle prestazioni e costa quel prezzo li stop. Se ti servono quelle prestazioni spendi quei soldi. Non è che se continuiamo a dire che la 4090 è cara come prezzo le prestazioni cambiano o il prezzo diminuisce e il concetto che esiste un equilibrio tra prezzo è prestazione e una cosa aleatoria. I consumatori non possono stabilire questo equilibrio e i produttori non privilegiano i bisogni dei consumatori sui propri interessi dunque tutto si riduce al "soldo". Te la puoi permettere? Ok la compri, viceversa desisti!

    • @Z3t487
      @Z3t487 10 месяцев назад

      @@Mamba_7631 Ma perché aleatorio? La RTX 4060 Ti 8 GB costa 350 circa e la RTX 4090 va per tre volte di più ma costa 2450 euro (prezzi trovaprezzi . it ) cioè per 7 volte.
      Forse siete voi che siete convinti di aver bisogno del 4K quando il 1080p su monitor 21" ha lo stesso PPI (pixels per inch) di un monitor 4K da 42". Io il monitor 21" me lo tengo più vicino e non ho bisogno del mega monitor o del 4K, salvando un sacco di soldi nel frattempo.

    • @Z3t487
      @Z3t487 10 месяцев назад

      ​RUclips ha considerato il mio commento spam...
      Io gioco su un monitor 24.5" 1080p ma avrei preso volentieri un 21" 1080p che ha lo stesso PPI (pixels per inch) di un 42" 4K.
      Perché spendere dunque 2450 euro 😂 di RTX 4090 quando potrei avere la stessa percepita sharpness, nitidezza dell'immagine, con un 21" 1080p spendendo "solo" (si fà per dire) 350 euro con una RTX 4060 Ti 8 GB@@Mamba_7631

    • @Z3t487
      @Z3t487 10 месяцев назад

      A volte i miei commenti li vedo, altre volte spariscono...🥴

  • @ipersalvo1
    @ipersalvo1 10 месяцев назад +1

    Ciao, la penso come te nulla da aggiungere!

  • @Massimoeegeg
    @Massimoeegeg 10 месяцев назад

    Cosa ne pensi dei rumor che vogliono una tecnologia simile anche su console?

    • @ferrystech
      @ferrystech  10 месяцев назад +1

      arriverà sicuro, perché è l'unico modo per avere realmente il 4K.

  • @DAVIDBLADE94NVIDIA
    @DAVIDBLADE94NVIDIA 10 месяцев назад +1

    AMD copia Nvidia questo si capisce.

    • @OmnianMIU
      @OmnianMIU 10 месяцев назад

      Eh si... ormai va avanti così da una diecina di anni ormai.... con maxwell nvidia ha preso un distacco enorme da amd la quale quest'ultima non ha mai più colmato... ci si è avicinata con le rx 6000, ma era comunque indietro con upscaler ed rt...

  • @fabiocarax6996
    @fabiocarax6996 10 месяцев назад

    Ti si vuole bene ❤

  • @ResolvedSamu
    @ResolvedSamu 10 месяцев назад

    Ma l'occhio umano riesce a vedere una differenza tangibile tra gaming 4k e 8k?

    • @alessio79aaa46
      @alessio79aaa46 10 месяцев назад +1

      La risoluzione va di paripasso con la gradezza del monitor/tv che danno la densità, è sulla densità che bisogna ragionare.
      Di conseguenza magari su un 40 pollici non è percepibile ma su un 200 pollici si....

    • @ResolvedSamu
      @ResolvedSamu 10 месяцев назад

      @@alessio79aaa46 però penso che pochissime persone abbia posto per un 200" al di là del prezzo

    • @alessio79aaa46
      @alessio79aaa46 10 месяцев назад +1

      @@ResolvedSamu Si d'accordissimo ma è li il concetto, la densità dei pixel (distanza tra i puntini)......
      Onesto penso che anche su un 80 pollici non saprei se a 2 metri la differenza sia percepibile, figuariamoci sotto di diagonali.

    • @ResolvedSamu
      @ResolvedSamu 10 месяцев назад

      @@alessio79aaa46 per me oltre il 4k nel mondo reale (nel senso che non abbiamo posto per monitor enormi, costi ecc) non ha senso andare quindi vedremo come si svilupperà questo settore.. oltre a fare giochi più elaborati e fatti bene non so quanto senso abbia andare su 8k e un ipotetico 16k tra 15 anni magari

    • @alessio79aaa46
      @alessio79aaa46 10 месяцев назад +1

      @@ResolvedSamu concordo in tutto, infatti parte del marketing odierno è la gara a chi ce l'ha più lungo non una reale utilità.

  • @machekazzo
    @machekazzo 10 месяцев назад

    A me basta non avere giochi che pesano mezzo tera.😂

  • @cBromo
    @cBromo 10 месяцев назад

    Oh, ma i commenti qui sotto sono palesemente di bot! Daje su...
    PS: sarebbe corretto aggiornare il titolo inserendo anche l'XeSS di Intel.

    • @Z3t487
      @Z3t487 10 месяцев назад

      Sì, se hanno l'avatar che suggerisce contenuti sessuali sono palesemente bot.

    • @cBromo
      @cBromo 10 месяцев назад +1

      @@Z3t487 Anche, ma puzzava soprattutto che ne fossero 4 di fila e ancor di più le frasi scritte, di gente proprio troppo di passaggio (su questo pianeta...) per essere credibili.

    • @Z3t487
      @Z3t487 10 месяцев назад

      @@cBromo Certo, anche il contenuto generico dove si tessono le lodi è un campanello d'allarme.

  • @mtto971
    @mtto971 10 месяцев назад +1

    Concordo con la tua analisi, almeno finché le schede video non saranno rese inutili dal gaming in streaming. Ovviamente infrastruttura permettendo. Ciao

  • @Mirko-c6s
    @Mirko-c6s 10 месяцев назад +2

    OK !

    • @Z3t487
      @Z3t487 10 месяцев назад +2

      Mirko, hai perso il nome!

  • @gianpaj1284
    @gianpaj1284 10 месяцев назад +1

    T-shirt top 👍

  • @CapitanoKirk
    @CapitanoKirk 10 месяцев назад

    bella maglietta

  • @armeno1uno578
    @armeno1uno578 10 месяцев назад +2

    ti faccio i complimenti perchè dopo essere stato fregato da voi youtuber che, mi avete convinto che valeva la pena di predere un 4k ed una scheda video adeguata, oggi ti sento dire una cosa che io sostengo da tempo : se giochi non guardi i minimi particolari, non ne hai il tempo. il 4k e la 3080 li ho rivenduti ad un buon prezzo ,mi sono preso un fhd 144hz di ultima generazione ed una rx 6800xt usata. ho messo in tasca soldi (anche se ci ho rimesso comunque) e vivo bene. c'è chi ha visto il monitor fhd acceso e mi ha chiesto se era un 4k, cio significa che diferenza non è poi evidente.

  • @hood1978
    @hood1978 10 месяцев назад

    In parte … se mai ci sarà un boom del vr sara necessario avere una scheda che dovra renderizzare il doppio. Poi immagino che le ai inizieranno entrare anche nel gaming. Quindi mi aspetto che avremo bisogno di schede sempre piu potenti.

    • @ferrystech
      @ferrystech  10 месяцев назад +1

      il VR è ancora molto nicchia, sono un sacco di anni che il mercato ci prova senza riuscirci e l'interesse è bassissimo

  • @davidemoscati1104
    @davidemoscati1104 10 месяцев назад

    Ci sta che non capisci, quando hai bisogno ti spiega uno di noi. Tranquillo

  • @kaya19781
    @kaya19781 10 месяцев назад

    Meglio renderizzare tutto sulla risoluzione nativa.
    Queste tecniche mi sembrano un passo indietro.