@@Brytesss guarda, giocando solo indie o roba un po' datata non so darti una risposta precisa, però come PC per studiare/lavorare o editare video non è niente male edit: baldurs gate va tutto a mid-low, CPU a 90%. però va!
A partire dalla versione 3.0, il DLSS non va più considerato come una tecnologia a sé ma a un insieme di tecnologie, che nello specifico include: - DLSS Super Resolution (Disponibile per serie RTX 2000 e superiori) - Algoritmo di upscaling. Precedentemente conosciuto come DLSS 2 - DLSS Frame Generation (Esclusiva della serie RTX 4000) - Algoritmo di interpolazione dei fotogrammi. Raddoppia gli fps a discapito della latenza - Reflex (GTX 900 e superiori) - Tecnologia di riduzione della latenza. Usato in combo con il Frame Generation per mitigarne gli effetti negativi - DLSS Ray Reconstruction (RTX 2000 e superiori) - Algoritmo di denoising. Rende più nitidi in particolare gli effetti grafici renderizzati in ray tracing Ci sono poi anche l'XeSS di intel (upscaling ottimizzato per schede video intel) e l'FSR 3 di AMD (che a sua volta include algoritmi di upscaling e frame generation) Spero che questo schemino possa aiutare a capire meglio per chi avesse ancora le ide confuse. C'è da dire anche che la nomenclatura di Nvidia non sia il massimo dell'intuitività
Non vorrei sbagliare ma se non erro il DLSS 3 (super resolution e deep learning anti-aliasing) era già valido anche per la serie 3000 tranne per il frame generator che invece andava solamente nella serie 4000, parlo di quello che indichi dopo il minuto 4 poi con il 3.5 si aggiunse il ray reconstruction anche questa per tutte le rtx.
in qualsiasi gioco che posso ormai attivo fisso ray tracing e dlss aggiornando anche manualmente le dlss se necessario (praticamente sempre) e forzando il profilo C da nvidia inspector per essere sicuri che ci sia meno ghosting possibile.
Purtroppo per “colpa” delle tecnologie introdotte da Nvidia gli sviluppatori non ottimizzano più i videogiochi e ci ritroviamo con la quasi totalità delle release ingiocabili per almeno un mesetto a causa delle prestazioni indecenti
Veramente c'è sempre stata questa cosa anche prima delle tecnologie Hai mai visto un gioco Ubisoft che uscisse come si deve? Primo esempio che mi è venuto in mente
A me piacciono molto i tuoi video. Anche se si chiama DLSS, secondo me potevi dare un piccolo accenno al FSR e la sua accessibilità. Mettendoli in confronto soprattutto con l'FSR 3.0. Onestamente questo video mi ha dato più un'idea che è stata Nvidia a commissionarlo. Perché hai messo solo in luce esclusivamente lati positivi come se la tecnologia è perfetta e che tutti dovrebbero avere almeno una RTX 4000.
Path tracing e dlss sono due tecnologie game changer... Più Dell innovazione della tessellation e pari solo al texture filtering di 25 anni fa. Non credevo ci saremmo arrivati così presto. Purtroppo ad oggi il ray/path tracing viene usato bene in una manciata di titoli, negli altri è quasi una truffa😂. Il dlss 3.5 invece è incredibile, migliore qualità e più frame sono magia nera.
@@TheKonzenDoji È ancora oggi il mio demo test di riferimento heaven, Fai te. Probabilmente ridi perché non hai visto con i tuoi occhi e come tutti parli senza sapere. Il path tracing cambia completamente la scena, incledendo anche ambient occlusion, riflessi, illuminazione globale, ombre e chi più ne ha ne metta. Basta fare un confronto fra on ed off di Alan wake, quake, portal e cyberpunk per rendersi conto. È una tecnologia ancora acerba ma destinata a stravolgere il rendering come lo abbiamo conosciuto sinora. Chi ride o snobba questo e le tecnologie di upscaling moderne vive nel medioevo informatico. 👋
Belle implementazioni ma ho come l'impressione che queste nuove tecnologie stiano diventando una scusa per gli sviluppatori che fanno uscire roba mal ottimizzata, dicendo "vabbèh tanto poi ci pensa il Dlss".
Vorrei fare una critica al video, quando parli del dlss è incorretto dire che aumenta le prestazioni, è più corretto dire che aumente la qualità grafica, mi spiego: Il dlss 2.0 fa upscaling di un immagine da una risoluzione di partenza fino a un target, per esempio da 1080p a 4k, questo ha un costo in prestazioni non un guadagno; si può rigirare la cosa e dire che aumenta gli fps mantenendo una qualità grafica molto vicina al 4k ma questo non è più verò a 720p, la qualità dell'immagine finale dipende fortemente dalla risoluzione di partenza. Attivare il dlss performance a 1080p non produce un buon risultato. Il dlss 3.0 o frame generation, anch'esso non aumenta le performance ma ha un costo come il 2.0, entrambi vanno ad aggiungere millisencondi al tempo necessario a renderizzare un frame, inoltre il 3.0 aumenta l'uso di Vram; i frame generati non passano per la cpu di conseguenza non contengono logica di gioco e input, questo significa che attivare la tecnologia a 30 fps risulterà in una latenza maggiore rispetto a giocare a 30fps con frame gen off, ma con maggiore fluidità dell'immagine a schermo. Bella idea per il video, son sicuro che in molti apprezzano un pò di chiarezza sull'argomento e in fine mi sarebbe piaciuto se avessi incluso anche FSR viste le similitudini tra le due tecnologie.
Fraws come mai hai una narice più bianca rispetto al resto del naso? scottatura? non sono proprio riuscito a distogliere lo sguardo, sono genuinamente preoccupato
C’è da dire che “da profano” vedere le immagini comparate fa quasi ridere perché sembra veramente che Nvidia ti mostri due immagini uguali chiedendoti di trovare le differenze. Capisco che queste sono innovazioni molto importanti ma per adesso l’hype rimane prerogativa di chi riesce a comprare le schede di ultima generazione e giocare i titoli nuovi al day one
purtroppo nel video non si vede molto bene. guarda questo, qui si che vedi la differenza soprattutto negli ambienti chiusi e nella città dove ci sono molte luci e superfici riflettenti e anche i volti stessi degli npc cambiano tantissimo: ruclips.net/video/3pkuU0cGQu8/видео.html qui mette a paragone no raytracing, si raytracing e infine raytracing con il pathtracing attivo (chiamato overdrive mode in cyberpunk) ci lasci veramente la mascella
@@mattiaperry95minchia che figata grazie mille per questo video , effettivamente non notavo tantissima differenza. Unica cosa che comunque noto (forse perchè è una tecnologia nuovissima o forse perchè Cyberpunk non è l'esempio perfetto) ma appena vai su RTX OD gli fps scendono di molto e nonostante comunque non vanno sui 50/40 fps ma comunque diminuiscono di molto con Rtx On (il secondo esempio però) andando da 120/130 ai 70 fps
@@TheGhostRecordsChannel Non é colpa di cyberpunk, purtroppo il raytracing é pesante di suo, il pathtracing invece tipo 5 volte più pesante del raytracing, poi sicuramente il tipo del video avrà il monitor 4k quindi anche quello influenza tantissimo. Con un monitor hd o un 2k probabilmente i frame sono più alti
Quindi io che ho una 1050 ti per natale provvederò a sostituirla con un 4070 dovrei poter accedere a questa tecnologia chiedo non ho conoscenza del campo schede video
01:02 io preferisco la locuzione "più citata", perchè in pochi mesi ha sorpassato la citazione "raytracing" (più propriamente real time raytracing). Più importante... posso dubitarne? Andiamo avanti... 02:38 e qui a mio parere manca una parola "prodotto". DLSS è un prodotto software di nVidia per semplificare il lavoro ai produttodi di engine grafici, un software che giustifica solo in parte il salto "meh" di performance che ha avuto da GTX 1000 a RTX 2000 tutta la lineup, e che soltanto dopo una corposa iniezione di hardware fatta nelle RTX 3000 ha cominciato ad avere maggior senso, nonostante nVidia abbia tenuto con un guinzaglio molto corto RTX 2000, RTX 3000 e pure le 4000 grazie ad un bus memoria dall'ampiezza a dir poco costretta, rispetto al mondo HBM, compresa tra 128 e 384 bit nonostante 4 generazioni di schede grafiche dalla 1000 e quasi 8 anni di miglioramenti tecnologici avvenuti attorno. Molte 1000 montavano GDDR5 o DDR4, mentre tutte le 4000 montano GDDR6 (manco le 6X). Inoltre c'è un "piccolo" dettaglio: DLSS "inventa" (in modo spesso molto, molto efficace) la maggior parte della grafica necessaria a fare (termine improprio) un upscale dell'immagine da quella prodotta dall'engine grafico. E per godere di questa invenzione, l'utente paga DUE VOLTE nVidia: la prima comprando la scheda video, la seconda comprando il gioco che si avvale degli strumenti proposti dal chipmaker. nGreedia che quindi si trova ad incassare fino a 3 volte: -il chip della scheda, dallo AIB (che alla fine viene pagato dall'utente con la scheda); è talmente tanto vantaggioso e possibile essere AIB ora che uno dei migliori produttori di custom (EVGA) ha deciso di non continuare la partneship con nVidia con le 4000. -le tecnologie usate dallo sviluppatore (che alla fine viene pagato dall'utente con il gioco -le tecnologie aggiunte dallo sviluppatore in caso di implementazione successiva (che viene pagato dall'utente con i DLC e gli updates, normalmente ma non sempre gratuiti). 3:25 credo che manchi un "fino a", nella frase appena terminata. E un bel "non tutti i giochi riescono ad ottenere questo miglioramento prestazionale". 3:41 il marketing sul gaming 4k è stato portato a partire dalla serie 2000, arrivata sul mercato 5 anni fa, ottobre 2018. Sono passate 3 generazioni di prodotto e alla fine la concretizzazione di questo marketing è fatta... da un prodotto software, in grado "automagicamente" di aumentare la qualità ed accelerare la velocità di rendering rispetto al raster? Probabilmente qualcosa verrà costruito come nuova tecnologia, ma in questo momento, nonostante la sua efficacia, DLSS nelle varie release sembra un trucco da prestigiatore, più che una vera magia (termine mai usato nel marketing di team green); 5 anni dopo le promesse del 4k, la risposta portata è un software che inventa pixel e frame dove l'engine di gioco non riesce a generarli? Va ammesso.. DLSS "consegna" (quanto riesce a farlo, cioè con un buon algoritmo aggiornato fornito dai driver) in modo molto convincente. Purtroppo il tutto funziona solo con le 4000... che di listino (ponderato per le caratteristiche) si sono messe a livello scalper. Senza farsi aiutare da altri attori. 5:05 si è perso anche il tecnofilo, in questa babele di marketing a pitture verdi. E non è che è colpa tua, è colpa di un modello di business che pone al centro un'azienda che sfrutta la propria posizione dominante sui PC, visto che nelle console è circa "inesistente" escludendo la Switch (che monta un ARM chiamato Tegra di nVidia ed è un SoC di ormai 9 anni fa). XBox, PS5, Steam Deck e molte altre incarnazioni di device portabili x64 sono tutte basate su soluzioni non nVidia e l'ultima console desktop con engine nVidia è stata xBox. La prima, di 21 anni fa. 5:56 de-marketizzando l'intera frase appena espressa: nVidia arriva ora a fare la 1.0 di RTX+DLSS fusi, cinque anni dopo la loro introduzione. Scusa Fraws, ma se la son presa comodoa e fatta pagare cara a lacrime e sangue 'sta beta, mettendo in mezzo 3 generazioni aggiornate di schede video, e tagliando ora fuori 2000 e 3000, visto che funziona solo sulle 4000. In fondo ci sta: nVidia non sta più producendo da tempo chip per 2000 e 3000, quindi non ha nessun interesse a regalare ai clienti un prodotto.
Ma quindi ora i devs saranno meno invogliati a ottimizzare meglio i giochi perché tanto il DLSS o il FSR faranno questo lavoro al loro posto? Io non ho problemi avendo una 3060ti, ma chi ad esempio ha una scheda grafica inferiore avrà le gambe tagliate? Più che altro nel DLSS è tutto lavoro della GPU, o anche la CPU fa la sua parte?
raytracing è abbastanza innecessario visto che la tecnologia raster è ancora molto fedele, siccome usa dei trucchetti molto vicini alla resa grafica "reale" la cosa cambia se raytracing comincerà ad essere lo standard, cosa che potrebbe essere dietro l'angolo per quanto riguarda dlss è senza ombra di dubbio utile, magari non ancora per upscaling a 4k visto che 1080p è ancora la risoluzione standard, ma di nuovo sembra proprio che il salto tecnologico sia questo, specialmente dopo la morte ufficiale della legge di moore (raddoppio di prestazioni o dimezzamento delle dimensioni ogni 2 anni)
Fatti un giro su cyberpunk col path tracing e vienimi a dire che "non è necessario" . Se poi diventa uno standard o meno, dipende solo da quanto diventerà accessibile su gpu consumer da massimo 400-500 euro. Ma già adesso, se parliamo di appassionati di computer grafica e gaming su pc, non penso neanche ci sia da chiederselo se vale la pena di implementare il PT o no.
@@FabioBattistelliGuitar bold of you to assume che abbia accesso ad una postazione così potente, cyberpunk è uno spettacolo, ma rimane abbastanza elevato nel futuro prossimo come livello di dettaglio grafico
@@SilverWolf3862 non ho scritto che il livello di detaglio o i requisiti non siano esosi per il RT in tempo reale, ho scritto che non puoi dire che non sia necessario, perchè se ti fai un giro sul tubo e ti guardi le comparison di phantom liberty in path tracing VS raster, ci lasci la mascella.
sono tutte implementazioni che ti avvicinano sempre di piu ad una grafica fedele alla realta, ne puoi fare a meno, certamente, ma dire che non sia necessario a mio avviso é errato
Alla domanda di chiusura del video, da videogiocatore 20ennale (cominciai a 5 anni praticamente con PS1) dico: costa tutto troppo *accarezzo la mia 1660ti piangendo*
In ogni caso la risoluzione nativa è sempre superiore a tutta sta IA. Ovviamente se avete una 4060 aiuta parecchio in alcuni titoli ma se avete una 4080 evitate di attivare il DLSS per godervi la grafica al massimo
Ragazzi una domanda: per chi possiede una gpu abbastanza potente e gioca in 2k, conviene giocare in rasterizzazione o attivare lo stesso il dlss? Perchè con una 4070 in spiderman remastered (faccio un esempio) in 2k a dettagli ultra e ray tracing attivo mi va intorno ai 100 fps in rasterizzazione, ma potrei spingermi fino ai 144 con il dlss. C'è una perdita di qualità con il dlss?
Ok tutto chiaro ma tipo in call off duty aumenta input lag e le casse o borsoni sono troppo luminosi e fastidiosi da vedere come la si può sistemare ? Mw2 call of duty war zone
implementazioni presenti o future su console ? Si vociferava molto di adottarlo magari su switch 2 ma appunto erano rumor. Teoricamente le console potrebbero essere uno dei campi dove risparmiare risorse è decisivo
Mi sa che i vantaggi del raytracing sono soltanto per gli sviluppatori: l'ottimizzazione dei giochi ormai sembra inversamente proporzionale ai frame che il DLSS ti fa guadagnare Non mi stupirei se giochi con lo stesso dettaglio grafico degli attuali rilasciati da qui a qualche anno gireranno in media a 20 FPS su PC di fascia medio/alta senza attivare il DLSS, tanto è quello l'andazzo ormai
Roba che va bene per le console, bassa potenza e TV lontana dagli occhi, per non vedere la qualità più bassa. Comunque a parte il video marchetta stiamo parlando per l'ennesima volta di tecnologie che servono solo a risparmiare lavoro agli sviluppatori, sono loro che devono fare un gioco decente, non deve essere la scheda video a metterci una pezza, anche se probabilmente conviene sia ai publisher che risparmiarmiano soldi e tempo, sia a chi vende gpu
@@Rubik43 adesso se uno fa 2+2 è un complottista. Comunque il fatto che ogni gioco tripla A esca su PC buggatissimo e mal ottimizzato l'ho visto solo io perché sono complottista
@@christiandapare crisi semiconduttori e pandemia ti dice nulla? il tuo punto ha anche un senso ma sta calmo, esistono equilibri, motivazioni, autorialità, è un sistema complesso non sono mica tutti ubisoft.
è disponibile in qulasiasi scheda rtx dalle 2000 in poi, ma deve essere introdotto nel gioco dagli sviluppatori(in pratica ora c'è solo su cyberpunk2077 e alan wake2) serve a eliminare alcune sbavature del raytracing(senza raytracing attivo non serve a niente)
Ma questa tecnologia non aumenta l’input lag? Chiedo. Perché per calcolare e generare frame di mezzo, qualcosa nella responsivitá dei controlli in gioco si dovrebbe perdere, o no?
Io sono estremamente profano in merito, essendo pure un giocatore da console,ma questa tecnologia ha solo effetti positivi,o come per tutte le cose,ha il rovescio della medaglia?
Il rovescio è che aumenta la latenza e il consumo energetico in generale, ma NVIDIA è brava a mitigare gli effetti negativi, rendere l'input lag trascurabile e ottimizzare le sue schede grafiche. Altro grosso rovescio è che il DLSS è una tecnologia proprietaria di NVIDIA e si può sfruttare solo sui giochi che la supportano direttamente, al contrario della tecnologia FSR di AMD.
Ma la 3070 è na bomba, tanto ormai i giochi sono quasi tutta CPU causa richiesta di molti Core, conviene avere una cpu molto potente rispetto ad una scheda video top di gamma
DLSS 3, 3.5 o 48, io so solo che nel mio PC HP con RTX 3060 e Ryzen 7 5800 non riesco a far girare Cyberpunk 2077!!! Maledetti siano HP, Microsoft, Nvidia, CD Project e tutti i loro aggiornamenti dei programmi e dei driver che non ottimizzano una beneamata!
Il dlss è una buona cosa?? Si e No.. cioè.. è una buona cosa perchè si hanno effettivamente prestazioni superiori però al tempo stesso (dipende dai titoli) si possono avere artefatti grafici abbastanza evidenti in certi casi... oppure un'immagine soft rispetto magari alla risoluzione nativa.. però anche qui dipende molto da gioco a gioco. Più che altro è una brutta cosa perchè sempre più sviluppatori buttano sul mercato i loro giochi SCARSAMENTE ottimizzati, però grazie al dlss o fsr di amd il framerate va a migliorare magari anche drasticamente... ma non è una buona cosa.. un gioco DEVE essere ottimizzato specialmente per poterci giocare in risoluzione nativa.. queste tecnologie devono essere un' aggiunta che può aiutare e non un qualcosa di completamente sostitutivo, non esiste che io debba per forza di cosa utilizzare queste tecnologie (abbassando di conseguenza la risoluzione e avendo anche artefatti grafici) per giocare decentemente qualcosa. Quest'anno la scarsa ottimizzazione è stata quasi onnipresente, cosa che ovviamente non doveva assolutamente esserci nel 2023.
Non esce, dovrebbero uscire le "super". Così almeno da rumor. Btw buon acquisto goditela, è una bomba come scheda. Una cosa la mia TUF ha un po' di coil whine e ho sentito che dovrebbe averlo anche la rog. Per il resto silenziosa
la 4090 costa 1900 euro, dipende quanto sei benestante e che scheda hai ora ma io aspetterei la 5000, q1 o q2 2025 perché ora i prezzi sono fuori di testa.
@@Frigobar_Ranamelonico mah dipende, puoi essere enthusiast anche con uno stipendio da 1500. c'è chi investe 5k in più in una macchina che non aggiunge nessun valore reale se non per feticcio personale e chi li spende in giochi.
@@Rubik43 dev'essere proprio una gestione pessima del denaro. Io sono un cliente da 4090 ma se non ne avessi da "buttare" per la mia passione sicuramente non prenderei componenti così costosi.
Scusa fraws ma questo video mi sa di sponsorizzato eppure non lo dici che è sponsorizzato. Non è fanboyismo, è proprio come ne parli, il contenuto che mostri, e non dici nè che sia sponsorizzato, nè che non lo sia, il che mi sa di paraculata legale
Molto figo, ma questa quindi è una di quelle cose che risolve un problema e poi ne crea un'altro? Ok si hai 100 fps in un gioco pesantissimo ma hai x problema in un'altra parte del pc.
Tutto molto bello e quello che preferisco con questa tecnologia è avere il frame rate alto, ma ora mi piacerebbe avere anche interazione con l'ambiente, se non chiedo troppo. Anche se temo dobbiamo aspettare le console per quello
@@MonkeyDBenny si certo è colpa mia che ho installato i driver anche più volte da zero certo certo. Il problema è così da settembre quindi installare i driver vecchi quali? Se non sei informato e non guardi neanche il forum ufficiale di Nvidia dove gente con la 4090 si lamenta che non gli funziona un c**** o non conosci persone che lavorano con Nvidia che sanno di queste problematiche perché Nvidia stessa gliele dice allora fai bella figura a stare zitto
io: Chiudo il video, accarezzo la mia 1060... "tieni duro ancora un po', dai."
Ho una 1660, feel u
Io con la mia 1050 (non Ti)
Fun fact: è il PC da 500 euro assemblato da fraws
Io sto ancora con la 970. Oramai, porina, gli viene l'ansia quando mi vede prendere le cuffie 😂
@@davidebretti9534 "waitwaitWAITWAITWAIT"
@@Brytesss guarda, giocando solo indie o roba un po' datata non so darti una risposta precisa, però come PC per studiare/lavorare o editare video non è niente male
edit: baldurs gate va tutto a mid-low, CPU a 90%. però va!
A partire dalla versione 3.0, il DLSS non va più considerato come una tecnologia a sé ma a un insieme di tecnologie, che nello specifico include:
- DLSS Super Resolution (Disponibile per serie RTX 2000 e superiori) - Algoritmo di upscaling. Precedentemente conosciuto come DLSS 2
- DLSS Frame Generation (Esclusiva della serie RTX 4000) - Algoritmo di interpolazione dei fotogrammi. Raddoppia gli fps a discapito della latenza
- Reflex (GTX 900 e superiori) - Tecnologia di riduzione della latenza. Usato in combo con il Frame Generation per mitigarne gli effetti negativi
- DLSS Ray Reconstruction (RTX 2000 e superiori) - Algoritmo di denoising. Rende più nitidi in particolare gli effetti grafici renderizzati in ray tracing
Ci sono poi anche l'XeSS di intel (upscaling ottimizzato per schede video intel) e l'FSR 3 di AMD (che a sua volta include algoritmi di upscaling e frame generation)
Spero che questo schemino possa aiutare a capire meglio per chi avesse ancora le ide confuse. C'è da dire anche che la nomenclatura di Nvidia non sia il massimo dell'intuitività
Grazie!!!
In genere non vedo le differenze e non me ne frega della grafica, ma è affascinante il passo avanti fatto
Non vorrei sbagliare ma se non erro il DLSS 3 (super resolution e deep learning anti-aliasing) era già valido anche per la serie 3000 tranne per il frame generator che invece andava solamente nella serie 4000, parlo di quello che indichi dopo il minuto 4 poi con il 3.5 si aggiunse il ray reconstruction anche questa per tutte le rtx.
in qualsiasi gioco che posso ormai attivo fisso ray tracing e dlss aggiornando anche manualmente le dlss se necessario (praticamente sempre) e forzando il profilo C da nvidia inspector per essere sicuri che ci sia meno ghosting possibile.
Purtroppo per “colpa” delle tecnologie introdotte da Nvidia gli sviluppatori non ottimizzano più i videogiochi e ci ritroviamo con la quasi totalità delle release ingiocabili per almeno un mesetto a causa delle prestazioni indecenti
Veramente c'è sempre stata questa cosa anche prima delle tecnologie
Hai mai visto un gioco Ubisoft che uscisse come si deve? Primo esempio che mi è venuto in mente
"Un sorriso te lo strappa sempre" e con questo hai conquistato sia i profani che un geek come me. Daje Fraws 💚
A me piacciono molto i tuoi video. Anche se si chiama DLSS, secondo me potevi dare un piccolo accenno al FSR e la sua accessibilità. Mettendoli in confronto soprattutto con l'FSR 3.0. Onestamente questo video mi ha dato più un'idea che è stata Nvidia a commissionarlo. Perché hai messo solo in luce esclusivamente lati positivi come se la tecnologia è perfetta e che tutti dovrebbero avere almeno una RTX 4000.
O magari vuole farci un video a parte?
@@Muxeroth Lo avrebbe preannunciato nel video, non è da sorprendersi se fosse stato NVIDIA a commissionarlo visto che è partner.
Ma che due palle questo tipo di commenti.
@@MegaBittus i video non si possono "commissionare", al massimo il video sarebbe potuto essere sponsorizzato ma lo avrebbe detto
A me sembri un AMD super fan complottaro
Bel video informativo, anche per chi non mastica molto la materia tecnica, grazie!
Path tracing e dlss sono due tecnologie game changer... Più Dell innovazione della tessellation e pari solo al texture filtering di 25 anni fa. Non credevo ci saremmo arrivati così presto. Purtroppo ad oggi il ray/path tracing viene usato bene in una manciata di titoli, negli altri è quasi una truffa😂. Il dlss 3.5 invece è incredibile, migliore qualità e più frame sono magia nera.
Più della tesselation? Ahahaha! 😂😂😂 Hai mai visto tesselation on Vs off? Oppure hai mai fatto un unigine heaven?
@@TheKonzenDoji È ancora oggi il mio demo test di riferimento heaven, Fai te. Probabilmente ridi perché non hai visto con i tuoi occhi e come tutti parli senza sapere. Il path tracing cambia completamente la scena, incledendo anche ambient occlusion, riflessi, illuminazione globale, ombre e chi più ne ha ne metta. Basta fare un confronto fra on ed off di Alan wake, quake, portal e cyberpunk per rendersi conto. È una tecnologia ancora acerba ma destinata a stravolgere il rendering come lo abbiamo conosciuto sinora. Chi ride o snobba questo e le tecnologie di upscaling moderne vive nel medioevo informatico. 👋
Belle implementazioni ma ho come l'impressione che queste nuove tecnologie stiano diventando una scusa per gli sviluppatori che fanno uscire roba mal ottimizzata, dicendo "vabbèh tanto poi ci pensa il Dlss".
Esatto
sono d'accordo
Vorrei fare una critica al video, quando parli del dlss è incorretto dire che aumenta le prestazioni, è più corretto dire che aumente la qualità grafica, mi spiego:
Il dlss 2.0 fa upscaling di un immagine da una risoluzione di partenza fino a un target, per esempio da 1080p a 4k, questo ha un costo in prestazioni non un guadagno; si può rigirare la cosa e dire che aumenta gli fps mantenendo una qualità grafica molto vicina al 4k ma questo non è più verò a 720p, la qualità dell'immagine finale dipende fortemente dalla risoluzione di partenza. Attivare il dlss performance a 1080p non produce un buon risultato.
Il dlss 3.0 o frame generation, anch'esso non aumenta le performance ma ha un costo come il 2.0, entrambi vanno ad aggiungere millisencondi al tempo necessario a renderizzare un frame, inoltre il 3.0 aumenta l'uso di Vram; i frame generati non passano per la cpu di conseguenza non contengono logica di gioco e input, questo significa che attivare la tecnologia a 30 fps risulterà in una latenza maggiore rispetto a giocare a 30fps con frame gen off, ma con maggiore fluidità dell'immagine a schermo.
Bella idea per il video, son sicuro che in molti apprezzano un pò di chiarezza sull'argomento e in fine mi sarebbe piaciuto se avessi incluso anche FSR viste le similitudini tra le due tecnologie.
Fraws come mai hai una narice più bianca rispetto al resto del naso? scottatura? non sono proprio riuscito a distogliere lo sguardo, sono genuinamente preoccupato
Io che guardo questo video sulla mia vecchia RX 580 di AMD :')
Che rimane una bomba di GPU
C’è da dire che “da profano” vedere le immagini comparate fa quasi ridere perché sembra veramente che Nvidia ti mostri due immagini uguali chiedendoti di trovare le differenze.
Capisco che queste sono innovazioni molto importanti ma per adesso l’hype rimane prerogativa di chi riesce a comprare le schede di ultima generazione e giocare i titoli nuovi al day one
Penso sia anche un po' colpa del video, RUclips comprime e peggiora :/
purtroppo nel video non si vede molto bene. guarda questo, qui si che vedi la differenza soprattutto negli ambienti chiusi e nella città dove ci sono molte luci e superfici riflettenti e anche i volti stessi degli npc cambiano tantissimo:
ruclips.net/video/3pkuU0cGQu8/видео.html
qui mette a paragone no raytracing, si raytracing e infine raytracing con il pathtracing attivo (chiamato overdrive mode in cyberpunk) ci lasci veramente la mascella
@@mattiaperry95minchia che figata grazie mille per questo video , effettivamente non notavo tantissima differenza. Unica cosa che comunque noto (forse perchè è una tecnologia nuovissima o forse perchè Cyberpunk non è l'esempio perfetto) ma appena vai su RTX OD gli fps scendono di molto e nonostante comunque non vanno sui 50/40 fps ma comunque diminuiscono di molto con Rtx On (il secondo esempio però) andando da 120/130 ai 70 fps
@@TheGhostRecordsChannel Non é colpa di cyberpunk, purtroppo il raytracing é pesante di suo, il pathtracing invece tipo 5 volte più pesante del raytracing, poi sicuramente il tipo del video avrà il monitor 4k quindi anche quello influenza tantissimo. Con un monitor hd o un 2k probabilmente i frame sono più alti
Quindi io che ho una 1050 ti per natale provvederò a sostituirla con un 4070 dovrei poter accedere a questa tecnologia chiedo non ho conoscenza del campo schede video
01:02 io preferisco la locuzione "più citata", perchè in pochi mesi ha sorpassato la citazione "raytracing" (più propriamente real time raytracing). Più importante... posso dubitarne? Andiamo avanti...
02:38 e qui a mio parere manca una parola "prodotto". DLSS è un prodotto software di nVidia per semplificare il lavoro ai produttodi di engine grafici, un software che giustifica solo in parte il salto "meh" di performance che ha avuto da GTX 1000 a RTX 2000 tutta la lineup, e che soltanto dopo una corposa iniezione di hardware fatta nelle RTX 3000 ha cominciato ad avere maggior senso, nonostante nVidia abbia tenuto con un guinzaglio molto corto RTX 2000, RTX 3000 e pure le 4000 grazie ad un bus memoria dall'ampiezza a dir poco costretta, rispetto al mondo HBM, compresa tra 128 e 384 bit nonostante 4 generazioni di schede grafiche dalla 1000 e quasi 8 anni di miglioramenti tecnologici avvenuti attorno. Molte 1000 montavano GDDR5 o DDR4, mentre tutte le 4000 montano GDDR6 (manco le 6X).
Inoltre c'è un "piccolo" dettaglio: DLSS "inventa" (in modo spesso molto, molto efficace) la maggior parte della grafica necessaria a fare (termine improprio) un upscale dell'immagine da quella prodotta dall'engine grafico. E per godere di questa invenzione, l'utente paga DUE VOLTE nVidia: la prima comprando la scheda video, la seconda comprando il gioco che si avvale degli strumenti proposti dal chipmaker. nGreedia che quindi si trova ad incassare fino a 3 volte:
-il chip della scheda, dallo AIB (che alla fine viene pagato dall'utente con la scheda); è talmente tanto vantaggioso e possibile essere AIB ora che uno dei migliori produttori di custom (EVGA) ha deciso di non continuare la partneship con nVidia con le 4000.
-le tecnologie usate dallo sviluppatore (che alla fine viene pagato dall'utente con il gioco
-le tecnologie aggiunte dallo sviluppatore in caso di implementazione successiva (che viene pagato dall'utente con i DLC e gli updates, normalmente ma non sempre gratuiti).
3:25 credo che manchi un "fino a", nella frase appena terminata. E un bel "non tutti i giochi riescono ad ottenere questo miglioramento prestazionale".
3:41 il marketing sul gaming 4k è stato portato a partire dalla serie 2000, arrivata sul mercato 5 anni fa, ottobre 2018. Sono passate 3 generazioni di prodotto e alla fine la concretizzazione di questo marketing è fatta... da un prodotto software, in grado "automagicamente" di aumentare la qualità ed accelerare la velocità di rendering rispetto al raster? Probabilmente qualcosa verrà costruito come nuova tecnologia, ma in questo momento, nonostante la sua efficacia, DLSS nelle varie release sembra un trucco da prestigiatore, più che una vera magia (termine mai usato nel marketing di team green); 5 anni dopo le promesse del 4k, la risposta portata è un software che inventa pixel e frame dove l'engine di gioco non riesce a generarli? Va ammesso.. DLSS "consegna" (quanto riesce a farlo, cioè con un buon algoritmo aggiornato fornito dai driver) in modo molto convincente. Purtroppo il tutto funziona solo con le 4000... che di listino (ponderato per le caratteristiche) si sono messe a livello scalper. Senza farsi aiutare da altri attori.
5:05 si è perso anche il tecnofilo, in questa babele di marketing a pitture verdi. E non è che è colpa tua, è colpa di un modello di business che pone al centro un'azienda che sfrutta la propria posizione dominante sui PC, visto che nelle console è circa "inesistente" escludendo la Switch (che monta un ARM chiamato Tegra di nVidia ed è un SoC di ormai 9 anni fa). XBox, PS5, Steam Deck e molte altre incarnazioni di device portabili x64 sono tutte basate su soluzioni non nVidia e l'ultima console desktop con engine nVidia è stata xBox. La prima, di 21 anni fa.
5:56 de-marketizzando l'intera frase appena espressa: nVidia arriva ora a fare la 1.0 di RTX+DLSS fusi, cinque anni dopo la loro introduzione. Scusa Fraws, ma se la son presa comodoa e fatta pagare cara a lacrime e sangue 'sta beta, mettendo in mezzo 3 generazioni aggiornate di schede video, e tagliando ora fuori 2000 e 3000, visto che funziona solo sulle 4000. In fondo ci sta: nVidia non sta più producendo da tempo chip per 2000 e 3000, quindi non ha nessun interesse a regalare ai clienti un prodotto.
Ma quindi ora i devs saranno meno invogliati a ottimizzare meglio i giochi perché tanto il DLSS o il FSR faranno questo lavoro al loro posto? Io non ho problemi avendo una 3060ti, ma chi ad esempio ha una scheda grafica inferiore avrà le gambe tagliate?
Più che altro nel DLSS è tutto lavoro della GPU, o anche la CPU fa la sua parte?
raytracing è abbastanza innecessario visto che la tecnologia raster è ancora molto fedele, siccome usa dei trucchetti molto vicini alla resa grafica "reale"
la cosa cambia se raytracing comincerà ad essere lo standard, cosa che potrebbe essere dietro l'angolo
per quanto riguarda dlss è senza ombra di dubbio utile, magari non ancora per upscaling a 4k visto che 1080p è ancora la risoluzione standard, ma di nuovo sembra proprio che il salto tecnologico sia questo, specialmente dopo la morte ufficiale della legge di moore (raddoppio di prestazioni o dimezzamento delle dimensioni ogni 2 anni)
La legge di Moore era ogni 18 mesi, altro che due anni
Fatti un giro su cyberpunk col path tracing e vienimi a dire che "non è necessario" . Se poi diventa uno standard o meno, dipende solo da quanto diventerà accessibile su gpu consumer da massimo 400-500 euro. Ma già adesso, se parliamo di appassionati di computer grafica e gaming su pc, non penso neanche ci sia da chiederselo se vale la pena di implementare il PT o no.
@@FabioBattistelliGuitar bold of you to assume che abbia accesso ad una postazione così potente, cyberpunk è uno spettacolo, ma rimane abbastanza elevato nel futuro prossimo come livello di dettaglio grafico
@@SilverWolf3862 non ho scritto che il livello di detaglio o i requisiti non siano esosi per il RT in tempo reale, ho scritto che non puoi dire che non sia necessario, perchè se ti fai un giro sul tubo e ti guardi le comparison di phantom liberty in path tracing VS raster, ci lasci la mascella.
sono tutte implementazioni che ti avvicinano sempre di piu ad una grafica fedele alla realta, ne puoi fare a meno, certamente, ma dire che non sia necessario a mio avviso é errato
non vedo differenze nei video comparativi, e se anche le vedo mi ci devo sforzare, cosa che non faccio quando vado in giro in macchina in cyberpunk
Che bella domenica
Ma la serie 3000 nvidia ha il dlss 3,5 ? Devo aggiornarla io ?
Alla domanda di chiusura del video, da videogiocatore 20ennale (cominciai a 5 anni praticamente con PS1) dico: costa tutto troppo *accarezzo la mia 1660ti piangendo*
In ogni caso la risoluzione nativa è sempre superiore a tutta sta IA. Ovviamente se avete una 4060 aiuta parecchio in alcuni titoli ma se avete una 4080 evitate di attivare il DLSS per godervi la grafica al massimo
Ragazzi una domanda: per chi possiede una gpu abbastanza potente e gioca in 2k, conviene giocare in rasterizzazione o attivare lo stesso il dlss? Perchè con una 4070 in spiderman remastered (faccio un esempio) in 2k a dettagli ultra e ray tracing attivo mi va intorno ai 100 fps in rasterizzazione, ma potrei spingermi fino ai 144 con il dlss. C'è una perdita di qualità con il dlss?
Ok tutto chiaro ma tipo in call off duty aumenta input lag e le casse o borsoni sono troppo luminosi e fastidiosi da vedere come la si può sistemare ? Mw2 call of duty war zone
implementazioni presenti o future su console ? Si vociferava molto di adottarlo magari su switch 2 ma appunto erano rumor. Teoricamente le console potrebbero essere uno dei campi dove risparmiare risorse è decisivo
Sono stupido, scusate la domanda
Non va fatto nulla per usarlo, giusto?
Si aggiorna automaticamente?
Mi sa che i vantaggi del raytracing sono soltanto per gli sviluppatori: l'ottimizzazione dei giochi ormai sembra inversamente proporzionale ai frame che il DLSS ti fa guadagnare
Non mi stupirei se giochi con lo stesso dettaglio grafico degli attuali rilasciati da qui a qualche anno gireranno in media a 20 FPS su PC di fascia medio/alta senza attivare il DLSS, tanto è quello l'andazzo ormai
Roba che va bene per le console, bassa potenza e TV lontana dagli occhi, per non vedere la qualità più bassa.
Comunque a parte il video marchetta stiamo parlando per l'ennesima volta di tecnologie che servono solo a risparmiare lavoro agli sviluppatori, sono loro che devono fare un gioco decente, non deve essere la scheda video a metterci una pezza, anche se probabilmente conviene sia ai publisher che risparmiarmiano soldi e tempo, sia a chi vende gpu
Madonna che complottista.
@@Rubik43 adesso se uno fa 2+2 è un complottista. Comunque il fatto che ogni gioco tripla A esca su PC buggatissimo e mal ottimizzato l'ho visto solo io perché sono complottista
@@christiandapare crisi semiconduttori e pandemia ti dice nulla? il tuo punto ha anche un senso ma sta calmo, esistono equilibri, motivazioni, autorialità, è un sistema complesso non sono mica tutti ubisoft.
Scusate l'ignoranza, ma questo DLSS 3.5 è già disponibile nella serie di GPU 4000 ?
è disponibile in qulasiasi scheda rtx dalle 2000 in poi, ma deve essere introdotto nel gioco dagli sviluppatori(in pratica ora c'è solo su cyberpunk2077 e alan wake2) serve a eliminare alcune sbavature del raytracing(senza raytracing attivo non serve a niente)
Che lo standard passerà al 1440p/2160p ho qualche dubbio ma ok.
Nel tempo ovviamente si... Per ora il full HD resta il formato di riferimento.
Il DLSS credo sia la migliore tecnologia mai creata fino ad oggi in ambito videoludico.
Si come no....
@@BigBossXCV cosa?
Sicuramente ottimo per gli sviluppatori che non si sbatteranno a fare ottimizzazioni.
Assolutamente si.
Paradossalmente ha rovinato il mondo del gaming perché gli sviluppatori non ottimizzano più nulla perché “tanto ci pensa Nvidia”
Ma come si attiva
Ma questa tecnologia non aumenta l’input lag? Chiedo. Perché per calcolare e generare frame di mezzo, qualcosa nella responsivitá dei controlli in gioco si dovrebbe perdere, o no?
Sicuramente lo aumenta, ma è trascurabile.
Capito
Antò fa caldoh 🌞🌡
Io sono estremamente profano in merito, essendo pure un giocatore da console,ma questa tecnologia ha solo effetti positivi,o come per tutte le cose,ha il rovescio della medaglia?
Il rovescio è che aumenta la latenza e il consumo energetico in generale, ma NVIDIA è brava a mitigare gli effetti negativi, rendere l'input lag trascurabile e ottimizzare le sue schede grafiche. Altro grosso rovescio è che il DLSS è una tecnologia proprietaria di NVIDIA e si può sfruttare solo sui giochi che la supportano direttamente, al contrario della tecnologia FSR di AMD.
Fin quando le 4090 stanno 2000 €, fottesega del DLSS 3.5 😂
Mi tengo la mia 3070
stanno a 1600.. manco al lancio stavano a 2k, ti basta una 4070 per il 2k o 4080 per il 4k .. non ti serve la 4090.
Ma la 3070 è na bomba, tanto ormai i giochi sono quasi tutta CPU causa richiesta di molti Core, conviene avere una cpu molto potente rispetto ad una scheda video top di gamma
DLSS 3, 3.5 o 48, io so solo che nel mio PC HP con RTX 3060 e Ryzen 7 5800 non riesco a far girare Cyberpunk 2077!!! Maledetti siano HP, Microsoft, Nvidia, CD Project e tutti i loro aggiornamenti dei programmi e dei driver che non ottimizzano una beneamata!
Il dlss è una buona cosa?? Si e No.. cioè.. è una buona cosa perchè si hanno effettivamente prestazioni superiori però al tempo stesso (dipende dai titoli) si possono avere artefatti grafici abbastanza evidenti in certi casi... oppure un'immagine soft rispetto magari alla risoluzione nativa.. però anche qui dipende molto da gioco a gioco.
Più che altro è una brutta cosa perchè sempre più sviluppatori buttano sul mercato i loro giochi SCARSAMENTE ottimizzati, però grazie al dlss o fsr di amd il framerate va a migliorare magari anche drasticamente... ma non è una buona cosa.. un gioco DEVE essere ottimizzato specialmente per poterci giocare in risoluzione nativa.. queste tecnologie devono essere un' aggiunta che può aiutare e non un qualcosa di completamente sostitutivo, non esiste che io debba per forza di cosa utilizzare queste tecnologie (abbassando di conseguenza la risoluzione e avendo anche artefatti grafici) per giocare decentemente qualcosa.
Quest'anno la scarsa ottimizzazione è stata quasi onnipresente, cosa che ovviamente non doveva assolutamente esserci nel 2023.
secondo te quando uscirà la serie 5000? perchè vorrei aggiornare il pc e prendere una 4090 ma se tra un anno esce la serie nuova aspetto
Non esce, dovrebbero uscire le "super".
Così almeno da rumor.
Btw buon acquisto goditela, è una bomba come scheda.
Una cosa la mia TUF ha un po' di coil whine e ho sentito che dovrebbe averlo anche la rog.
Per il resto silenziosa
la 4090 costa 1900 euro, dipende quanto sei benestante e che scheda hai ora ma io aspetterei la 5000, q1 o q2 2025 perché ora i prezzi sono fuori di testa.
@@Rubik43 se uno compra la 4090 ti assicuro che è più interessato alle performance e il costo è un problema relativo
@@Frigobar_Ranamelonico mah dipende, puoi essere enthusiast anche con uno stipendio da 1500. c'è chi investe 5k in più in una macchina che non aggiunge nessun valore reale se non per feticcio personale e chi li spende in giochi.
@@Rubik43 dev'essere proprio una gestione pessima del denaro.
Io sono un cliente da 4090 ma se non ne avessi da "buttare" per la mia passione sicuramente non prenderei componenti così costosi.
Sono un ultra fanboy amd tuttavia comprero` la prossima nvidia fat per maxare cyberpunk come dio comanda
Scusa fraws ma questo video mi sa di sponsorizzato eppure non lo dici che è sponsorizzato. Non è fanboyismo, è proprio come ne parli, il contenuto che mostri, e non dici nè che sia sponsorizzato, nè che non lo sia, il che mi sa di paraculata legale
Molto figo, ma questa quindi è una di quelle cose che risolve un problema e poi ne crea un'altro?
Ok si hai 100 fps in un gioco pesantissimo ma hai x problema in un'altra parte del pc.
Puoi fare x-men the ravages of apocalypse in giochi brutti
Tutto molto bello e quello che preferisco con questa tecnologia è avere il frame rate alto, ma ora mi piacerebbe avere anche interazione con l'ambiente, se non chiedo troppo. Anche se temo dobbiamo aspettare le console per quello
Grazie a dio gioco solo a Dota2 😂🤣
Io che ho comprato una rx 6750 xt: grazie sto a posto ❤
Da quando sono usciti 'sti caz** di drivers nuovi ho continui cali di frame. Altro che dlss, mai più Nvidia
sicuramente sara colpa di nvidia si diverte cosi.. non è che sei te che hai fatto qualcosa, comunque puoi sempre reinstallare i driver vecchi.
@@MonkeyDBenny si certo è colpa mia che ho installato i driver anche più volte da zero certo certo. Il problema è così da settembre quindi installare i driver vecchi quali? Se non sei informato e non guardi neanche il forum ufficiale di Nvidia dove gente con la 4090 si lamenta che non gli funziona un c**** o non conosci persone che lavorano con Nvidia che sanno di queste problematiche perché Nvidia stessa gliele dice allora fai bella figura a stare zitto
Da possessore di 3090 penso che il dlss altro non sia che un espediente per coprire l'incapacità di Nvidia di produrre vere Gpu che supportino il 4k
Primo