La grafica dei moderni videogiochi ha raggiunto un livello tale che oggi è difficile migliorarla ulteriormente; infatti se si osserva un gioco di 4/5 anni fa, non appare molto diverso da uno di oggi...ovviamente l'industria deve andare avanti e giustificare l'uscita del nuovo hardware, ad esempio Nvidia ha pensato bene di introdurre il raytracing...quello che noto però è che oggi si produce hardware sempre più potente e costoso in cambio di miglioramenti grafici modesti o comunque non così evidenti come in passato....Esempio un titolo col raytracing odierno, è bellissimo ma ,in generale,se in un gioco lo disattivi ,la grafica rimane comunque bellissima tanto che in alcuni titoli il raytracing più che essere oggettivamente bello diviene soggettivamente bello ,un pò come una forma d'arte che può piacere o meno (e poi nella vita reale tutti sti riflessi non li vediamo proprio.....) È inevitabile che Nvidia, Amd , Intel ci influenzano ma, in qualche modo, cerchiamo di conservare una nostra opinione senza farci dire dalle aziende ciò che è bello e ciò che non lo è. Un'altra cosa che ho notato è che oggi con la scusa che esiste il dlss e fsr ottimizzano meno i giochi...prima si cercava di spremere ogni singola risorsa hardware (ne sanno qualcosa gli sviluppatori dei giochi ps3) adesso si pensa: "ma perché spendere soldi a ottimizzare? Le schede sono potenti, la vram non manca, c'è il dlss perché far lavorare gli sviluppatori? facciamogli fare il minimo indispensabile poi ci pensa l'IA del dlss ad aumentare le prestazioni...." ; l'uso massiccio del TAA è un altro trucco per risparmiare sull 'ottimizzazione. Speriamo che l'industria non vada verso questa direzione perché ogni volta che si lavora solo per il profitto, inevitabilmente il mondo si impoverisce assieme a noi...e l'IA non può sostituire completamente il lavoro umano ; dobbiamo chiederci: l'uomo è stato fatto per il lavoro e il profitto? se la risposta è si allora l'uomo viene sminuito e può essere sostituito dall'IA al 100% ma evidentemente il lavoro è stato fatto per l'uomo e non il contrario.
È relativamente facile migliorare una grafica brutta o bruttina di 15-20 anni fa' ma se hai una grafica odierna già oggettivamente molto bella come la migliori? non è banale... e forse è proprio a questo punto che i gusti personali e artistici assumono un peso importante.... Poi come ho scritto sopra c'è il discorso dell'ottimizzazione grafica che oggi va al risparmio a causa anche dell'IA e degli upscaling usati male....vedremo come evolve la situazione....
Adesso mi recupero i video che non ho visto con l'abbonamento, sei un grande Ale💚 mi metto un bel video in sottofondo e lo ascolto per prendere sonno. Ti si vuole bene 💚
Il Problema di questa comparazione è il paragonare una scheda 3080/3080ti che si può trovare usata facilmente sui 400€-450€, a una scheda di una generazione dopo AMD che costa non dico il doppio ma quasi. Se consideriamo perfomance per euro, fascia differente, ed una gen di differenza, non esce benissimo la scheda di amd onestamente. Tra l'altro il dlss è implementato molto bene in Dying Light 2, se attivato fa veramente la differenza.
@@hardwaretechnews sono perfettamente d'accordo con te sul discorso della VRAM. La 3080 potrebbe ancora oggi come potenza bruta far girare al massimo il 90% dei giochi, ma sei costretto a fare compromessi sulle impostazioni, per non sforare la VRAM risicata. Alcune schede della serie 40 nonostante hanno il FG non possono attivarlo superato una certa soglia perchè anche quella consuma vram, come il RT ecc. Per stare tranquilli oggi, servono almeno 20gb se vuoi tenere come me, una configurazione per anni.
@@hardwaretechnews Ma non è assolutamente vera questa cosa della Vram che si esaurisce. Avete mai provato una 4080 ?! Io ce l'ho da 2 anni e gioco sempre con Rivatuner attivo perchè mi piace sempre avere tutti i dati a schermo. Non ho MAI e dico MAI superato i 10gb di consumo di Vram. MAI ! Se non ci credete provate una 4080 di qualcuno .... sono mesi che sento dire questa fesseria. Con RDR2 ho voluto fare un test aggiungendo tutti gli effetti che consumavano memoria e non ho mai supertato gli 11 gb di capienza Vram. Da quello che vedo con i miei occhi da 2 anni ... 12gb di Vram al momento bastano e avanzano. Non arrivo a saturare la Vram neache con Star Citizen ..... un gioco che si ciuccia 30 gb di RAM. Il gioco peggio implementato della storia.
Se l'avesse messa a confronto con la 3090 non si sarebbe notato il collo di bottiglia che fa la Vram. Da questo tipo di video si deve cercare di trarne beneficio e aumentare le informazioni in possesso, in modo da non farsi prendere per i fondelli da nessuna azienda.
Che commento stupido, perdona il mio francesismo.... Ma ricordati il prezzo di lancio della 3090... E poi 3090 ti.... Voi pensate che AMD non possa fare schede del calibro della 4090 e a breve della 5090 ma sbagliate alla grande. AMD semplicemente sceglie di non produrre certe schede video che non siano a livello di marketing per un grande pubblico. Mettetevi in testa che non bisogna essere fanboy, ma bisogna sempre valutare le cose per come stanno, e ciò che comperiamo deve far comodo al nostro utilizzo e portafogli e non a quello delle aziende.
@@destroiedworld8739 anche io posso fare i dipinti di Van Gogh anche meglio ma non li faccio..(visto com e facile parlare cosi di fantasia) poi siete sempre preoccupati di portafogli di corrente bollete etc tec.. che premurosi.. a me fa sorridere che una scheda di 5 anni fà. combatte ancora con la top di amd su certe tecnologie.. mi fa ridere che fastidio ti da. io comprerò la 5090 solo per giocare e sprecata? intanto non dovro usare app da 3 uero per credere che vado in 4k a 240 fps.. quello che e un rene per voi non e per altri.. saluti
Se io fossi uno sviluppatore e dovessi fare una scelta se prediligere per il mio gioco una ottimizzazione tra AMD e Nvidia, sceglierei chi tra i due ha venduto di più, perché il mio gioco girerà meglio su un maggior numero di dispositivi. Purtroppo è marketing.
riguardo a dying light 2 le patch lo hanno migliorato tantissimo a tal punto che il gioco è stato ripubblicato con un altro nome reloaded anche perché su console hanno l'ossessione del disco fisico per cui con le patch non c'era più niente del gioco originale. nelle prime versioni era veramente pesante oggi lo riesce a giocare perfino sulle varie handheld basate sullo Z1 Extreme. quando è uscito il gioco supportava solo il DLSS2 il dlss 3 la frame generational fsr 3 e xess sono arrivati dopo lo so perché quando l'ho giocato avevo la 3090 e girava 65-70 FPS DLS sbilanciato quando sono passato alla 40/90 ho fatto un 2x secco grazie al frame generator e sono arrivato a 120 130 fps dlss qualità ma di recente l'ho giocato un po' perché hanno introdotto le armi automatiche e gira 170-180 FPS e non è merito del frame generator il gioco gira effettivamente molto meglio.
Giochi come Half-Life 2, RDR2, Last of us 1&2 sono giochi costruiti "a mano", per questo l'effetistica, riflessi, ombre, occlusione ambientale, sono meglio di tanti giochi con RT. Ma farlo con i giochi di adesso costa troppo sviluppo, solo Rockstar e Naughty Dog possono permetterselo. Sono veramente curioso di vedere GTA VI se sarà costruito RT based, o se fatto sempre in modo artigianale. A tutti gli altri costa molto meno con il Ray Tracing, stessa cosa U5 che se posso permettermi Alessandro, è il cancro dei giochi. L'unico gioco che ho visto senza problemi in U5 è Hell Blade 2 che è un corridoio.
Ecco un altro punto molto importante .. se un gioco e una merxx è una merxx io quando devo testare profili gpu mi scelgo sempre un gioco che sia ottimizzato bene . RDR2 uno è proprio questo .
@@MondoAmici Io amo SH2, essendo anche un ricordo d'infanzia ma devo amettere che ho faticato veramente tanto a finirlo il remake. Credo sia il gioco peggio ottimizzato del 2024, almeno di quelli più famosi. L'unico modo per rendere il frametime stabile è farlo andare a 30fps (anche su 4090), e questo fa veramente ridere. Stuttera ovunque, con qualsiasi configurazione o risoluzione. Hanno rotto il cazzo per mesi su Last of Us part I su pc, ma dopo una settimana era già molto meglio di questa chiavica di SH. Nelle recensioni dovrebbe pesare molto di più l'ottimizzazione, un gioco che gira di merda ovunque, con qualsiasi settaggio RT on. RT off, non cambia nulla.
@@MondoAmici ho utilizzato tutto. Ho anche migliorato il gioco nettamente grazie alla Ultra Plus Mod. Ma i problemi seri, permangono sopratutto nelle zone critiche, puoi trovare un sacco di video che ho fatto sul SH2 nel mio canale.
Ciao, secondo me il video dimostra che Nvidia sta avanti con il RAY TRACING, sono schede di generazioni differenti e AMD non ci fa una bella figura, per me la questione è diversa, secondo me le tecnologie come il RAY TRACING sono belle ma vanno introdotte sul mercato solo se chi fornisce hardware è in grado di fornire hardware adeguato a tutti e non solo a chi compra le top che poi anche quello è adeguato fino a un certo punto, se vogliamo che il RAY TRACING diventi uno standard la maggior parte dei giocatori deve avere hardware adeguato per far girare i giochi che usciranno con il RAY TRACING altrimenti gli sviluppatori non ci punteranno mai come si deve e se continuiamo cosi tra 10 anni ancora staremo a dire che il RAY TRACING è il futuro, AMD sta indietro con il RAY TRACING ma almeno non lo paghi e adesso io il RAY TRACING preferisco non pagarlo perche se un giorno il RAY TRACING di ottimo livello diventerà uno standard, tutto quello che abbiamo oggi sia Nvidia che AMD sarà obsoleto per il RAY TRACING, le AMD le paghi meno e lo preferisco perche paghi quello che serve e che oggi funziona bene e anche in futuro funzionerà bene e servirà, potenza in raster e quantità di memoria, mentre l'hardware che abbiamo oggi per il RAY TRACING diventerà obsoleto sia quello di AMD che di NVIDIA, io avrei preferito che neanche lo facessero adesso perche per la maggior parte delle persone l'opzione migliore per il RAY TRACING è disattivarlo e sarà cosi ancora per molto, quindi oggi l'hardware per il RAY TRACING non mi interessa e non lo voglio pagare
O madonna bella. Il video è fatto per pura passione e non deve dimostrare nulla. È inutile che scrivi Ray tracing in maiuscolo tutte queste volte. Rende stucchevole la lettura.
@@hardwaretechnews Ciao scusa non volevo criticare quello che hai fatto vedere, quello che ho scritto è solo il punto di vista mio verso il ray tracing e pensavo che comunque non si distaccasse tantissimo da quello che pensi tu, pero lo ripeto quello è solo il punto di vista che ho io verso quella tecnologia
@fabriziocampolucci4988 guarda che io sono fanboy del Ray tracing, penso che quando ero professionista avrei voluto fare un motore solo RT, e quando ci sarebbe stato l' hardware sarei stato a posto. Se vuoi vediti la parte due e ci sarà tanto materiale che darà spunti, e la mia visione
16:55 spero che questo illumini le persone a scegliere quale GPU scegliere Se vi piace Nvidia veramente non buttate i soldi puntate sulla 5070ti o 5080 la 5070 12 gb v.ram fate finta che non esiste .
guarda che il video dimostra il nulla, la 3080ti viaggia in raster la metà di una 4090 e la 7900xtx in raster è sopra alla 4080super nonché più vicina alla 4090 in raster puro. significa che sè non avesse quelle prestazioni in raster verrebbe distrutta in raytracing
Sul ray tracing vince nvidia, sono stati i primi a lavorarci e hanno maggiori competenze rispetto a amd. Oltre a essere leader per quanto riguarda l'hardware che serve ad addestrare i modelli.
Video molto interessante, a proposito di Black Myth Wukong, nel video non si nota molto, ma se da fermo ha una grafica spaccamescella, in movimento è il festival dello shimmering e del ghosting, addirittura sulle punte della testa della scimmia appaiono degli artefatti grafici molto fastidiosi. Ho dovuto fare i salti mortali per limitare questi difetti. Cercando sul web inoltre ho scoperto che disattivando il ray tracing, le ombre sono nettamente inferiori, perchè semplicemente non ci sono!!, infatti quegli sbadati dei programmatori, si sono dimenticati di abilitare le virtual shadow maps, per fortuna nei motori Unreal basta aggiungere una stringa nel file engine.ini per abilitarli.
io ho visto solo uno incapace .. 120hz magari usa un cavo hdmi e non un d.port .. cpu 9% e non abbassi la freq del processore per bilanciare la gpu, GPUI che tra l'altro sta consumando 400w inutilmente
Rx 7900xtx - uscita 13 dicembre 2022 Rtx 3080ti - uscita 3 giugno 2021 Confronto non onesto fatto dal ragazzo ed anche umiliante per AMD, considerando il fatto che la rtx 3080ti ha lo stesso chipset dalla 3090 (uscita settembre 2020) con metà della Vram.
@@TheDoctorHuxley La flagship di AMD era volutamente ai livelli della 4080 e di conseguenza andare come una 4070Ti non è poi chissà quale umiliazione. Non sono in pari ma hanno performance raster,vram e prezzi migliori,cosa che importa di più nel 99% dei casi. Questo video è solo per far capire a tutti di smetterla di dire "AMD non ha il RT" perchè di fatto è una bugia.
@@hardwaretechnews ma pure la 3080 in verità e senza cambiare il wattaggio. Il punto che poi credo che tutti hanno chiaro è che in raster amd va di piu per il resto c è nvidia, personalmente mi interessano delle features che ha nvidia come omniverse quindi canvans, machinima ecc. e ovviamente il dlss se no avrei già preso una 6700xt o una arc 770
Per me basta radiosity e nient’altro, non mi interessa avere i riflessi sul vetro in real time e qualche ombra in più. E sottoscrivo di nuovo perché anche questo che ha fatto il video sbaglia, RT non è Global Illumination, global illumination è solo path racing e radiosity, basta.
@ io non sono d’accordo, mi danno un po’ fastidio ste cose, si sminchiano i concetti, 2+2 non fa 5, questa è la disinformazione che ha fatto Nvidia, e tutti che ripetono a pappagallo, RT è un diffuse illumination, non c’entra niente con la global…
Comunque voglio dire una sciocchezza...col DSSL 4 le vram devono assolutamente ridurre il quantitativo impegnato... altrimenti che facciamo ci compriamo solo le 4090? Oppure la 5090? Ecco appunto anche AMD userà dai 12 GB ai 16 GB, nelle ultime VGA. Io resto convinto che se tutto il motore è in fase avremo una turbo 16v😉. Premetto che il Silent Hill con una Rtx 4070 Super non Titanium, tutto Maxxato funziona benissimo. Quindi le differenze dipendono da che PC e come è ottimizzato. Le VGA come una GTX 980 ancora oggi in raster fanno gaming in 4k...non i tripla a usciti da due anni a sta parte. Giochi pompati e poi se paragoni a 3 anni fa'...bah lasciamo stare
Con il DLSS4 hanno mostrato che il FG enhanced (disponibile dalle 4000 in su) consumerà meno vram. Dal Grafico si vedeva dove avevi un consuma di 9gb di vram, con il DLSS4 arrivi a 8,6GB vram. Meglio di niente, può essere che su giochi più impegnativi il risparmio di vram sia incrementale, Cyberpunk (usato come benchmark per tutto il ces di Nvidia) lato vram considerato quanto è grande, non è mai stato un mattone da quel punto di vista.
che senso avrebbe paragonare una scheda AMD top di gamma con un altra nvidia della generazione precedente e nemmeno top di gamma? anche ammesso che una 3080ti sarebbe uguale in RT a una 4070ti/super cosa dimostrerebbe questo test? che la top di gamma nvidia in RT arranca con le schede nvidia di livello medio di pari gen. AMD è nettamente indietro con il RT rispetto nvidia e questo è ormai assodato. poi che il RT sia "brutto" o che a breve le schede video con 16giga in 4k avranno presto problemi è un altro paio di maniche. a mio personale avviso gli unici test di comparazione che hanno un senso sono tra schede top di gamma stessa gen, per il resto si dovrebbero fare test comparativi a parità di PREZZO perchè quando si scende dalla top di gamma una persona fa scelte mediate dalla tasca. (in altre parole se non posso prendere il massimo , faccio una scelta in base al portafoglio). non so , aspetto il prossimo video , magari con dei commenti finali per dare un senso a questi test
Non ho preso il top di gamma Nvidia serie 4000 non per il prezzo.. Per tanti fattori diversi . Stessa cosa non prendo la 5090 per altre motivazioni . GDRR7
00:35 io ho proprio questo modello 7900XTX si riesce ad ottenere più del doppio degli fps in 4 k nativo della 3080Ti a parità di consumi . sfruttando il 92 93% della GPU.
a me del ray Tracing non mi è mai fregato un emerito caxxo(feature inutile come la merda che rende gli ambienti di gioco irreali, se volete un ambiente reale uscite di casa e fatevi una passeggiata) ma vedo che qui ci sono molti indottrinati dal marketing nvidia che proprio non c'è la fanno...,vi dovreste svegliare un po
@@hardwaretechnewsinfatti, è cmq io giocando in competitivo rt non mi interesserà nemmeno in futuro, un genio io so tutto qui nei commenti ha detto che ci sono giochi con motore grafico rt, e che con gpu che non hanno rt tali giochi non funzioneranno, che tu sappia è vero o è l ennesima cazzata? (è cmq sarebbe una cazzata se fosse davvero così..)
concordo Nvidia è stata spregevole nel momento che sono uscite le RX 7000 dove AMD ha raggiunto le performance Rtx delle 3000 Nvidia si è inventata il path racing o full ray tracing nei giochi che sponsorizza. apposta per ammazzare le performance di amd.
magari in jedi Survivor avessero usato il motore grafico proprietario di EA il frostbite quello usato nei Battlefield invece ci sono inventati di usare un Real engine 4 idea appiccicarsi sopra il ray-tracing che non è stato pensato per quel motore ed è un accrocchio che hanno aggiunto dopo. che poi è il motivo principale per cui Dragon Age non ha nessun problema di performance. lo avevano usato anche in Immortals ov aveum ma li hanno implementato malissimo la frame generation sono stato costretto a giocarlo senza anche perché il gioco non ha particolari problemi ed è fantastico ma è uscito completamente rotto è lanciato in un mese ridicolo a gusto dove si è trovato in mezzo baldur's gate 3 e Zelda su switch titoli da centinaia di ore non si lancia un gioco minore in mezzo a dei titoli grossi dovevano anticiparlo posticiparlo.
anche in Hogwarts Legacy è un gioco basato un Real engine 4 e hanno aggiunto il Ray tracing ma l'unica parte che è pesante è il castello principale e la città adiacente di Hogwarts tutto il resto della mappa non ha problemi.
secondo me Nvidia ci sta vendendo il cosiddetto full raytracing come se fosse fondamentale ma è una cosa che in realtà per giocare non serve. siamo proprio sicuri che il full ray-tracing faccia veramente la differenza e la gente ne abbia effettivamente bisogno ? dietro questa tecnologia vedo tanto marketing e propaganda e poca sostanza se impostate wukong ha dettagli alti o dettagli Medi il gioco non fa assolutamente schifo. fa schifo su PlayStation 5 solo perché la risoluzione nativa eh 720p e hanno avuto la stupida idea di forzare la fsr frema generation su un gioco che va a 30 fotogrammi quando ne servono 60.
Praticamente AMD ha tirato fuori nell'epoca delle RTX 4000 una top che andava in RT leggermente sotto una RTX 3000 per poi con i driver raggiungere dopo tempo le prestazioni della RTX 3000, tutto questo all'alba delle RTX 5000 e corrispettive AMD. Mah... con quei soldi chi aveva preso una 4000 pari prezzo andava già meglio... e da tempo. Capite che fino ad oggi il problema di AMD è questo?
@@hardwaretechnews Eh no, non è così. Sono stato possessore di AMD per anni e sono sempre stato dietro a questi discorsi, AMD alla fine della generazione recuperava ed in certi casi superava l'avversaria ma intanto ti faceva bestemmiare per le prestazioni non sempre ottimali. Per il fatto delle ottimizzazioni e giochi sponsorizzati, diciamo anche che AMD ha quasi tutto il mercato console in mano (PS5 e XBOX) e pure queste arrancano a dare le prestazioni delle quali si credeva che fossero capaci alla loro uscita. Quelli sono ambienti ottimizzati, HW chiusi e fissi senza concorrenza e programmabili a piacimento, eppure non vanno come dovrebbero andare. Tanto è vero che se ne sono dovuti uscire con una console PRO per avere quelcosa di decente. Oltretutto non c'è sponsor che tenga, se il RT di AMD fino ad oggi è inferiore in modo grezzo a quello concorrente, miracoli non ne puoi fare. Qui non c'è più l'imbroglio della tasselizzazione di Nvidia come fu all'epoca, altrimenti questo sarebbe uscito allo scoperto, qui c'è solo un rappresentante di AMD che ha apertamente dichiarato pochi giorni fa che ora che il RT è diventato fondamentale (vedi giochi con motori RT nativi che in schede solo raster non partono più) si concentreranno a potenziarlo e dargli adeguati core e supporto.
@@hardwaretechnews Quando paghi una Nvidia, paghi anche i programmatori che la casa manda presso gli studi di sviluppo dei VG per ottimizzare i giochi per la sua architettura e farli andare meglio, cosa che AMD fa molto meno o quasi per niente, non togliendoti però quei soldi dall'acquisto delle sue schede grafiche.
Io non sono convinto che amd sia riuscita a mettere una pezza con i driver ma piuttosto che nvidia abbia castrato le sue schede con i driver (chiaramente tentando di favorire l’acquisto delle 4000). Ho una 3070 ti e se non fosse per gli 8gb di ram la terrei altri 2 anni senza problemi…
A me questo video mi fa pensare ancora con più insistenza che nvidia e amd corrono su binari differenti…già confrontare schede che appartengono a ere diverse non fa onore ad amd, se poi le performance neanche arrivano a quelle schede “vecchie”…male male. E poi, sarò ripetitivo, ma il vero test da fare sarebbe 4090 vs 7900 xtx, ma forse è un bene che non venga fatto…ripeto, io voglio che amd arrivi ad nvidia perchè ste schede devono costare meno!!!
@@hardwaretechnewscon tutto il rispetto la 7900 xtx va paragonata alla 4090 perchè entrambe sono le top di gamma della loro controparte, perchè hanno un quantitativo di vram simile, simile bus ecc ecc…è inutile fare il paragone con una scheda molto più vecchia, con differente architettura, diversa ram ecc ecc…
@@amletodassisi9596 AMD ha sempre paragonato la 7900XTX con la 4080,sia come performance (migliori) sia come prezzi. Sono stati gli utenti a fare certi paragoni,non capendo che la 4090 rappresenti la vecchia Titan.
Io sono a metà video e quel che ho visto fin ora solo un tizzio che non sta tirando il meglio da quello che si puo ottenere da una 7900xtx . con 400w 430w si puo' ottenre molto , ma molto di +
La grafica dei moderni videogiochi ha raggiunto un livello tale che oggi è difficile migliorarla ulteriormente; infatti se si osserva un gioco di 4/5 anni fa, non appare molto diverso da uno di oggi...ovviamente l'industria deve andare avanti e giustificare l'uscita del nuovo hardware, ad esempio Nvidia ha pensato bene di introdurre il raytracing...quello che noto però è che oggi si produce hardware sempre più potente e costoso in cambio di miglioramenti grafici modesti o comunque non così evidenti come in passato....Esempio un titolo col raytracing odierno, è bellissimo ma ,in generale,se in un gioco lo disattivi ,la grafica rimane comunque bellissima tanto che in alcuni titoli il raytracing più che essere oggettivamente bello diviene soggettivamente bello ,un pò come una forma d'arte che può piacere o meno (e poi nella vita reale tutti sti riflessi non li vediamo proprio.....)
È inevitabile che Nvidia, Amd , Intel ci influenzano ma, in qualche modo, cerchiamo di conservare una nostra opinione senza farci dire dalle aziende ciò che è bello e ciò che non lo è.
Un'altra cosa che ho notato è che oggi con la scusa che esiste il dlss e fsr ottimizzano meno i giochi...prima si cercava di spremere ogni singola risorsa hardware (ne sanno qualcosa gli sviluppatori dei giochi ps3) adesso si pensa: "ma perché spendere soldi a ottimizzare? Le schede sono potenti, la vram non manca, c'è il dlss perché far lavorare gli sviluppatori? facciamogli fare il minimo indispensabile poi ci pensa l'IA del dlss ad aumentare le prestazioni...." ; l'uso massiccio del TAA è un altro trucco per risparmiare sull 'ottimizzazione.
Speriamo che l'industria non vada verso questa direzione perché ogni volta che si lavora solo per il profitto, inevitabilmente il mondo si impoverisce assieme a noi...e l'IA non può sostituire completamente il lavoro umano ; dobbiamo chiederci: l'uomo è stato fatto per il lavoro e il profitto? se la risposta è si allora l'uomo viene sminuito e può essere sostituito dall'IA al 100% ma evidentemente il lavoro è stato fatto per l'uomo e non il contrario.
Come hai ben detto abbiamo raggiunto un appiattimento. Oramai le nuove architetture non aggiungono nulla di nuovo
No non dico proprio un appiattimento ma anni fa i miglioramenti hardware erano modesti mentre la grafica migliorava tanto adesso è il contrario...
È relativamente facile migliorare una grafica brutta o bruttina di 15-20 anni fa' ma se hai una grafica odierna già oggettivamente molto bella come la migliori? non è banale... e forse è proprio a questo punto che i gusti personali e artistici assumono un peso importante....
Poi come ho scritto sopra c'è il discorso dell'ottimizzazione grafica che oggi va al risparmio a causa anche dell'IA e degli upscaling usati male....vedremo come evolve la situazione....
@@stefanoa.7046 Sai cosa, la grafica dovrebbe servire il gioco e non vice versa. E' questo che manca oggi
Ma come fai a rispondere a tutti? sto forse chattando con un bot? Se si ritiro tutto quello che ho detto sull'IA🤣🤣🤣🤣
Adesso mi recupero i video che non ho visto con l'abbonamento, sei un grande Ale💚 mi metto un bel video in sottofondo e lo ascolto per prendere sonno. Ti si vuole bene 💚
Buona visione!
Sei il mio sottofondo per le lunghe ore di post produzione giornaliere che faccio per lavoro, ascoltarti è un piacere non da poco! Sei il migliore!
Onorato di esserti utile. Grazie della considerazione e presenza!🙏
@@hardwaretechnews Grazie a te; la tua voce calma e la tua professionalità sono una GUIDA reale per noi Gamers
io aspetto la parte due per poter affermare che "confusion will be my epitaph" e forse qualcuno capirà il riferimento... :)
👍
Ottimo, bisogna stare in campana😊
Sempre!
Il Problema di questa comparazione è il paragonare una scheda 3080/3080ti che si può trovare usata facilmente sui 400€-450€, a una scheda di una generazione dopo AMD che costa non dico il doppio ma quasi. Se consideriamo perfomance per euro, fascia differente, ed una gen di differenza, non esce benissimo la scheda di amd onestamente. Tra l'altro il dlss è implementato molto bene in Dying Light 2, se attivato fa veramente la differenza.
Non è una comparazione per dimostrare chissà cosa, ma è un video di un appassionato. Eppure lo dice.
@@hardwaretechnews sono perfettamente d'accordo con te sul discorso della VRAM. La 3080 potrebbe ancora oggi come potenza bruta far girare al massimo il 90% dei giochi, ma sei costretto a fare compromessi sulle impostazioni, per non sforare la VRAM risicata. Alcune schede della serie 40 nonostante hanno il FG non possono attivarlo superato una certa soglia perchè anche quella consuma vram, come il RT ecc. Per stare tranquilli oggi, servono almeno 20gb se vuoi tenere come me, una configurazione per anni.
@lucagameschannel esatto. 20/24gb sarebbero il top. Ma con le nuove Nvidia ed AMD c'è lo sognamo
@@hardwaretechnews Ma non è assolutamente vera questa cosa della Vram che si esaurisce.
Avete mai provato una 4080 ?! Io ce l'ho da 2 anni e gioco sempre con Rivatuner attivo perchè mi piace sempre avere tutti i dati a schermo.
Non ho MAI e dico MAI superato i 10gb di consumo di Vram. MAI !
Se non ci credete provate una 4080 di qualcuno .... sono mesi che sento dire questa fesseria.
Con RDR2 ho voluto fare un test aggiungendo tutti gli effetti che consumavano memoria e non ho mai supertato gli 11 gb di capienza Vram. Da quello che vedo con i miei occhi da 2 anni ... 12gb di Vram al momento bastano e avanzano.
Non arrivo a saturare la Vram neache con Star Citizen ..... un gioco che si ciuccia 30 gb di RAM. Il gioco peggio implementato della storia.
@@lucagameschannel 3080 oltre alle v.ram gli manca quel guizzo di 400mhz ... è giusto che vadi in pensione Poi non vanno sottovalutato i consumi..
il titolo dovrebbe essere la guerra c e mai stata? e se la metti a paragone di una 3090 che succede? saluti
Titolo ad effetto per un video da non fanboy
Se l'avesse messa a confronto con la 3090 non si sarebbe notato il collo di bottiglia che fa la Vram. Da questo tipo di video si deve cercare di trarne beneficio e aumentare le informazioni in possesso, in modo da non farsi prendere per i fondelli da nessuna azienda.
Che commento stupido, perdona il mio francesismo.... Ma ricordati il prezzo di lancio della 3090... E poi 3090 ti.... Voi pensate che AMD non possa fare schede del calibro della 4090 e a breve della 5090 ma sbagliate alla grande. AMD semplicemente sceglie di non produrre certe schede video che non siano a livello di marketing per un grande pubblico. Mettetevi in testa che non bisogna essere fanboy, ma bisogna sempre valutare le cose per come stanno, e ciò che comperiamo deve far comodo al nostro utilizzo e portafogli e non a quello delle aziende.
@@destroiedworld8739 anche io posso fare i dipinti di Van Gogh anche meglio ma non li faccio..(visto com e facile parlare cosi di fantasia) poi siete sempre preoccupati di portafogli di corrente bollete etc tec.. che premurosi.. a me fa sorridere che una scheda di 5 anni fà. combatte ancora con la top di amd su certe tecnologie.. mi fa ridere che fastidio ti da. io comprerò la 5090 solo per giocare e sprecata? intanto non dovro usare app da 3 uero per credere che vado in 4k a 240 fps.. quello che e un rene per voi non e per altri.. saluti
Se io fossi uno sviluppatore e dovessi fare una scelta se prediligere per il mio gioco una ottimizzazione tra AMD e Nvidia, sceglierei chi tra i due ha venduto di più, perché il mio gioco girerà meglio su un maggior numero di dispositivi. Purtroppo è marketing.
AMEN!
riguardo a dying light 2 le patch lo hanno migliorato tantissimo a tal punto che il gioco è stato ripubblicato con un altro nome reloaded anche perché su console hanno l'ossessione del disco fisico per cui con le patch non c'era più niente del gioco originale.
nelle prime versioni era veramente pesante oggi lo riesce a giocare perfino sulle varie handheld basate sullo Z1 Extreme. quando è uscito il gioco supportava solo il DLSS2 il dlss 3 la frame generational fsr 3 e xess sono arrivati dopo
lo so perché quando l'ho giocato avevo la 3090 e girava 65-70 FPS DLS sbilanciato quando sono passato alla 40/90 ho fatto un 2x secco grazie al frame generator e sono arrivato a 120 130 fps dlss qualità ma di recente l'ho giocato un po' perché hanno introdotto le armi automatiche e gira 170-180 FPS e non è merito del frame generator il gioco gira effettivamente molto meglio.
Giochi come Half-Life 2, RDR2, Last of us 1&2 sono giochi costruiti "a mano", per questo l'effetistica, riflessi, ombre, occlusione ambientale, sono meglio di tanti giochi con RT. Ma farlo con i giochi di adesso costa troppo sviluppo, solo Rockstar e Naughty Dog possono permetterselo. Sono veramente curioso di vedere GTA VI se sarà costruito RT based, o se fatto sempre in modo artigianale. A tutti gli altri costa molto meno con il Ray Tracing, stessa cosa U5 che se posso permettermi Alessandro, è il cancro dei giochi. L'unico gioco che ho visto senza problemi in U5 è Hell Blade 2 che è un corridoio.
Ok. Ma i nostri soldi varranno pur qualcosa. Mica c'è li danno gratis o a 10euri
Ecco un altro punto molto importante .. se un gioco e una merxx è una merxx io quando devo testare profili gpu mi scelgo sempre un gioco che sia ottimizzato bene . RDR2 uno è proprio questo .
@@MondoAmici Io amo SH2, essendo anche un ricordo d'infanzia ma devo amettere che ho faticato veramente tanto a finirlo il remake. Credo sia il gioco peggio ottimizzato del 2024, almeno di quelli più famosi. L'unico modo per rendere il frametime stabile è farlo andare a 30fps (anche su 4090), e questo fa veramente ridere. Stuttera ovunque, con qualsiasi configurazione o risoluzione. Hanno rotto il cazzo per mesi su Last of Us part I su pc, ma dopo una settimana era già molto meglio di questa chiavica di SH. Nelle recensioni dovrebbe pesare molto di più l'ottimizzazione, un gioco che gira di merda ovunque, con qualsiasi settaggio RT on. RT off, non cambia nulla.
@@lucagameschannel usa NVIDIA Inspector
@@MondoAmici ho utilizzato tutto. Ho anche migliorato il gioco nettamente grazie alla Ultra Plus Mod. Ma i problemi seri, permangono sopratutto nelle zone critiche, puoi trovare un sacco di video che ho fatto sul SH2 nel mio canale.
Salve,potresti fare un video,che parli delle vga amd,e sulle reali capacità in produttività, comparate alle vga nvidia? Grazie
Né ho parlato in altri video. Vedo sé rimedio msteriali interessante
Ciao, secondo me il video dimostra che Nvidia sta avanti con il RAY TRACING, sono schede di generazioni differenti e AMD non ci fa una bella figura, per me la questione è diversa, secondo me le tecnologie come il RAY TRACING sono belle ma vanno introdotte sul mercato solo se chi fornisce hardware è in grado di fornire hardware adeguato a tutti e non solo a chi compra le top che poi anche quello è adeguato fino a un certo punto, se vogliamo che il RAY TRACING diventi uno standard la maggior parte dei giocatori deve avere hardware adeguato per far girare i giochi che usciranno con il RAY TRACING altrimenti gli sviluppatori non ci punteranno mai come si deve e se continuiamo cosi tra 10 anni ancora staremo a dire che il RAY TRACING è il futuro, AMD sta indietro con il RAY TRACING ma almeno non lo paghi e adesso io il RAY TRACING preferisco non pagarlo perche se un giorno il RAY TRACING di ottimo livello diventerà uno standard, tutto quello che abbiamo oggi sia Nvidia che AMD sarà obsoleto per il RAY TRACING, le AMD le paghi meno e lo preferisco perche paghi quello che serve e che oggi funziona bene e anche in futuro funzionerà bene e servirà, potenza in raster e quantità di memoria, mentre l'hardware che abbiamo oggi per il RAY TRACING diventerà obsoleto sia quello di AMD che di NVIDIA, io avrei preferito che neanche lo facessero adesso perche per la maggior parte delle persone l'opzione migliore per il RAY TRACING è disattivarlo e sarà cosi ancora per molto, quindi oggi l'hardware per il RAY TRACING non mi interessa e non lo voglio pagare
O madonna bella. Il video è fatto per pura passione e non deve dimostrare nulla. È inutile che scrivi Ray tracing in maiuscolo tutte queste volte. Rende stucchevole la lettura.
@@hardwaretechnews Ciao scusa non volevo criticare quello che hai fatto vedere, quello che ho scritto è solo il punto di vista mio verso il ray tracing e pensavo che comunque non si distaccasse tantissimo da quello che pensi tu, pero lo ripeto quello è solo il punto di vista che ho io verso quella tecnologia
@fabriziocampolucci4988 guarda che io sono fanboy del Ray tracing, penso che quando ero professionista avrei voluto fare un motore solo RT, e quando ci sarebbe stato l' hardware sarei stato a posto.
Se vuoi vediti la parte due e ci sarà tanto materiale che darà spunti, e la mia visione
@@hardwaretechnews io la penso allo stesso modo anche a me piace il ray tracing ma vorrei hardware adeguato
16:55 spero che questo illumini le persone a scegliere quale GPU scegliere Se vi piace Nvidia veramente non buttate i soldi puntate sulla 5070ti o 5080 la 5070 12 gb v.ram fate finta che non esiste .
guarda che il video dimostra il nulla, la 3080ti viaggia in raster la metà di una 4090 e la 7900xtx in raster è sopra alla 4080super nonché più vicina alla 4090 in raster puro.
significa che sè non avesse quelle prestazioni in raster verrebbe distrutta in raytracing
Occhio che il video dimostra solo la passione per il gaming. Aspetta parte due che ci sono mooolti spunti di riflessione
Sul ray tracing vince nvidia, sono stati i primi a lavorarci e hanno maggiori competenze rispetto a amd. Oltre a essere leader per quanto riguarda l'hardware che serve ad addestrare i modelli.
Nulla di nuovo sotto il sole. C'è un video passato dove uno sviluppatore parla delle due architetture
Ciao in settimana faccio un test per vedere come gira !!! 😅😅 poi vediamo 😱😱😱💪💪🚀
Ottimo! 👍
Video molto interessante, a proposito di Black Myth Wukong, nel video non si nota molto, ma se da fermo ha una grafica spaccamescella, in movimento è il festival dello shimmering e del ghosting, addirittura sulle punte della testa della scimmia appaiono degli artefatti grafici molto fastidiosi. Ho dovuto fare i salti mortali per limitare questi difetti. Cercando sul web inoltre ho scoperto che disattivando il ray tracing, le ombre sono nettamente inferiori, perchè semplicemente non ci sono!!, infatti quegli sbadati dei programmatori, si sono dimenticati di abilitare le virtual shadow maps, per fortuna nei motori Unreal basta aggiungere una stringa nel file engine.ini per abilitarli.
Dovranno pur imporre una tecnologia acerba per giustificare prezzi assurdi delle schede video
se visto in+ giochi dal grafico che la cpu 9 /10% quindi è la gpu che non riesce. Peccato che non mostra un grafico + completo
È un test per puro divertimento in RT. Comunque spunti interessanti c'è ne sono
Visto la parte due?
io ho visto solo uno incapace .. 120hz magari usa un cavo hdmi e non un d.port .. cpu 9% e non abbassi la freq del processore per bilanciare la gpu, GPUI che tra l'altro sta consumando 400w inutilmente
Rx 7900xtx - uscita 13 dicembre 2022
Rtx 3080ti - uscita 3 giugno 2021
Confronto non onesto fatto dal ragazzo ed anche umiliante per AMD, considerando il fatto che la rtx 3080ti ha lo stesso chipset dalla 3090 (uscita settembre 2020) con metà della Vram.
Non c'è nessuna umiliazione dato che la 3080tichs RT a livello della 4070ti ché quello che sappiamo essere RT di 7900xtx
@@hardwaretechnews confrontare la flagship di AMD con la sesta/settima scheda di Nvidia in ordine di performance...
@@TheDoctorHuxley La flagship di AMD era volutamente ai livelli della 4080 e di conseguenza andare come una 4070Ti non è poi chissà quale umiliazione.
Non sono in pari ma hanno performance raster,vram e prezzi migliori,cosa che importa di più nel 99% dei casi.
Questo video è solo per far capire a tutti di smetterla di dire "AMD non ha il RT" perchè di fatto è una bugia.
comunque il ragazzo del video ha ragione il primo gioco e silent hill hanno (anche per impostazioni messe) un ray tracing piu leggiero
E poi sono schede stock. La xtx può esser spinta mooolto di più
@@hardwaretechnews ma pure la 3080 in verità e senza cambiare il wattaggio.
Il punto che poi credo che tutti hanno chiaro è che in raster amd va di piu per il resto c è nvidia, personalmente mi interessano delle features che ha nvidia come omniverse quindi canvans, machinima ecc. e ovviamente il dlss se no avrei già preso una 6700xt o una arc 770
Per me basta radiosity e nient’altro, non mi interessa avere i riflessi sul vetro in real time e qualche ombra in più.
E sottoscrivo di nuovo perché anche questo che ha fatto il video sbaglia, RT non è Global Illumination, global illumination è solo path racing e radiosity, basta.
Si usa RT per fare il global illunimation, usano nomi semplici per far capire il concetto
@ io non sono d’accordo, mi danno un po’ fastidio ste cose, si sminchiano i concetti, 2+2 non fa 5, questa è la disinformazione che ha fatto Nvidia, e tutti che ripetono a pappagallo, RT è un diffuse illumination, non c’entra niente con la global…
alessandro fatti un giro su youtube ci sono i benchmark delle 5080 e 5070 e possibile che alcuni gia le hanno??
Li ho visti e dubito in quanto c'è l'embargo. Se hardware unboxed non ha tirato fuori nulla, dubito fortemente degli altri
bello pur 1080ip. ma di questi tempi il 4 a 60 frame, dovrebbe essere la prassi.
A 120. Con la potenza di fuoco di oggi
Comunque voglio dire una sciocchezza...col DSSL 4 le vram devono assolutamente ridurre il quantitativo impegnato... altrimenti che facciamo ci compriamo solo le 4090?
Oppure la 5090?
Ecco appunto anche AMD userà dai 12 GB ai 16 GB, nelle ultime VGA.
Io resto convinto che se tutto il motore è in fase avremo una turbo 16v😉.
Premetto che il Silent Hill con una Rtx 4070 Super non Titanium, tutto Maxxato funziona benissimo.
Quindi le differenze dipendono da che PC e come è ottimizzato.
Le VGA come una GTX 980 ancora oggi in raster fanno gaming in 4k...non i tripla a usciti da due anni a sta parte.
Giochi pompati e poi se paragoni a 3 anni fa'...bah lasciamo stare
Ricorda che i frame generation richiedono RAM.
A me 12gb nel 2025 fa' storcere il Naso. Sono rottami
Mercato di truffatori concordo @@hardwaretechnews
Pompano e gonfiano ....vedremo come verranno con le tech ultime, anche se ho i dubbi che ci cappino qualcosa
Con il DLSS4 hanno mostrato che il FG enhanced (disponibile dalle 4000 in su) consumerà meno vram. Dal Grafico si vedeva dove avevi un consuma di 9gb di vram, con il DLSS4 arrivi a 8,6GB vram. Meglio di niente, può essere che su giochi più impegnativi il risparmio di vram sia incrementale, Cyberpunk (usato come benchmark per tutto il ces di Nvidia) lato vram considerato quanto è grande, non è mai stato un mattone da quel punto di vista.
@@jackarrows1436 la demo francese/italiana, non ancora utilizzata in game
che senso avrebbe paragonare una scheda AMD top di gamma con un altra nvidia della generazione precedente e nemmeno top di gamma? anche ammesso che una 3080ti sarebbe uguale in RT a una 4070ti/super cosa dimostrerebbe questo test? che la top di gamma nvidia in RT arranca con le schede nvidia di livello medio di pari gen. AMD è nettamente indietro con il RT rispetto nvidia e questo è ormai assodato. poi che il RT sia "brutto" o che a breve le schede video con 16giga in 4k avranno presto problemi è un altro paio di maniche.
a mio personale avviso gli unici test di comparazione che hanno un senso sono tra schede top di gamma stessa gen, per il resto si dovrebbero fare test comparativi a parità di PREZZO perchè quando si scende dalla top di gamma una persona fa scelte mediate dalla tasca. (in altre parole se non posso prendere il massimo , faccio una scelta in base al portafoglio). non so , aspetto il prossimo video , magari con dei commenti finali per dare un senso a questi test
È solo un video esplicativo che non vuole dimostrare nulla di quello che già non sappiamo
Non ho preso il top di gamma Nvidia serie 4000 non per il prezzo.. Per tanti fattori diversi . Stessa cosa non prendo la 5090 per altre motivazioni . GDRR7
@MondoAmici bella domanda, ed interessante questione
00:35 io ho proprio questo modello 7900XTX si riesce ad ottenere più del doppio degli fps in 4 k nativo della 3080Ti a parità di consumi . sfruttando il 92 93% della GPU.
Dici in RT oppure raster? Ci vorrebbe una guida per i possessori della xtx
se hai 92 93 di utilizzi in nativo senza upscaler e frame gen in giochi molto pesanti in 4k occhio perché probabilmente sei cpu bottlenecke
@@fradala04 1 anno che dico che il 7800x3d si caxa sotto per sfruttare al massimo la 7900xtx / sto aspettando che esca il processore giusto..
@@fradala04 In ogni modo il 93% era riferito alla potenza che utilizzo .
@@MondoAmici ti ho fatto una domanda tempo fà mondo.. tanto il messaggio mi verrà cancellato
a me del ray Tracing non mi è mai fregato un emerito caxxo(feature inutile come la merda che rende gli ambienti di gioco irreali, se volete un ambiente reale uscite di casa e fatevi una passeggiata) ma vedo che qui ci sono molti indottrinati dal marketing nvidia che proprio non c'è la fanno...,vi dovreste svegliare un po
L'attuale implementazione non mi piace, ma in futuro sarà interessante questo si. Ma oggi è un calcio nelle palle
@@hardwaretechnewsinfatti, è cmq io giocando in competitivo rt non mi interesserà nemmeno in futuro, un genio io so tutto qui nei commenti ha detto che ci sono giochi con motore grafico rt, e che con gpu che non hanno rt tali giochi non funzioneranno, che tu sappia è vero o è l ennesima cazzata? (è cmq sarebbe una cazzata se fosse davvero così..)
io gioco sia competitivo che aaa e ho provato rt su cyberpunk e tw3 e cambia praticamente nulla e perdo praticamente tutti i frame su la 7800xt
concordo Nvidia è stata spregevole nel momento che sono uscite le RX 7000 dove AMD ha raggiunto le performance Rtx delle 3000 Nvidia si è inventata il path racing o full ray tracing nei giochi che sponsorizza. apposta per ammazzare le performance di amd.
La parte due darà ancora più spunti di riflessione
magari in jedi Survivor avessero usato il motore grafico proprietario di EA il frostbite quello usato nei Battlefield invece ci sono inventati di usare un Real engine 4 idea appiccicarsi sopra il ray-tracing che non è stato pensato per quel motore ed è un accrocchio che hanno aggiunto dopo.
che poi è il motivo principale per cui Dragon Age non ha nessun problema di performance.
lo avevano usato anche in Immortals ov aveum ma li hanno implementato malissimo la frame generation sono stato costretto a giocarlo senza anche perché il gioco non ha particolari problemi ed è fantastico ma è uscito completamente rotto è lanciato in un mese ridicolo a gusto dove si è trovato in mezzo baldur's gate 3 e Zelda su switch titoli da centinaia di ore non si lancia un gioco minore in mezzo a dei titoli grossi dovevano anticiparlo posticiparlo.
Alcune scelte lasciano il tempo che trovano. Uno dei motori meglio ottimizzati è id tech.
Nel prossimo video c'è
anche in Hogwarts Legacy è un gioco basato un Real engine 4 e hanno aggiunto il Ray tracing ma l'unica parte che è pesante è il castello principale e la città adiacente di Hogwarts
tutto il resto della mappa non ha problemi.
@@mariobnc1995 veramente è stato pensato, per girare male su switch
@arivel-we1ex su switch gira tutto male ormai La tifoseria Nintendo è abituata a non vedere i 18 FPS e i 360p di risoluzione
@mariobnc1995 dio mio
Quindi parliamo di Path tracing?
Parte due si. Qui siamo in puro RT
Non vedo l'ora della parte 3.
Video che dovrebbero mettere al CES
Poi mi dicono che sono fanboy AMD. 😅
@hardwaretechnews ahahahah, per carità le AMD mi vanno anche a genio ,anzi , devo vedere meglio anche sulle nuove Intel😏
secondo me Nvidia ci sta vendendo il cosiddetto full raytracing come se fosse fondamentale ma è una cosa che in realtà per giocare non serve.
siamo proprio sicuri che il full ray-tracing faccia veramente la differenza e la gente ne abbia effettivamente bisogno ?
dietro questa tecnologia vedo tanto marketing e propaganda e poca sostanza se impostate wukong ha dettagli alti o dettagli Medi il gioco non fa assolutamente schifo.
fa schifo su PlayStation 5 solo perché la risoluzione nativa eh 720p e hanno avuto la stupida idea di forzare la fsr frema generation su un gioco che va a 30 fotogrammi quando ne servono 60.
In futuro sarà preponderante, ma oggi è uno scherzo
Praticamente AMD ha tirato fuori nell'epoca delle RTX 4000 una top che andava in RT leggermente sotto una RTX 3000 per poi con i driver raggiungere dopo tempo le prestazioni della RTX 3000, tutto questo all'alba delle RTX 5000 e corrispettive AMD. Mah... con quei soldi chi aveva preso una 4000 pari prezzo andava già meglio... e da tempo. Capite che fino ad oggi il problema di AMD è questo?
Le prestazioni sono in linea con 4070ti in RT moderato.
AMD ha fatto delle scelte così come Nvidia
Capisci che la maggior parte dei giochi sono sponsorizzati Nvidia? Con le giuste ottimizzazioni AMD può fare meglio
@@hardwaretechnews Eh no, non è così. Sono stato possessore di AMD per anni e sono sempre stato dietro a questi discorsi, AMD alla fine della generazione recuperava ed in certi casi superava l'avversaria ma intanto ti faceva bestemmiare per le prestazioni non sempre ottimali. Per il fatto delle ottimizzazioni e giochi sponsorizzati, diciamo anche che AMD ha quasi tutto il mercato console in mano (PS5 e XBOX) e pure queste arrancano a dare le prestazioni delle quali si credeva che fossero capaci alla loro uscita. Quelli sono ambienti ottimizzati, HW chiusi e fissi senza concorrenza e programmabili a piacimento, eppure non vanno come dovrebbero andare. Tanto è vero che se ne sono dovuti uscire con una console PRO per avere quelcosa di decente. Oltretutto non c'è sponsor che tenga, se il RT di AMD fino ad oggi è inferiore in modo grezzo a quello concorrente, miracoli non ne puoi fare. Qui non c'è più l'imbroglio della tasselizzazione di Nvidia come fu all'epoca, altrimenti questo sarebbe uscito allo scoperto, qui c'è solo un rappresentante di AMD che ha apertamente dichiarato pochi giorni fa che ora che il RT è diventato fondamentale (vedi giochi con motori RT nativi che in schede solo raster non partono più) si concentreranno a potenziarlo e dargli adeguati core e supporto.
@@hardwaretechnews Quando paghi una Nvidia, paghi anche i programmatori che la casa manda presso gli studi di sviluppo dei VG per ottimizzare i giochi per la sua architettura e farli andare meglio, cosa che AMD fa molto meno o quasi per niente, non togliendoti però quei soldi dall'acquisto delle sue schede grafiche.
Io non sono convinto che amd sia riuscita a mettere una pezza con i driver ma piuttosto che nvidia abbia castrato le sue schede con i driver (chiaramente tentando di favorire l’acquisto delle 4000). Ho una 3070 ti e se non fosse per gli 8gb di ram la terrei altri 2 anni senza problemi…
A me questo video mi fa pensare ancora con più insistenza che nvidia e amd corrono su binari differenti…già confrontare schede che appartengono a ere diverse non fa onore ad amd, se poi le performance neanche arrivano a quelle schede “vecchie”…male male. E poi, sarò ripetitivo, ma il vero test da fare sarebbe 4090 vs 7900 xtx, ma forse è un bene che non venga fatto…ripeto, io voglio che amd arrivi ad nvidia perchè ste schede devono costare meno!!!
Se hai sentito bene il RT della 3080ti e' paragonabile alla 4070ti/super
@@hardwaretechnewscon tutto il rispetto la 7900 xtx va paragonata alla 4090 perchè entrambe sono le top di gamma della loro controparte, perchè hanno un quantitativo di vram simile, simile bus ecc ecc…è inutile fare il paragone con una scheda molto più vecchia, con differente architettura, diversa ram ecc ecc…
@@amletodassisi9596 AMD ha sempre paragonato la 7900XTX con la 4080,sia come performance (migliori) sia come prezzi. Sono stati gli utenti a fare certi paragoni,non capendo che la 4090 rappresenti la vecchia Titan.
Io sono a metà video e quel che ho visto fin ora solo un tizzio che non sta tirando il meglio da quello che si puo ottenere da una 7900xtx . con 400w 430w si puo' ottenre molto , ma molto di +
Stock settings. Guarda che ti và di fare un video in merito lo pubblico
@@hardwaretechnews hai visto 1440 120hz? Poi si deve sempre ritornare sul solito discorso dell'importanza del monitor
@MondoAmici già! Poi con le xt e xtx è fondamentale