En la 2060 en mk 1 hasta en ultra performance en 2k se ve mejor que el DLSS 3. Se ve demasiado bien, ni hablar subiendo. Consume más y va mejor el 4 que la 3.8.
la diferencia es practicamente muy pequeña la serie 40 y 50 por ejemplo la 5090 es 25% mas potente en rater pero consume 25% mas se an basado demasiado en tecnologias
De hecho es un 39% y la mayoría de cpus le provocan cuello de botella y es más de 3 veces mas potente en IA la IA ya comienza a ser un factor importante dlss 4 como ejemplo es más pesado en los tensor cores tal así que en serie 20 se puede perder hasta un 15% de rendimiento con el modelo Transformer la serie 30 un 5 a 10% y serie 40 casi nada pero si pierde mientras se intuye serie 40 no perderá nada
Confirmo con solo el cambio de DLL ya trabaja el modelo TR pues el arbol me parpadea, puse el 3.7 que no tiene bug del arbol. Sera beta ? Pero no es aceptable y ademas 4 fps menos.
Tampoco es que haya salido para ese juego, ni tenemos la integración oficial a través de la NVIDIA app, yo creo que el preset J no es el mejor para todos los juegos quizás.
Te digo algo no es el DLSS yo estoy jugando el FF7REMAKE Intergrades a 4k nativo e igual esas lineas en el pelo de Cloud,Aerith y demas con cabellera Pantene se suele ver asi
Algo que nadie esta comentando de DLSS Transformer es que empeora muchas texturas, vean comparaciones donde al fondo o en el suelo las texturas de ciertos objetos o suelos se ven todas planas a comparacion de modo CNN tradicional, la IA redibuja mal las texturas y las hace toda lisas, es algo que nadie esta diciendo y pues que quita mas rendimiento
También es que están forzando el DLSS4 en juegos que no lo soportan de momento, yo diría que en nativo eso no pasará, en el CES justo lo del follaje era una de las pruebas de que se veia mejor que nativo con el Wukong...
Siempre un buen video de explicación un 10 !!! Gracias
Desplome de Nvidia de un 17% y yo que me alegro.
Yo me alegro que Intel bajo más de medio dólar 😄
En la 2060 en mk 1 hasta en ultra performance en 2k se ve mejor que el DLSS 3. Se ve demasiado bien, ni hablar subiendo. Consume más y va mejor el 4 que la 3.8.
la diferencia es practicamente muy pequeña la serie 40 y 50 por ejemplo la 5090 es 25% mas potente en rater pero consume 25% mas se an basado demasiado en tecnologias
Eskbes lo bueno el avance.
De hecho es un 39% y la mayoría de cpus le provocan cuello de botella y es más de 3 veces mas potente en IA la IA ya comienza a ser un factor importante dlss 4 como ejemplo es más pesado en los tensor cores tal así que en serie 20 se puede perder hasta un 15% de rendimiento con el modelo Transformer la serie 30 un 5 a 10% y serie 40 casi nada pero si pierde mientras se intuye serie 40 no perderá nada
Porque el rasterizado se esta quedando obsoleto y es menos eficiente que la ia
@ lo se pero yo quiero fps reales bueno almenos en rt se nota mas la diferencia
@dd22koopaesverde58 pero ya eso te olvídate amigo .
Cuando salgan nuevos drivers puede que lo solucionen, aun ni salieron las GPU a la venta y los controladores serán medio Beta.
Buen video, yo me esperare al driver oficial donde ya venga todo pulido, me da cosas tocar algo que no debo
Hay una gran diferencia en los fps o es muy minima
Dae buen video se nota la diferencia 😊
Los chinos le han pegado un palo a Nvidia con la inteligencia artificial.😮
Bueno oficialmente un modder chino logro forzar el multi frame en la serie 40...
La prueba?
ruclips.net/video/IhGcaW-OZJc/видео.htmlsi=hexrio7oEx8ro84N
@@BLN_SFA investigo a ver, ya que no explica el método y renombrar una GPU es relativamente fácil
@@GamerBitsmuchas gracias por investigar
Graciasss
Confirmo con solo el cambio de DLL ya trabaja el modelo TR pues el arbol me parpadea, puse el 3.7 que no tiene bug del arbol. Sera beta ? Pero no es aceptable y ademas 4 fps menos.
la 3.8 tampoco tiene el bug del arbol
Noto exactamente el parapdeo en arboles en Red Dead Redemption 2 forzando dlss 4 . Recomendas el 3.7 para evitar ese problema?
La lastima es que con DLSS 4 se podría usar el modo rendimiento y el resto de cosas se ven genial, de momento habrá que tirar con DLSS 3.7 o 3.8
@@GamerBits Seguramente lo solucionen pronto, algun update que corriga artifacts, de momento me quedo con 3.8 hermano! gracias por la info!
Tampoco es que haya salido para ese juego, ni tenemos la integración oficial a través de la NVIDIA app, yo creo que el preset J no es el mejor para todos los juegos quizás.
Se nota tmb bastante en el pelo de Cloud, que no termina de reconstruir bien la imagen
Depende de la distancia, como digo en el vídeo parece un problema de objetos con transparencia, cualquier cosa solida se ve bien.
Te digo algo no es el DLSS yo estoy jugando el FF7REMAKE Intergrades a 4k nativo e igual esas lineas en el pelo de Cloud,Aerith y demas con cabellera Pantene se suele ver asi
Algo que nadie esta comentando de DLSS Transformer es que empeora muchas texturas, vean comparaciones donde al fondo o en el suelo las texturas de ciertos objetos o suelos se ven todas planas a comparacion de modo CNN tradicional, la IA redibuja mal las texturas y las hace toda lisas, es algo que nadie esta diciendo y pues que quita mas rendimiento
Echare un vistazo a ver esto que dices
También es que están forzando el DLSS4 en juegos que no lo soportan de momento, yo diría que en nativo eso no pasará, en el CES justo lo del follaje era una de las pruebas de que se veia mejor que nativo con el Wukong...