Un pefsonaje modelado sin opyimisar solo echo con las erramientas de modelado tiene como 5millones de poligonos una PS4 y XBOXone, tienen personajes con 250K poligonos, con 1.8 teraflops, imaginate lo que puedes hacer con 100, podrias jugar juegos a 4K60FPS, con graficos de 2014 sin ningun tipo de optimisacion, osea que no vamos a estar peor de aqui en adelante va ser pura mejora,
el rasterizado es una tecnología de los años 70, 40 años de una tecnología que cada vez es más obsoleta y más difícil de mejorar, el Dlls y la ia llegaron a solucionar esto, los que dicen “es que yo prefiero frames reales” no tienen ni puta idea de lo que hace la tecnología los frames de el Dlls no son frames falsos, otra cosa eso de ir repitiendo como loros que las desarrolladoras no optimizan sus juegos es otra mentira que repiten como loros sin saber nada
El rasterizado ya no se puede seguir mejorando, estamos muy cerca del limite físico, y gracias a estas tecnologías con Ia que cada vez tenemos juego con gráficos todavía más espectaculares o prefieres usar el raytracing con 200 gpus en rasterizado para que te funcione a 20 FPS en tiempo real?
Tengan en cuenta que por cada fotograma se aumenta 3 sucesivamente, por ejemplo si el juego son 3 fotogramas diriamos que 3 fotogramas x 3 fotogramas son 9 y estos 9 se duplican por 3 son 90 y eso se triplica casi a 270. Increíble son reales con operaciones matemáticas su rendimiento aumenta, si no hubiera ia es igual pero el dlss mejora el rendimiento, ya los desarrolladores ni se esfuerzan
Está mal cuando la empresa pretende que utilices frame generation para llegar siquiera a 60 fps como norma general. Se supone que es una tecnología que complementa un ya de por sí buen rendimiento, porque está hecha para verse y funcionar mejor cuando más frames tienes.
Si, la mayoría de los frames de Nvidia son generados por IA, pero, aunque los frames de mayor calidad son pocos, yo creo que los generados son suficientemente consistentes, yo prefiero jugar a 200 fps en donde 100 de esos fps son generados, a jugar a 120 sin generación de fotogramas, pero no lo prefiero si la solución arruina la imagen, como lo que presentó AMD y usa la app "Lossless scaling"; espero que esa solución no hayan llegado a su máximo y en un futuro se vea bien, aunque lo dudo. Frame Generation y multi FG de nvidia en serie 40 no funcionaban tan bien como para presindir del rasterizado, pero ahora que presentaron el nuevo trasformer la cosa puede cambiar.
En parte la desventaja es que al hacer todo con dlss hace que las desarrolladoras se olviden de la optimizacion de los juegos y digan ah si ponle dlss para que funcione bien cuando no deberia ser asi el dlss deberia ser un extra en los juegos no parte de ellos
En lo personal, usando dlss me da un poco de Latencia. Juegos de Shooting como Call of Duty donde eso es muy importante no tendria caso de activarlo. DLSS es mas para jugar de chill en un juego de solitario.
No puedo creer en alguien que dijo que crear un juego es fácil, y dice que da igual el frame generation. No da igual, frame generation genera latencia, la latencia mínima para que los fps se vean fluidos es de 16.6ms o menos, y por supuesto, no puedes jugar competitivos con input lag que es otro problema del frame generation
Yo tengo el lossless scaling y GPU de nvidia serie 40 y el frame generation de nvidia es muchísimo mejor la verdad, al correr en hardware no he notado artifacts y la latencia es muchísimo menor. Aún así no me arrepiento para nada de comprar el patito, lo uso para youtube
@@55_RedLimit_55 Si! Veo videos en youtube a 144 fps con Lossless Scaling, es una maravilla! Y si, para GPUs que no lo soporten es genial, de hecho lo usaba con mi anterior 2060 y bastante bien la verdad
Todo esto solo fomenta que no optimicen los juegos y la gente se vea obligada a comprar una Gpu solo por que actualizaron dlss exclusivamente para esa generación… una 5090 debería tirar ciberbug a más de 30 fps con ray traicin sin ayudas Dlss está muy bien como un plus pero muy mal como algo realmente necesario
la cosa es el frame generation el dlss es para eso mismo para mejorar la imagen la escala a una mas alta con ia y la reduce pero haciendo eso mejora la calidad y exactitud de los pixeles
Yo como experto de gpu no me da igual, creo que si hay que analizar muy bien esto, la industria podria estancarse al depender de IA y perder la verdadera calidad. Habra que ver
creo que nadie le enseño que la LATENCIA AUMENTA MAS Y SIEMPRE ESTARA PRESENTE XD. el salto de las rtx 50 en potencia bruta no es tan espectacular como otras generaciones. y los juegos cada vez menos optimizados y acabaran metiendo IA en consolas y dará asco básicamente Y AMD se caga y no saca topes de gama 10/10 xD Seguiré con la 4090 hasta que cambien las tornas.
El problema es que a nivel tecnológico la potencia no puede aumentar ya mucho mucho más, básicamente antes era la edad de piedra y ahora estamos llegando a casi los límites de un +10% por año y cada vez ira a menos
A mi lo único que me preocupa es que los desarrolladores utilicen estas nuevas tecnologías como excusa para optimizar cada vez menos sus juegos, hasta el punto de que sean injugables sin frame gen.
Aquí es donde muchos piensan que es mejor solo rasterizado, pero luego sale un juego ir su gráfica AMD no les corre bien Ray y pach tracing los cuales hace te muestran el juego de una manera que nunca verías solo con raster y más realista, pregunta si tu gráfica no te deja disfrutar bien de eso sientes que estás pagando un precio justo solo por ese raster que a duras penas corre Ray tracing?
Yo pienso lo mismo a uno no le pueden vender una tarjeta gráfica de la serie 5000 cuando está bajo el nombre de frametime falsos por IA, me van a cobrar 3 millones por una tarjeta que es la misma que la anterior y hasta tendrá menos poder bruto Pero duplicará los frametime por la IA no mames A mí la verdad me gustaría que alguien trabajará en DLLS con las tarjeta no tan viejas si se les puede adaptar esa IA y pasar lo mismo con CrossFire que se podía conectar dos tarjetas gráficas y sobrepasaba a una de gama tocho Y dejan esa mierda aún lado, las empresas ya deberían trabajar en la optimización y las empresas de GPUS debería entregarnos tarjetas de trabajo bruto, ya uno paga por IA y no beneficio/calidad por frametime
No es la misma calidad, pero puede ser incluso mejor... Y es cuestion de tiempo que reduzcan la latencia mediante un mult generation que no solo genere un cuadro en base a una prediccion lineal, sino que genere varios cuadros prediciendo distintos movimientos y al recibir el imput del mouse por ejemplo, descarte los que no estan de acuerdo a él y pongan los correctos. Esto bajaria la latencia a niveles increíbles. Aunque es mucho mas trabajo que generar simplemente frames de forma lineal, donde predice el movimiento pero solo se queda en predecir de forma lineal de acuerdo a lo previo. Eso de mejora fácil, la verdad. Y les guste o no, predecir es la mejor forma... El cerebro lo hace TODO el tiempo. Gastar potencia bruta en obtener frames reales es un desperdicio de potencia a lo tonto... Esa es la realidad. El cerebro mismo prefiere predecir miles de movimientos y tener que descartar el 99% antes que tomarse el trabajo de hacer uno simplemente, gastando mas recursos. Con la IA generativa va a ser igual, ya que trabajan de forma similar al cerebro... Solamente falta ese pequeño pulido donde el mult genere varias """lineas temporales""" y de acuerdo a imputs como el movimiento de la camara al mover el mouse lo que sea (que se detecta muy rapido hoy en día) descarte las lineas temporales que no sirven y al instante ponga la correcta, disminuyendo abismalmente la latencia que se suele generar en el frame generation normal porque el frame generado es una predicción que no tiene tan en cuenta los imputs a la hora de crear y mostrar el frame, es mas bien un frame "muerto" que si de crearan varios frames (pero en varias lineas temporales, asi les digo yo.) elegiria el mas adecuado a la acción del imput de los oerfiericos por ejemplo, y bajaria la latencia enormemente, al ounto de ser imperceptible incluso o hasta bajarla mas de lo que un frame renderizado REAL podria tener.
A ver, es cierto q no da igual..pero el tema aquí es que no es que estén haciendo las gráficas menos potentes q antes o q sean directamente iguales a las anteriores y el único añadido sea el de la IA..la gráfica en si misma mejora la potencia bruta en alrededor de un 30% con respecto a la generación anterior..eso se dice fácil pero no es fácil..30% es un montón..ahora adicionalmente a ese 30% te añaden una tecnología q te va a dar muchísimos más frame sin apenas pérdida de calidad visual q al final a la hora de jugar es lo q quieres..en realidad te da igual si los frame son reales o generados por IA..lo q te importa en la práctica es q el juego se vea bien y vaya a Buenos frames pero es q adicionalmente a esa tecnología si no quieres usarla tienes un 30% de mejora en potencia bruta q es al fin y al cabo el motivo principal por el q sacan una generación nueva y uno va y se la compra..lo de la IA es una tecnología añadida como lo fue en su día el 1er DLSS, pero no es lo único nuevo en la gráfica
A ver si te enteras. Primero aprende a distinguir entre dlas y framegeneration. El dlss no genera frames es resolución dinámica. Otra cosa es el frame generator que si genera frames. Enteradillo que te crees que lo sabes todo
Bruh.... Literalmente la PROPIA Nvidia ya dijo que lo IMPORTANTE es la generación de Frames con IA, además que la Cuarta Iteración de DLSS busca emplear ese rescalado combinado con generación de Frames por IA, y es obvio a que se refiere, no?
Para que carajos te armas un pc de la nasa (con la intención de jugar cualquier juego pero sabemos que el xokas juega algunos competitivos en especifico) si vas a usar dlss que no solo son frames imprecisos sino que tambien tenes mas delay
Pero siendo honestos, me juego un brazo a que al Xokas le activa alguien el DLSS sin que él lo sepa en el pc y no se da cuenta en la vida. Si, es cierto que es IA y que si te fijas muy muy bien con la otra imagen generada por la gráfica en si, sí puedes notar la diferencia, pero en el gameplay real ni lo notarías.
A, el dlss no da frames generados, dobla los fps porque trabaja a menor resolucion y usa ia para reescalar las imagenes, son imagenes reales a 1080 por ejemplo y reescaladas a 1440 en ningun momento se crea una imagen desde 0 con ia lo que se hace es estirar la imagen i rellenarla con ia para que se vea bien, la calidad es muy buena, se puede llegar a notar un poco de falta de detalle pero es muy difícil, ademas que con el dlss 4 espero que nos soprenas
Señores, la rasterizacion murio, y si quieren saber porque, preguntenle a copilot, cada vez la resolucion de los juegos aumentan, los juegos son cada vez mas realistas, el raytracing y el pathtracing requiere mas capacidad de cómputo, y el estandar de fps cada vez aumenta... Hay monitores de 165 o 244 hz en la actualidad... Y gracias a la IA se ga logrado solucionar muchas cosas, pero si piden mas fuerza bruta en las graficas, no sean muy optmistas, porque cada vez fabricar un chip con transistores mas pequeños es difiicl ( a menos que se haga una nueva investigacion ) 🤣
También el tema de que se apoyen tanto en el dlss/frame generator es que cada vez optimizan menos los juegos, pronto los juegos solo correrán a 15 fps y llegaremos a 60 solo por la ayuda del dlss. La idea original de dar más fps era espectacular y más si los juegos iban a 60 o más pudiendo así sacarle todo el jugo a monitores de 144hz hacia arriba, pero al final ya pareciera que quieren hacer obligatorio el uso de dlss para que el juego corra bien.
En calidad los fps reales y (falsos) son prácticamente idénticos ahora sí te molesta la latencia es completamente entendible pero en general yo jugué space marine 2 a120/ 140fps con mi 4070 ti a 20 con picos de 30ms y la verdad me salvó porque este juego es súper cpu dependiente y no podía utilizar al 100% mi gpu cosa que terminó activando fg o al menos se mitigo bastante y tengo un 13600k este juego es muy muy cpu dependiente lo que quiero decir es si por ejemplo tu a 100fps reales sin réflex tienes 30 o 20ms de latencia y luego juegas con fg y réflex 2 por ejemplo que será todavía un 75% mejor pasarás a 200 fps y tendrás seguramente la misma latencia o menos talvez pases a 20ms y tendrás 200fps ahí no se te está mintiendo es cierto que si juegas nativo con réflex 2 bajarás a menos de 5ms con 100fps nativos pero eso también es una tecnología evidentemente para mitigar dlss fg y para competitivos da igual a mi lo que me impresionó fue súper resolución afortunadamente saldrá en mi gpu es interesante como por fin a superado por completo a nativo la calidad que ofrece es impresionante el nivel de detalle etc
el xokas habla de fps como si fuera el mayor experto jaja y no tiene idea de lo que esta hablando jajaja este tipo literal se toma muy en serio eso de que sabe todo jajajajajaja
Dar una opinión conociendo un poco de algo es creerse un experto?, porque como toda la gente de internet, nadie es experto pero opinamos en base a lo que conocemos
No dijo nada incorrecto ni mencionó nada técnico xD. No es por ser "fan" del xokas y que lo defienda a capa y espada, pero en esta ocasión no dijo nada estúpido xd, ya dejen de ser amargados 😂.
@@jesusyepes3459 A un amigo mío le daban tirones, y solo fue desactivar el DLSS junto al RT y los tirones desaparecieron, y eso que tenía 32GB de RAM limpios, i7-12700k y una 4080 Super.
Sigue siendo imágenes aproximadas dlls, como fsr, y xlls, está bien usarlo. Pero son falsos fps, que hagan publicidad con estas tecnologías es malo obviamente, ya que muchos se quedan con eso, pero es el único detalle. A mí no me gusta, pues prefiero tener menos latencia, DLLS, FSR, y este tipo de tecnologia son excelentes para juegos AAA, o con in apartado visual exagerado, pero esa latencia no tiene cabida en juegos como el juegos competitivos obviamente. Es como el blur o imagenes borrosas cuando tienen mucho movimiento, esto ayuda a mejorar la fluidez visual en el cine y caricaturas/anime. No está mal, mientras exista la opción de no usar dlls.
El problema es que la gente está hablando sin ver como se ven y cuánta latencia genera, puesto que según mejoraron la latencia, ahora que si es una porquería habrá que decirlo, aún así la tecnología de reescalado aparte (DLSS súper resolution) la cual toma una resolución mas baja y la escala a una más alta salva a muchas pc de ganas más bajas, aunque está parte la hace más fsr súper resolution puesto que está en todas las gráficas.
Ami me sirve sigo teniendo más fps además eso dijeron cuando salio el dlss pero bueno sigue mejorando tal vez no como queremos pero hay mejora, por lo menos no es como iPhone.
@@jimmyivanhuchindelossantos4374 más o menos, cs 2 se está ahogándose, necesitas una RTX 4060 mínimo para moverlo en 240 con gráficos altos (no se usa igualmente). Es bastante pesado actualmente, una gtx 980, una gtx 1080, una Radeon Vega, las gamas altas antiguas (equivalente a una RTX 3050 ti la Vega y 1080), no dan la talla para jugar fluidamente en los mejores monitores. Y si, suma demasiada latencia en estos entornos competitivos, si ya tienes algo se ping, usar dlls no ayuda
@@jimmyivanhuchindelossantos4374 en juegos competitivos de estrategia da igual dlls, y en Valorant si, este es muy ligero se puede ejecutar sin necesidad de ninguna tecnología rara
Yo creo que las RTX vinieron a estancar los videjuegos por un buuuuuen tiempo. Por el tema de RayTracing, muchos criticamos que las Empresas ya no optimizan su juego, PERO, nadie piensa en que el RayTracing en tiempo real es una BESTIALIDAD a nivel tecnológico. Para ver la potencia bruta como antes habria que revisar los juegos sin nada de DLSS ni RayTracing.
El trazado de rayos es una forma de generar iluminación en videojuegos que existe desde el inicio. Pero DLLS son frames generados para mejorar la fluidez visual sin hacer borrosa la imagen. En la vida real y en el cine se aprovecha efectos, como el desenfoque normal de tanto los ojos como las camaras, para aumentar la fluidez Sigue siendo imágenes aproximadas dlls, como fsr, y xlls, está bien usarlo. Pero son falsos fps, que hagan publicidad con estas tecnologías es malo obviamente, ya que muchos se quedan con eso, pero es el único detalle. A mí no me gusta, pues prefiero tener menos latencia, DLLS, FSR, y este tipo de tecnologia son excelentes para juegos AAA, o con in apartado visual exagerado, pero esa latencia no tiene cabida en juegos como el juegos competitivos obviamente.
Nunca me gusto usar esas tecnologías por mas buena que son, no son el original, se nota que esta hecho por ia, y hay muchos errores, prefiero el modo original
Amigo soy fan declarado de los fps por IA, puedo jugar en 4k todo juego que tenga FSR a 120fps con mínimos detalles, nunca podría jugar en esa resolución con gráficos reales ni a 30fps
@@eliasbello9942 hasta cierto punto el de amd requiere 60 fps basé 1080p y 1440p para arriba 75fps que juegos puedes jugar con esos fps basé a 4k digo una rtx 4090 no da 60fps estables en cyberpunk 2077 y la mayoría por no decir todos los juegos que tienen unreal engine 5 en nativo el de nvidia requiere solo 40 ahí tiene algo más de sentido esto si quieres en ambas buena calidad y latencia no niego es útil en muchos escenarios
Esta bueno pero ni de broma me compro la 5090 doble del precio para +30% de potencia nativa, mejor me compro la 5080 o 70 Ti y voy joya con el precio y si algún juego esta muy intenso el DLSS con Super Escalado me salva
Y que importa? Eso solo es algo importante para jugar de manera competitiva, si juegas casual no hay problema, o imcluso si no eres casual, mientras nk te metas a full competitivo no habra problema. Y eso en oninw, ya no hablemos de lo poco que importa en los singleplayers
siempre que esta gente habla del DLSS (se creen muy listos) nunca hablan de que el pc gasta menos vatios, menos recursos, menos VRAM y menos latencia ....
@@Charlesberserk que nunca e usado DLSS? xDDD mirate lo puso nvidia, sin DLSS el juego tiene mas latencia que con DLSS, tengo en mi canal un video que digo hasta desde donde descargase el ultimo DLSS para ponerlo en los juegos desactualizados .....
@@Bok3RonVR dios que ignorante eres, el desarrolador tiene que meter dlss, si no ni siquiera es software oficial jajajaajajaja nmms instalale dlss a doom
Y a ti que mas te da, si al final tu cerebro va a ver unas imágenes mucho mas fluidas y con una calidad excepcional , que te importa quien genere esas imágenes
@@DarkBerserk95 Tu que sabes lo que he probado o dejado de probar. Soy propietario de una tienda de informática desde hace 15 años y te aseguro que he hecho cientos y cientos de pruebas y configuraciones para mis clientes
@@Abanan34Importa mucho, hay más latencia en IA, a un amigo mío le daban tirones teniendo 32gb de RAM DDR5 a 6000MHz con CL30, i7-12700k y 4080 Super. Solo fue desactivar DLSS y la latencia junto a los tirones desapareció.
La 5070 solo te brinda 27 FPS reales por $550 😂 ahora te venden la AI 🤖 como si fuera una innovación ( claro si lo es ) poro por el costo del verdadero poder que deberían traer las gráficas
Se te nota la desinformación brinda 27fps en qué juego y con que gráficos en primer lugar? ,por qué osea no te va a dar los mismo fps en todos los juegos acaso no sabes que es un 25 a 30% mejor que la rtx4070 sin dlss? 27fps consigues en black myth con todo en ultra y path tracing y aún así son más que la 4070 la 5070 sin dlss = rx 7800xt
Bro la rtx 4070 salió a 600 dólares es una ganga por lo que ofrece por si no sabías la rtx 5070 sin dlss es de un 25% a 30% superior a la 4070 en juegos como far cry o black myth wukong rtx 5070 sin dlss = rx7800xt dices que da 27fps pero esa información es muy incompleta por qué no es como que te vaya a dar esa cantidad de frames fija en todos los titulos y con cada configuración lo de 27 fps es un ejemplo no el desarrollo real
@@elbailinreproduce no, estás viendo frames que existen creados por IA pero existen estos suelen ser de menor calidad que los originales (hablo del frame generation), depende del juego lo notarás más o menos, en un juego competitivo estilo csgo si se nota sobretodo por la latencia y porque es un juego de alto movimiento sobretodo por la impresión de la imagen, pero el está tecnología es muy buena para juegos más tranquilos de mundo abierto como un rdr2 o del estilo un juego no muy frenético, conclusión aumentan los Fps porque la gráfica crea más artificialmente. El dlss es otro tema el dlss reescala imagen de una calidad inferior a una superior este al trabajar en una calidad inferior da más FPS(FPS 100% real no fake) porque la gráfica trabaja menos. Este tiene una mejor calidad de imagen que lo anterior y menos latencia, aún que en juegos muy detallados a nivel gráfico si se puede llegar a notar algo, pero también depende de tu monitor y la distancia a la que estés del mismo, contra más pequeño el monitor y menor resolución y más lejos del mismo menos se nota, pero que aún cerca y el mejor monitor del mundo notaras poca falta de detalle
Si, el Tolosa habla como si supiera, jajajajajaja, a todos los que decís esto, dejar de hacer el ridículo, si 1 pixel de la pantalla se enciende con tal o cuál color, da igual de que manera se decida el color que se tiene que encender, es muy simple, no hay frames falsos, si el algoritmo es bueno, no habrá ghosting y la latencia no será excesiva, los píxeles del monitor no se encienden de manera falsa, un algoritmo generativo predice con un modelo el siguiente frame, ahora con dlss4 van a ser 2 frames los que se generen, a ver si dejamos de decir tonterías, mientras pulan el algoritmo y no genere ghosting ni excesiva latencia, perfecto, NO EXISTEN LOS FALSOS FRAMES
Hoy tocó ser experto en graficas
Pero tiene razón están cobrando lo mismo por menos trabajo ya que no optimizan nada los juegos
@@franciscojaviermendivilapo9914Si, en pc ni se molestan, pero al menos los juegos nos salen más baratos que en consola
Baratos? En pc son gratis 🥵
Ojala conseguir el wukong gratis 😢@@furaik3850
@@furaik3850 ten3mos descuentos en steam casi todo el año de hasta 80%
Y si sigue siendo caro mejor nos vamos para utorrent 😂😂😂📈
Prefiero rendimiento bruto a frames generados. Motivan a las empresas a no optimizar sus fcking juegos.
Un pefsonaje modelado sin opyimisar solo echo con las erramientas de modelado tiene como 5millones de poligonos una PS4 y XBOXone, tienen personajes con 250K poligonos, con 1.8 teraflops, imaginate lo que puedes hacer con 100, podrias jugar juegos a 4K60FPS, con graficos de 2014 sin ningun tipo de optimisacion, osea que no vamos a estar peor de aqui en adelante va ser pura mejora,
el rasterizado es una tecnología de los años 70, 40 años de una tecnología que cada vez es más obsoleta y más difícil de mejorar, el Dlls y la ia llegaron a solucionar esto, los que dicen “es que yo prefiero frames reales” no tienen ni puta idea de lo que hace la tecnología los frames de el Dlls no son frames falsos, otra cosa eso de ir repitiendo como loros que las desarrolladoras no optimizan sus juegos es otra mentira que repiten como loros sin saber nada
@@camilopalacios8139dlss es como un raster 2
Me recordaste a shados kajaka
El rasterizado ya no se puede seguir mejorando, estamos muy cerca del limite físico, y gracias a estas tecnologías con Ia que cada vez tenemos juego con gráficos todavía más espectaculares o prefieres usar el raytracing con 200 gpus en rasterizado para que te funcione a 20 FPS en tiempo real?
Vine a buscar la opinión de un experto pero descubri a un sabio
Vengo por la opinión de un experto.
Y el experto?
El xokitas @@VictorNdG
@@elbailinreproduce 🤣🤣
Te vas a quedar con hambre
No sabe ni como hacer funcionar su propio pc.
xddddddddddddddddd
Ni lo necesita.
@@Usuarioanonimo1993Yo creo, si se le rompe en cada momento.
pues es normal que ocurran errores si estas usando como 10 programas a la vez, mientras haces stream y grabas en 4k
DLSS en calidad de hecho puede llegar a mejorar ligeramente la imagen dependiendo del juego
Tengan en cuenta que por cada fotograma se aumenta 3 sucesivamente, por ejemplo si el juego son 3 fotogramas diriamos que 3 fotogramas x 3 fotogramas son 9 y estos 9 se duplican por 3 son 90 y eso se triplica casi a 270. Increíble son reales con operaciones matemáticas su rendimiento aumenta, si no hubiera ia es igual pero el dlss mejora el rendimiento, ya los desarrolladores ni se esfuerzan
Prefiero la época en la que se buscaba más la jugabilidad e ideas innovadoras que juegos en 12K 600 fps
Pero si llego el coche?
Está mal cuando la empresa pretende que utilices frame generation para llegar siquiera a 60 fps como norma general. Se supone que es una tecnología que complementa un ya de por sí buen rendimiento, porque está hecha para verse y funcionar mejor cuando más frames tienes.
Si, la mayoría de los frames de Nvidia son generados por IA, pero, aunque los frames de mayor calidad son pocos, yo creo que los generados son suficientemente consistentes, yo prefiero jugar a 200 fps en donde 100 de esos fps son generados, a jugar a 120 sin generación de fotogramas, pero no lo prefiero si la solución arruina la imagen, como lo que presentó AMD y usa la app "Lossless scaling"; espero que esa solución no hayan llegado a su máximo y en un futuro se vea bien, aunque lo dudo.
Frame Generation y multi FG de nvidia en serie 40 no funcionaban tan bien como para presindir del rasterizado, pero ahora que presentaron el nuevo trasformer la cosa puede cambiar.
Y es 100% confiable el frame y la imagen generada, por ejemplo en un shooter sería confiable para estos tipos de juegos?
Increible que xokas no sepa diferenciar entre dlss y frame generator
Es que nvidia lo anuncia como dlss4 XD
En parte la desventaja es que al hacer todo con dlss hace que las desarrolladoras se olviden de la optimizacion de los juegos y digan ah si ponle dlss para que funcione bien cuando no deberia ser asi el dlss deberia ser un extra en los juegos no parte de ellos
piensas que los desarrolladores no optimizan los juegos? jajajs
@GamVix24 Alan wake 2? Literalmente dijeron que el juego necesitaba frames generados para ir bien
En lo personal, usando dlss me da un poco de Latencia. Juegos de Shooting como Call of Duty donde eso es muy importante no tendria caso de activarlo. DLSS es mas para jugar de chill en un juego de solitario.
como le decimos lo del lossless
Lo malo es que las empresas hacen las cosas mal optimizadas y que se resuelva con estas tecnologías.
No puedo creer en alguien que dijo que crear un juego es fácil, y dice que da igual el frame generation. No da igual, frame generation genera latencia, la latencia mínima para que los fps se vean fluidos es de 16.6ms o menos, y por supuesto, no puedes jugar competitivos con input lag que es otro problema del frame generation
Llego el experto en todo el multicuentitas
No son fps reales pero consigue que evite congelación es en la imagen y hace que la experiencia del juego para el usuario sea más agradable.
*NVIDIALOVERS*
Pagar 3$ por el patito y duplicar FPS: 👎🤬
Pagar 999$ gpu nvidia: 👍😎😃😄😀
Yo tengo el lossless scaling y GPU de nvidia serie 40 y el frame generation de nvidia es muchísimo mejor la verdad, al correr en hardware no he notado artifacts y la latencia es muchísimo menor. Aún así no me arrepiento para nada de comprar el patito, lo uso para youtube
Vender la gráfica vieja para conseguir una nueva y mejorada: 👎🤬
Quedarse con la misma gráfica hasta que se degrade: 👍😎😃😄😀
@@M4x505. Esta pensado para las series anteriores, que no pueden usar frame generation.
Por cierto, youtube?
@@55_RedLimit_55 xd
@@55_RedLimit_55 Si! Veo videos en youtube a 144 fps con Lossless Scaling, es una maravilla!
Y si, para GPUs que no lo soporten es genial, de hecho lo usaba con mi anterior 2060 y bastante bien la verdad
Todo esto solo fomenta que no optimicen los juegos y la gente se vea obligada a comprar una Gpu solo por que actualizaron dlss exclusivamente para esa generación… una 5090 debería tirar ciberbug a más de 30 fps con ray traicin sin ayudas
Dlss está muy bien como un plus pero muy mal como algo realmente necesario
Rendimiento pero luego la resolución que ?
En algunos casos el dlss es mejor q el frame real, por q logra corregir como se ven las hojas de los arboles
Artefactos XD
la cosa es el frame generation el dlss es para eso mismo para mejorar la imagen la escala a una mas alta con ia y la reduce pero haciendo eso mejora la calidad y exactitud de los pixeles
así es, me encanta jugar con latencia añadida, mala calidad de imagen y poca vram por ese precio... yep...
Yo como experto de gpu no me da igual, creo que si hay que analizar muy bien esto, la industria podria estancarse al depender de IA y perder la verdadera calidad. Habra que ver
creo que nadie le enseño que la LATENCIA AUMENTA MAS Y SIEMPRE ESTARA PRESENTE XD.
el salto de las rtx 50 en potencia bruta no es tan espectacular como otras generaciones.
y los juegos cada vez menos optimizados y acabaran metiendo IA en consolas y dará asco básicamente
Y AMD se caga y no saca topes de gama 10/10 xD
Seguiré con la 4090 hasta que cambien las tornas.
El problema es que a nivel tecnológico la potencia no puede aumentar ya mucho mucho más, básicamente antes era la edad de piedra y ahora estamos llegando a casi los límites de un +10% por año y cada vez ira a menos
X2 iba a comprarme una serie 5000 pero mejor me consigo la 4090.
con el DLSS 4 no te lo dobla, te lo octuplica, osea X8 lo normal, te lo dobla con la 4090 con dlss 3.5 que debe tener el chotas ahora mismo
A mi lo único que me preocupa es que los desarrolladores utilicen estas nuevas tecnologías como excusa para optimizar cada vez menos sus juegos, hasta el punto de que sean injugables sin frame gen.
Aquí es donde muchos piensan que es mejor solo rasterizado, pero luego sale un juego ir su gráfica AMD no les corre bien Ray y pach tracing los cuales hace te muestran el juego de una manera que nunca verías solo con raster y más realista, pregunta si tu gráfica no te deja disfrutar bien de eso sientes que estás pagando un precio justo solo por ese raster que a duras penas corre Ray tracing?
Te da mas fps pero acosta de bajar la calidad
Es lo mismo que bajar la calidad y tener mas fps sin dlls
Yo pienso lo mismo a uno no le pueden vender una tarjeta gráfica de la serie 5000 cuando está bajo el nombre de frametime falsos por IA, me van a cobrar 3 millones por una tarjeta que es la misma que la anterior y hasta tendrá menos poder bruto Pero duplicará los frametime por la IA no mames
A mí la verdad me gustaría que alguien trabajará en DLLS con las tarjeta no tan viejas si se les puede adaptar esa IA y pasar lo mismo con CrossFire que se podía conectar dos tarjetas gráficas y sobrepasaba a una de gama tocho
Y dejan esa mierda aún lado, las empresas ya deberían trabajar en la optimización y las empresas de GPUS debería entregarnos tarjetas de trabajo bruto, ya uno paga por IA y no beneficio/calidad por frametime
No es la misma calidad, pero puede ser incluso mejor...
Y es cuestion de tiempo que reduzcan la latencia mediante un mult generation que no solo genere un cuadro en base a una prediccion lineal, sino que genere varios cuadros prediciendo distintos movimientos y al recibir el imput del mouse por ejemplo, descarte los que no estan de acuerdo a él y pongan los correctos.
Esto bajaria la latencia a niveles increíbles. Aunque es mucho mas trabajo que generar simplemente frames de forma lineal, donde predice el movimiento pero solo se queda en predecir de forma lineal de acuerdo a lo previo.
Eso de mejora fácil, la verdad.
Y les guste o no, predecir es la mejor forma... El cerebro lo hace TODO el tiempo. Gastar potencia bruta en obtener frames reales es un desperdicio de potencia a lo tonto... Esa es la realidad.
El cerebro mismo prefiere predecir miles de movimientos y tener que descartar el 99% antes que tomarse el trabajo de hacer uno simplemente, gastando mas recursos. Con la IA generativa va a ser igual, ya que trabajan de forma similar al cerebro... Solamente falta ese pequeño pulido donde el mult genere varias """lineas temporales""" y de acuerdo a imputs como el movimiento de la camara al mover el mouse lo que sea (que se detecta muy rapido hoy en día) descarte las lineas temporales que no sirven y al instante ponga la correcta, disminuyendo abismalmente la latencia que se suele generar en el frame generation normal porque el frame generado es una predicción que no tiene tan en cuenta los imputs a la hora de crear y mostrar el frame, es mas bien un frame "muerto" que si de crearan varios frames (pero en varias lineas temporales, asi les digo yo.) elegiria el mas adecuado a la acción del imput de los oerfiericos por ejemplo, y bajaria la latencia enormemente, al ounto de ser imperceptible incluso o hasta bajarla mas de lo que un frame renderizado REAL podria tener.
Bien dicho amigoo
A ver, es cierto q no da igual..pero el tema aquí es que no es que estén haciendo las gráficas menos potentes q antes o q sean directamente iguales a las anteriores y el único añadido sea el de la IA..la gráfica en si misma mejora la potencia bruta en alrededor de un 30% con respecto a la generación anterior..eso se dice fácil pero no es fácil..30% es un montón..ahora adicionalmente a ese 30% te añaden una tecnología q te va a dar muchísimos más frame sin apenas pérdida de calidad visual q al final a la hora de jugar es lo q quieres..en realidad te da igual si los frame son reales o generados por IA..lo q te importa en la práctica es q el juego se vea bien y vaya a Buenos frames pero es q adicionalmente a esa tecnología si no quieres usarla tienes un 30% de mejora en potencia bruta q es al fin y al cabo el motivo principal por el q sacan una generación nueva y uno va y se la compra..lo de la IA es una tecnología añadida como lo fue en su día el 1er DLSS, pero no es lo único nuevo en la gráfica
El input delay en juegos competitivos: ☠️💀
? Ni que tuvieras una tostadora para usar algo así en juegos competitivos
Pero eso no es para competitivo xD
@@dhummasa.morenochoquez7201 igual el input delay arruina todo no importa el juego
A ver si te enteras. Primero aprende a distinguir entre dlas y framegeneration. El dlss no genera frames es resolución dinámica. Otra cosa es el frame generator que si genera frames. Enteradillo que te crees que lo sabes todo
Estás hablando a una cuenta que resube contenido jajajaja
Creo que se ha enteradillo jajajaja@@Nbj1995
Bruh....
Literalmente la PROPIA Nvidia ya dijo que lo IMPORTANTE es la generación de Frames con IA, además que la Cuarta Iteración de DLSS busca emplear ese rescalado combinado con generación de Frames por IA, y es obvio a que se refiere, no?
El dlss tampoco es resolución dinamica, antes de corregir ponte a estudiar el tema amigo.
Cuando quieras corregir, primero debes saber lo que estás corrigiendo w
Para que carajos te armas un pc de la nasa (con la intención de jugar cualquier juego pero sabemos que el xokas juega algunos competitivos en especifico) si vas a usar dlss que no solo son frames imprecisos sino que tambien tenes mas delay
Pero siendo honestos, me juego un brazo a que al Xokas le activa alguien el DLSS sin que él lo sepa en el pc y no se da cuenta en la vida. Si, es cierto que es IA y que si te fijas muy muy bien con la otra imagen generada por la gráfica en si, sí puedes notar la diferencia, pero en el gameplay real ni lo notarías.
SI SON FRAMES, solo que son frames de baja calidad pero tampoco se pierde tanta por la IA... y si me los dobla, pues que rico
El tipo sabe de todo 😮
A, el dlss no da frames generados, dobla los fps porque trabaja a menor resolucion y usa ia para reescalar las imagenes, son imagenes reales a 1080 por ejemplo y reescaladas a 1440 en ningun momento se crea una imagen desde 0 con ia lo que se hace es estirar la imagen i rellenarla con ia para que se vea bien, la calidad es muy buena, se puede llegar a notar un poco de falta de detalle pero es muy difícil, ademas que con el dlss 4 espero que nos soprenas
Hablo el chota con PhD en IA
Señores, la rasterizacion murio, y si quieren saber porque, preguntenle a copilot, cada vez la resolucion de los juegos aumentan, los juegos son cada vez mas realistas, el raytracing y el pathtracing requiere mas capacidad de cómputo, y el estandar de fps cada vez aumenta... Hay monitores de 165 o 244 hz en la actualidad... Y gracias a la IA se ga logrado solucionar muchas cosas, pero si piden mas fuerza bruta en las graficas, no sean muy optmistas, porque cada vez fabricar un chip con transistores mas pequeños es difiicl ( a menos que se haga una nueva investigacion ) 🤣
También el tema de que se apoyen tanto en el dlss/frame generator es que cada vez optimizan menos los juegos, pronto los juegos solo correrán a 15 fps y llegaremos a 60 solo por la ayuda del dlss. La idea original de dar más fps era espectacular y más si los juegos iban a 60 o más pudiendo así sacarle todo el jugo a monitores de 144hz hacia arriba, pero al final ya pareciera que quieren hacer obligatorio el uso de dlss para que el juego corra bien.
Y el experto dónde está?
El problema con dlss es que el 1% del mercado lo utiliza correctamente 😂.
La pa 5 es igual va a 30FPS y se ve a 60 😂
Pero informateaba tanto...🚬
Me asusta que esta vez ha sido preciso y es correcto lo que dice.
prefiero jugar a 100fps reales que a 200 medio reales. Y por eso lo tengo quitado en mi 4080 super
En calidad los fps reales y (falsos) son prácticamente idénticos ahora sí te molesta la latencia es completamente entendible pero en general yo jugué space marine 2 a120/ 140fps con mi 4070 ti a 20 con picos de 30ms y la verdad me salvó porque este juego es súper cpu dependiente y no podía utilizar al 100% mi gpu cosa que terminó activando fg o al menos se mitigo bastante y tengo un 13600k este juego es muy muy cpu dependiente lo que quiero decir es si por ejemplo tu a 100fps reales sin réflex tienes 30 o 20ms de latencia y luego juegas con fg y réflex 2 por ejemplo que será todavía un 75% mejor pasarás a 200 fps y tendrás seguramente la misma latencia o menos talvez pases a 20ms y tendrás 200fps ahí no se te está mintiendo es cierto que si juegas nativo con réflex 2 bajarás a menos de 5ms con 100fps nativos pero eso también es una tecnología evidentemente para mitigar dlss fg y para competitivos da igual a mi lo que me impresionó fue súper resolución afortunadamente saldrá en mi gpu es interesante como por fin a superado por completo a nativo la calidad que ofrece es impresionante el nivel de detalle etc
O sea, que el.Xokas dice: Si les puedo vender un 1/4 de caviar real y 3/4 de caviar artificial, esperó y me lo compren igual 😅
el xokas habla de fps como si fuera el mayor experto jaja y no tiene idea de lo que esta hablando jajaja este tipo literal se toma muy en serio eso de que sabe todo jajajajajaja
jajaja si literal, me acuerdo cuando le fallaba todo el stream segun por la pc y bobadas
Dar una opinión conociendo un poco de algo es creerse un experto?, porque como toda la gente de internet, nadie es experto pero opinamos en base a lo que conocemos
Pero si tiene razón XDDD
No dijo nada incorrecto ni mencionó nada técnico xD. No es por ser "fan" del xokas y que lo defienda a capa y espada, pero en esta ocasión no dijo nada estúpido xd, ya dejen de ser amargados 😂.
Ese framerate genera latencia?
Si señor
@@jesusyepes3459 A un amigo mío le daban tirones, y solo fue desactivar el DLSS junto al RT y los tirones desaparecieron, y eso que tenía 32GB de RAM limpios, i7-12700k y una 4080 Super.
Sigue siendo imágenes aproximadas dlls, como fsr, y xlls, está bien usarlo. Pero son falsos fps, que hagan publicidad con estas tecnologías es malo obviamente, ya que muchos se quedan con eso, pero es el único detalle.
A mí no me gusta, pues prefiero tener menos latencia, DLLS, FSR, y este tipo de tecnologia son excelentes para juegos AAA, o con in apartado visual exagerado, pero esa latencia no tiene cabida en juegos como el juegos competitivos obviamente.
Es como el blur o imagenes borrosas cuando tienen mucho movimiento, esto ayuda a mejorar la fluidez visual en el cine y caricaturas/anime.
No está mal, mientras exista la opción de no usar dlls.
El problema es que la gente está hablando sin ver como se ven y cuánta latencia genera, puesto que según mejoraron la latencia, ahora que si es una porquería habrá que decirlo, aún así la tecnología de reescalado aparte (DLSS súper resolution) la cual toma una resolución mas baja y la escala a una más alta salva a muchas pc de ganas más bajas, aunque está parte la hace más fsr súper resolution puesto que está en todas las gráficas.
es como comer carne con soya
Pero no hay mentiras, la tecnología se llama frame generator.
Ami me sirve sigo teniendo más fps además eso dijeron cuando salio el dlss pero bueno sigue mejorando tal vez no como queremos pero hay mejora, por lo menos no es como iPhone.
Para competitivo no sirve, para juegos casuales es genial
Los juegos competitivos no suelen ser tan pesados como los triples A, por tanto no es tan necesario en esos títulos..
@@jimmyivanhuchindelossantos4374 más o menos, cs 2 se está ahogándose, necesitas una RTX 4060 mínimo para moverlo en 240 con gráficos altos (no se usa igualmente).
Es bastante pesado actualmente, una gtx 980, una gtx 1080, una Radeon Vega, las gamas altas antiguas (equivalente a una RTX 3050 ti la Vega y 1080), no dan la talla para jugar fluidamente en los mejores monitores.
Y si, suma demasiada latencia en estos entornos competitivos, si ya tienes algo se ping, usar dlls no ayuda
@@jimmyivanhuchindelossantos4374 en juegos competitivos de estrategia da igual dlls, y en Valorant si, este es muy ligero se puede ejecutar sin necesidad de ninguna tecnología rara
Los competitivos por lo general son más cpu dependientes...
este pana es un meme viviente, sane tanto que sabe a mierdddddd 4
Es opcional jeje
Es como comprar ibérico y que GRATIS puedas generar el doble pero en serrano.
en un competitivo solo vale la pena el framerate real
La IA va dominar los videojuegos y el cine
Osea que estoy pagando por una tecnologia mas que por la grafica en si
No, estás pagando por los procesadores que lleva la gráfica capaces de aplicar esa tecnología con un delay inapreciable
Yo creo que las RTX vinieron a estancar los videjuegos por un buuuuuen tiempo.
Por el tema de RayTracing, muchos criticamos que las Empresas ya no optimizan su juego, PERO, nadie piensa en que el RayTracing en tiempo real es una BESTIALIDAD a nivel tecnológico.
Para ver la potencia bruta como antes habria que revisar los juegos sin nada de DLSS ni RayTracing.
eso crees pero hechale a un vistazo a lumen y nanite donde se demuestra que por rasterizacion todavia se puede avanzar.
El trazado de rayos es una forma de generar iluminación en videojuegos que existe desde el inicio.
Pero DLLS son frames generados para mejorar la fluidez visual sin hacer borrosa la imagen.
En la vida real y en el cine se aprovecha efectos, como el desenfoque normal de tanto los ojos como las camaras, para aumentar la fluidez
Sigue siendo imágenes aproximadas dlls, como fsr, y xlls, está bien usarlo. Pero son falsos fps, que hagan publicidad con estas tecnologías es malo obviamente, ya que muchos se quedan con eso, pero es el único detalle.
A mí no me gusta, pues prefiero tener menos latencia, DLLS, FSR, y este tipo de tecnologia son excelentes para juegos AAA, o con in apartado visual exagerado, pero esa latencia no tiene cabida en juegos como el juegos competitivos obviamente.
Nunca me gusto usar esas tecnologías por mas buena que son, no son el original, se nota que esta hecho por ia, y hay muchos errores, prefiero el modo original
Amigo soy fan declarado de los fps por IA, puedo jugar en 4k todo juego que tenga FSR a 120fps con mínimos detalles, nunca podría jugar en esa resolución con gráficos reales ni a 30fps
Fsr 3 es algoritmos no es ni similar al fg de nvidia que utiliza IA no es fanboysmo ni nada es la calidad del frame
@@aestethicfilosofy8046 se que el dlss es superior eso no lo discuto, pero aun así en fsr es lo mejor que pudo sacar amd
@@eliasbello9942 hasta cierto punto el de amd requiere 60 fps basé 1080p y 1440p para arriba 75fps que juegos puedes jugar con esos fps basé a 4k digo una rtx 4090 no da 60fps estables en cyberpunk 2077 y la mayoría por no decir todos los juegos que tienen unreal engine 5 en nativo el de nvidia requiere solo 40 ahí tiene algo más de sentido esto si quieres en ambas buena calidad y latencia no niego es útil en muchos escenarios
por fin alguien piensa como yo aguante la fuerza bruta y los frames reales xD
y el tren a carbón aguante
Esta bueno pero ni de broma me compro la 5090 doble del precio para +30% de potencia nativa, mejor me compro la 5080 o 70 Ti y voy joya con el precio y si algún juego esta muy intenso el DLSS con Super Escalado me salva
Lo malo realmente es que los desarrolladores dejande optimizarlos los juegos
Este no sabe lo que dice, no se dejen engañar esos GPU’s son una basura
bueno tanto como llamarlos basura.. que la mejora en bruto no sea significativa no significa que sean peores que sus antecesores
Y qué tal tu Radeon? JAJAJAJ Ya abran los ojos.
@@DarkBerserk95so tu quieres jugar con fake frames felicidades, la verdad tengo una 7800xt and I’m happier than never 😂
Wey mis ojos apenas ven 30fps no mames incluso con 20fps yo soy feliz jajaja
Ni siquiera están en venta como para probarlas 🤡
a este no le tuvo que montar el pc nate gentile?
Despues dice compren pley 5 pro 4k original a 8k a 120 fps 😂
Los FPS Falsos son fps falsos y si tu llevas el coche a un fps falso o disparas a un fps falso fallaras el disparo.
de eso nada
Lo unico que me importa es que la latencia no sea muy alta
Como dice es un generador de fotogramas y la verdad mi p
No se, esta es la única vez en que no me gusto de el todo la nuevas gpu de nvidia, aguante rendimiento bruto.
Pienso lo mismo
El dlss te da más diley que fps xd
Y que importa? Eso solo es algo importante para jugar de manera competitiva, si juegas casual no hay problema, o imcluso si no eres casual, mientras nk te metas a full competitivo no habra problema.
Y eso en oninw, ya no hablemos de lo poco que importa en los singleplayers
@ el que se compra una gráfica así es para jugar a alto nivel normalmente , es el público mayoritario
por eso luego bajan la resolución a 1080 y los gráficos en bajo como en fornite modo rendimiento@guille8569
No veo más de 60 me da igual el frame rate 😂
siempre que esta gente habla del DLSS (se creen muy listos) nunca hablan de que el pc gasta menos vatios, menos recursos, menos VRAM y menos latencia ....
nunca has usado dlss, te mete toda la latencia y mas la generación de framerate
@@Charlesberserk que nunca e usado DLSS? xDDD mirate lo puso nvidia, sin DLSS el juego tiene mas latencia que con DLSS, tengo en mi canal un video que digo hasta desde donde descargase el ultimo DLSS para ponerlo en los juegos desactualizados .....
@@Bok3RonVR jaajaj crees que el dlss se instala para cada juego? amigo revisate que eso no es dlss
@@Charlesberserk amigo no sabes que los juegos que no usan DLSS se puede meter metiante uniscaler? xD
@@Bok3RonVR dios que ignorante eres, el desarrolador tiene que meter dlss, si no ni siquiera es software oficial jajajaajajaja nmms instalale dlss a doom
😮 otra vez es como decir estamos comiendo Dulces artificiales
FSR3.1 para todos y el 4 viene mucho mejor gracias AMD para los que no nos da dlss
experto menos en su pc que no sabe ni como conectar 2 pantallas
lo que tu creas no es muy relevante...............hazme caso
Pe-pero no es r-r-rendimiento real🤓👆
Latencia: ¡Hola Peter!
A esta gente de Nvdia, solo le importa sacarte la plata. mas NADA
Pero que dices? Cómo siempre dando información a medias e inexactitudes jajajja
entonces ya no son gpus de render, estas comprando un dlss mejor
Y a ti que mas te da, si al final tu cerebro va a ver unas imágenes mucho mas fluidas y con una calidad excepcional , que te importa quien genere esas imágenes
@@Abanan34 ni lo has probado
@@DarkBerserk95 Tu que sabes lo que he probado o dejado de probar. Soy propietario de una tienda de informática desde hace 15 años y te aseguro que he hecho cientos y cientos de pruebas y configuraciones para mis clientes
@@Abanan34Importa mucho, hay más latencia en IA, a un amigo mío le daban tirones teniendo 32gb de RAM DDR5 a 6000MHz con CL30, i7-12700k y 4080 Super. Solo fue desactivar DLSS y la latencia junto a los tirones desapareció.
Esperto en ia
Para mi es ua estafa pero es buena 😂😂
La 5070 solo te brinda 27 FPS reales por $550 😂 ahora te venden la AI 🤖 como si fuera una innovación ( claro si lo es ) poro por el costo del verdadero poder que deberían traer las gráficas
Se te nota la desinformación brinda 27fps en qué juego y con que gráficos en primer lugar? ,por qué osea no te va a dar los mismo fps en todos los juegos acaso no sabes que es un 25 a 30% mejor que la rtx4070 sin dlss? 27fps consigues en black myth con todo en ultra y path tracing y aún así son más que la 4070 la 5070 sin dlss = rx 7800xt
Bro la rtx 4070 salió a 600 dólares es una ganga por lo que ofrece por si no sabías la rtx 5070 sin dlss es de un 25% a 30% superior a la 4070 en juegos como far cry o black myth wukong rtx 5070 sin dlss = rx7800xt dices que da 27fps pero esa información es muy incompleta por qué no es como que te vaya a dar esa cantidad de frames fija en todos los titulos y con cada configuración lo de 27 fps es un ejemplo no el desarrollo real
Borra tu comentario bro 🔥
@@candelariaramirez6136No pierdas tu tiempo con esta gente, tienen una venda en los ojos.
Que pesado es el xokas jajajjajjjajaja experto en todo pero no sabe nada jajajja
Patético es lo único que digo 🤐
LITERALMENTE UN: Y?
que tendra que ver un solomillo con un juego jajajaj
Un buen ejemplo, además no estamos hablando de juegos, sino de frames falsos generado por la IA para engañar al ojo, ver fps que no existen.
@@elbailinreproduce no, estás viendo frames que existen creados por IA pero existen estos suelen ser de menor calidad que los originales (hablo del frame generation), depende del juego lo notarás más o menos, en un juego competitivo estilo csgo si se nota sobretodo por la latencia y porque es un juego de alto movimiento sobretodo por la impresión de la imagen, pero el está tecnología es muy buena para juegos más tranquilos de mundo abierto como un rdr2 o del estilo un juego no muy frenético, conclusión aumentan los Fps porque la gráfica crea más artificialmente. El dlss es otro tema el dlss reescala imagen de una calidad inferior a una superior este al trabajar en una calidad inferior da más FPS(FPS 100% real no fake) porque la gráfica trabaja menos. Este tiene una mejor calidad de imagen que lo anterior y menos latencia, aún que en juegos muy detallados a nivel gráfico si se puede llegar a notar algo, pero también depende de tu monitor y la distancia a la que estés del mismo, contra más pequeño el monitor y menor resolución y más lejos del mismo menos se nota, pero que aún cerca y el mejor monitor del mundo notaras poca falta de detalle
Bro cree que nos mienten pero sin dlss la 5070 es mucho mejor y mas barata que la 4090💀
Ni de cerca JAJAJAJAJAJAJAJA.
Ni de puto lejos, pero ni de putisimo lejos llega a la 4090
jajajajaja comparativa hecha con tecnologia de IA y otra no. Solo te has quedado con la portada
Si, el Tolosa habla como si supiera, jajajajajaja, a todos los que decís esto, dejar de hacer el ridículo, si 1 pixel de la pantalla se enciende con tal o cuál color, da igual de que manera se decida el color que se tiene que encender, es muy simple, no hay frames falsos, si el algoritmo es bueno, no habrá ghosting y la latencia no será excesiva, los píxeles del monitor no se encienden de manera falsa, un algoritmo generativo predice con un modelo el siguiente frame, ahora con dlss4 van a ser 2 frames los que se generen, a ver si dejamos de decir tonterías, mientras pulan el algoritmo y no genere ghosting ni excesiva latencia, perfecto, NO EXISTEN LOS FALSOS FRAMES