Hay que coger con pinzas este benchmark, Daniel Owen ha testeado su 7900XT y 7900XTX con un 9800x3d y le ha dado una media de 67 y 77 fps con ambas, parece que el que hizo las pruebas no las hizo en settings ultra debido a un bug que hay en BO6, si cambias las opciones gráficas estas no se aplican hasta que reinicias el juego, así que podría ser que el tester creía haber hecho las pruebas en ultra y realmente estaba en bajo o medio. Aún así no pintan mal las 9070 después de todo.
@@cristhianandres hasta que una Rx9070 rinde mas que una rtx4080 solo por una foto tambien es especulacion, SeelePLS escribe un dato, Dae da un dato, quieres ver pruebas? compra el hardware y haz tus pruebas, porque al parecer eres de los eruditos de YT que a todo le dicen Mentira
Sé que en el directo anterior mencionaste que no te parecía lógico mi comentario, en el cual afirmé que, desde un punto de vista psicológico, la estrategia de AMD de retrasar su lanzamiento era genial, ya que servía para bajar los precios de NVIDIA o mejorar sus propios precios. Sostuviste que la creencia común, que sugiere que AMD temía la presentación de Nvidia, era correcta. A riesgo de sonar como un "fanboy de AMD" y de parecer insistente, me temo que debo reafirmar mi postura. La estrategia de AMD, aunque no fue del agrado de muchos, es excelente, ya que le otorga una pequeña ventaja y no se basó en el temor, sino en la intención de mejorar sus ganancias. Además, esto también beneficia a quienes planeamos comprar productos de Nvidia, ya que ayuda a evitar o moderar el aumento indiscriminado de los precios de las GPU, como ocurrió en generaciones pasadas. Dae, sabes que soy tu suscriptor y te respeto, pero sigo creyendo que esta vez tengo razón. Un saludo cordial.
Sin embargo, lo normal es pensar que si como empresa crees que tus productos son genuinamente buenos, no buenos en relación a tal competencia o la otra, sino simplemente buenos entonces no deberías andar con este tipo de estrategias de última hora. Sabemos que las gráficas están construidas y sabemos que AMD informó hace tiempo que las iba a anunciar. No lo han hecho porque no había tiempo a cambiar los precios en el power point porque saben que su producto no vale más que el de la competencia. Además, la negativa de no competir en gama alta solo se puede explicar si AMD no ha sido capaz de producir a escala los correspondientes chips a un precio lógico y esto redunda en precios altos en el resto de gamas que ahora hay que intentar corregir. Como dijo Guillermo de Ockham, en igualdad de condiciones la explicación más simple suele ser la más probable.
La gente suele sobreestimar Nvidia y menospreciar AMD. Yo creo que amd va por buen camino, mientras de alternativas solidas a Nvidia. Intel tambien va dando pasos, me gustaría probar esta gen alguna gráfica de Intel a ver que tal
Lo de hacer una GPU monolítica no era para conseguir un tamaño más reducido sino para rebajar costes. Las RX 7900 XT y 7900 XTX si no recuerdo mal tenían un chiplet extra fuera de la GPU. Lo que han hecho aquí con las 9070 XT / 9070 es eliminar ese chiplet y meterlo todo dentro de la GPU y en consecuencia queda un chip de mayor superficie.
Por lo que estamos viendo, AMD se centraría en la gama media en precio/rendimiento, pero han hecho el mejor chip que podrían hacer. Simplemente ya no pueden competir en la gama alta y ajustarán los precios cuando sepan realmente el rendimiento de la RTX 5070. Se están viendo rx9070xt totalmente monstruosas, incluso algunas con 3 conectores de alimentación. Nos imaginábamos chips pequeños y de bajo consumo, pero llegan sudando sangre para competir en la gama media.
@TitanSP Sí eso espero, he buscado información al respecto y en teoría prácticamente no se pierde nada, es como cuando por un ancho de banda compartido el pcie corre por 8 en vez de por 16, la diferencia es de 3 a 5 fps cmo máximo. Espero que no sea el caso, pero lo que a mí me escama es que una tarjeta como la 5080 o 5090 necesite el total del ancho de banda y que llegue a comerse los 16 carriles.
Pero AMD siempre tiene el mismo problema , cuantos juegos de salida tienen incluido FSR4 y cuanto tiempo van a tener que esperar los usuarios de AMD para poder sacarle partido a la gráfica... , porque si te compras una gráfica y tienes que esperar 6 meses o 1 año para aprovecharla... Hay muy pocos juegos que hayan incluido FSR 3.1 hasta la fecha , van a tener que esperar lo mismo para que se incluya FSR4 también ? A mi me gusta AMD , pero creo que las radeon 9000 solo es la transición para mejorar de arquitectura , pero no vale la pena comprarlas , la mayoría no traen encoding con hardware , tienen ram ddr6 y en el FSR4 aun siendo la misma serie 9000 la gama baja no podrá utilizar FSR4 .
El encoding no la tendrá la gama baja , osea gráfica de $200-$250 para abajo , tener GDDR6 es mejor en este caso , por qué con subir un poco más el bus de bits que Nvidia ya la igualan y tienen más vram Y lo de FSR 4 que no se podrá utilizar en gama baja es un rumor muy resiente y dudo que se valla a cumplir
Pero prácticamente cualquier grafica de hasta 2 generaciones atrás te da 60fps en ultra a 1080 quitando algunos juegos concretos muy exisgentes , no entiendo que quieres decir con eso , para llegar a eso no hace falta mucho ni una grafica nueva . De todas formas el reescalado solo es importante hasta el limite de Hz de tu monitor , si tienes un monitor de 60hz , 144hz o 240Hz , da igual que el reescalado te de más de 300fps solo lo vas a notar algo más fluido , pero la sensación real de juego va a seguir siendo la del limite de tu monitor y la generación de fotogramas para juegos de un jugador esta bien , pero para multijugador o shooter competitivo no sirve . Lo del FRS4 saldrá en 5 juegos contados de salida , y habrá que esperar mínimo 1 año y medio para tener un catalogo amplio de juegos que lo tengan , para eso teniendo el mismo rendimiento que las AMD 7000 preferiría estas o Nvidia que ya puedes aprovecharlas completamente desde que las compras . Lo que me refiero de AMD es que a sacado un "refrito" rápido por sacar algo , si es con el mismo rendimiento o inferior que la serie 7000 la nueva arquitectura RDNA4 no vale de nada , que consume menos si y que ? , que aporta eso para que la compren ? , y que pasa para los que quieren gama baja por presupuesto o por lo que sea también quiere encoding con hardware , que buscaran opciones fuera de AMD . Me dan igual las marcas tanto AMD , como Nvidia , Intel o la que sea , lo que quiero es que haya competencia real , para que una marca en este caso Nvidia no maneje los precios de mercado que le de la gana .
@@VeciDK vallamos por partes Una RTX 4060 no da 1080p ultra 60 fps en todos los juegos , además en los juegos que saldran de aquí a 2 años no podrán , por qué a futuro los juegos son más exigentes , es como jugar con una 2060 juegos pesados de hoy en ultra a 60 fps Sobre la generación de fotogramas estoy de acuerdo contigo
Pues se verá , si es que AMD cumple su objetivo de aumentar la cuota de mercado pues el FSR 4 se implementara más , o quién sabe , quizás AMD ponga algo de pasta sobre la mesa para que lo implementen Sabes que llamas refrito únicamente por qué no superó a la gama alta actual que casi nadie compra? Si rinde como una 7900 xt y cuesta $500 ya está , es calidad precio y verás como se vende , no es necesario apuntar en la gama alta cuando se quiere subir cuota de mercado , ya que la mayoría de jugadores está en la gama baja y media El encoding por lo que tengo entendido ryzen 7000 y 9000 lo tienen , además no todos hacen streaming y gran parte de las personas ni siquiera lo utilizan En RDNA 4 lo principal que mejoro fue , mejor rendimiento , RT y FSR por IA , lo cual fue lo que más se le crítico a las RX 7000 Y probablemente serán baratas ofreciendo un buen rendimiento ¿Que más quieres?¿Gama alta? Pues ve por Nvidia , si sos uno de los poco que se compra una gama alta Igual con la llegada de Intel , próximamente diseños de ARM y competidores de china como la MTT s80 , el mercado se llenará de competidores , lo cual nos conviene a todos
AMD esta de transicion durante 1 o 2 años con esta serie 9000 y me da que dará la mayor sorpresa con la siguiente gen cuando saque la gama alta y consiga pasar a Nvidia porque tiene potencial por explotar tanto en arquitectura de gpu, como con FSR, AFMF, en RT, en rasterizado y consumo energético y encima con mas VRAM que la competencia. En cambio Nvidia ya no tiene tanto margen de mejora y pronto todo lo que sube acaba bajando por su propio peso. Acuérdense
Si echamos la vista atrás, la última vez que AMD decidió no sacar gama alta fue el precedente de un hundimiento y estancamiento durante años que solo comenzó a mejorar en las RX5000. Desde entonces solo han demostrado clara mejoría con RX6000 ya que RX7000 ha sido muy mediocre respecto respecto de la anterior entendiéndose como un frenazo. Esto no lo tienes en Nvidia y tendrías que remontarte a las Geforce FX de 1999 para ver algo similar. En definitiva cada uno puede creer que en el futuro pasará cualquier cosa, pero si lo apoyas con datos objetivos mejor.
Creo que las comparativas rtx 5000 vs rx 9000 van a decantar un clarísisisimo ganador, PERO, si las rx 9000 tienen un buen precio, mejoran sobre todo en RT y a nivel de raster estan a la altura de las tope de gama de las 7000, probablemente sea una buena opcion para muchos. Aún así, a nivel de estrategia de lanzamiento e imagen de marca, han hecho una cagada que será recordada de aquí a futuros lanzamientos.
Esperemos que a nivel de precio u rendimiento lancen algo bueno , y en RT debe de igualar a las RTX 4000 , y por lo que presento Nvidia las RTX 5000 pegan un salto leve en RT
@@EnxebreRCD pues yo vi el gráfico de Nvidia 4090 vs 5090 (no recuerdo en qué juego) con RT encendido y la diferencia era del 30% más o menos , y tengamos en cuenta que la 5090 tiene más potencia en raster , lo que quiere decir que el salto en RT es aún menor En esta generación Nvidia duplicó la potencia de IA pero todo el resto apenas lo todo
@@EnxebreRCD y sabes a quien le beneficia eso? Adivinaste , al empresario multimillonario que comprara cientos de miles de estás 5090 , no al usuario común como tu o yo
En el benchmarking porque dirá? "Bottleneck 100%" Y en CPU los FPS van a 255!!! y las temperaturas están en 0 (cero), en lo que corresponde a RAM creo también está muy mal? ¿Usa casi pura Virtual RAM? Y la foto de la GPU sera falsa? Osea la motherboard tan pequeña es? La motherboard de la RX 7900 utiliza toooodo el ancho y los power sockets por lo mismo están en la orilla y está la tiene muy adentro. Creo esa GPU es la "Asrock Radeon RX 7900 XTX, 24GB GDDR6, Taichi OC" pero esta viene con Power sockets de 3x 8-pin!?!?!? Y la de la imagen un solo power socket! Si puedes aclarar esas dudas, que piensas? Saludos ✝🙏🖖
@@Fran_Caboy A mí me da la sensación que AMD tiene algo preparado muy gordo para la siguiente generación. Porque lo que está haciendo NVIDIA es estirar el chicle. Estamos ya con gráficas que consumen 600w y que van camino del tamaño de una lavadora.
@@luisgerardolopezherrera748 No soy fan de ninguna de las empresas pero cuando dices que no compite con la serie 50 te refieres al software por que no han demostrado la potencia sin esas tecnologías, tranquilamente compite si lo que muestran es verdad con la 5070 ti.
@@cristhianandres Me refiero a los números que se muestran en el video. Por otra parte, la potencia de las GPUs de NVIDIA es la IA, esas tecnologías están ahí para usarse. La tecnología avanza y cambia, la IA es el futuro, debemos ajustarnos al cambio y ver hacia el futuro, no quedarnos estancados en el pasado. (Yo de lo que sí soy fan es de tecnologías innovadoras).
@@gerardodelgado4715 Yo prefiero que todo me corra todo en ultra en nativo y buenos FPS que me maquillen cosas con Software te lo dice alguien que tiene una Nvidia . Es importante la IA si,pero la mayoría de desarrolladores no la implementa ni optimiza sus juegos.
Es una completa tontería y sin sentido pensar que rendirá ya no más, si no similar a una 7900 XTX una gráfica de este segmento, considerando el mediocre salto en nodo y arquitectura. Si es que las propias diapositivas de AMD del evento que serán lo más favorables posibles ponían a la 9070 XT máximo en el rango de la 4070 Ti. La prueba tendrá algún bug en la configuración o será con alguna tecnologia que aumente los fps como eso de la 5070 rindiendo igual que la 4090 con MFG.
Ten en cuenta que la 9070 xt tiene 4000 núcleos mientras que la 7800 xt 3600 , y se rumorea hace meses que llegarán a los 3,2 Ghz mientras que las actuales solo llegan a 2,5 Ghz Y sumado a una memoria caché L3 mejora (mejorada no me refiero a que simplemente le agregaron más , sino que la mejoraron) Yo espero que sea como en los primeros rumores , $500 con rendimiento algo superior a la RX 7900 xt
@traelkel8789 no, 3.2Ghz no se van a alcanzar con esa mejora tan mediocre en el nodo. Tendrían que subirlas a más de 400W como mínimo. Y la arquitectura lo mismo, es un refrito con pequeñas mejoras frente a RDNA 3, la verdadera nueva generación será UDNA. Ese pequeño salto en especificaciones no hará milagros. Digo, ojalá fuera verdad, pero siendo honestos no tiene ningún sentido pensar que rendirá similar a una 7900 XTX salvo que todo lo filtrado sea mentira y la presentación una farsa de AMD para engañar. No sé, demasiado absurdo e irreal me parece.
Lo del chip monolítico era esperable... Porque AMD la pasó mal en la última generación de chiplets. PCI-E 5??? No le encuentro mucho sentido, a excepción que estén preparando algo con el Rebar. No sé... Esto huele raro.
Esto ya no es una guerra de GPUs, ahora es de DLSS vs FSR vs Xess, para ver quien saca más fps con menos potencia
😂 terrible se volvió eso, y lo peor de todo comiendo energia qué da miedo, se perdió el rumbo, y carisimo todo
@@jaimeandrade621como extrañare el rendimiento puro
Ya, pero es el futuro bro
FPS inventados no se te olvide 😅
Realmente esa "guerra" la planto nvidia y la va ganando porque ya iba adelantada... Entro a eso amd porque quiso pero pudo irse por otro camino...
Hay que coger con pinzas este benchmark, Daniel Owen ha testeado su 7900XT y 7900XTX con un 9800x3d y le ha dado una media de 67 y 77 fps con ambas, parece que el que hizo las pruebas no las hizo en settings ultra debido a un bug que hay en BO6, si cambias las opciones gráficas estas no se aplican hasta que reinicias el juego, así que podría ser que el tester creía haber hecho las pruebas en ultra y realmente estaba en bajo o medio. Aún así no pintan mal las 9070 después de todo.
Jmm ud estaba en las pruebas, para asegurar lo que dice ?
@@cristhianandres hasta que una Rx9070 rinde mas que una rtx4080 solo por una foto tambien es especulacion, SeelePLS escribe un dato, Dae da un dato, quieres ver pruebas? compra el hardware y haz tus pruebas, porque al parecer eres de los eruditos de YT que a todo le dicen Mentira
@@cristhianandres si es la payasa de ign la que hace las pruebas que se puede, esperar no sirven para nada jajaja
Hola Amigo Dae, gracias por los consejos, un abrazo desde Perú
Sé que en el directo anterior mencionaste que no te parecía lógico mi comentario, en el cual afirmé que, desde un punto de vista psicológico, la estrategia de AMD de retrasar su lanzamiento era genial, ya que servía para bajar los precios de NVIDIA o mejorar sus propios precios. Sostuviste que la creencia común, que sugiere que AMD temía la presentación de Nvidia, era correcta. A riesgo de sonar como un "fanboy de AMD" y de parecer insistente, me temo que debo reafirmar mi postura. La estrategia de AMD, aunque no fue del agrado de muchos, es excelente, ya que le otorga una pequeña ventaja y no se basó en el temor, sino en la intención de mejorar sus ganancias.
Además, esto también beneficia a quienes planeamos comprar productos de Nvidia, ya que ayuda a evitar o moderar el aumento indiscriminado de los precios de las GPU, como ocurrió en generaciones pasadas. Dae, sabes que soy tu suscriptor y te respeto, pero sigo creyendo que esta vez tengo razón.
Un saludo cordial.
Sin embargo, lo normal es pensar que si como empresa crees que tus productos son genuinamente buenos, no buenos en relación a tal competencia o la otra, sino simplemente buenos entonces no deberías andar con este tipo de estrategias de última hora.
Sabemos que las gráficas están construidas y sabemos que AMD informó hace tiempo que las iba a anunciar. No lo han hecho porque no había tiempo a cambiar los precios en el power point porque saben que su producto no vale más que el de la competencia.
Además, la negativa de no competir en gama alta solo se puede explicar si AMD no ha sido capaz de producir a escala los correspondientes chips a un precio lógico y esto redunda en precios altos en el resto de gamas que ahora hay que intentar corregir.
Como dijo Guillermo de Ockham, en igualdad de condiciones la explicación más simple suele ser la más probable.
La gente suele sobreestimar Nvidia y menospreciar AMD. Yo creo que amd va por buen camino, mientras de alternativas solidas a Nvidia. Intel tambien va dando pasos, me gustaría probar esta gen alguna gráfica de Intel a ver que tal
Si no ofrecen gama alta están perdidos nvidia en gpu son superiores y no tienen competidores hoy en día
@andresms8880 gama alta es lo que menos se vende en realidad
Tienes muchos amigos con una 4090?? @@andresms8880
De repente la cosa se pone interesante.
Lo de hacer una GPU monolítica no era para conseguir un tamaño más reducido sino para rebajar costes. Las RX 7900 XT y 7900 XTX si no recuerdo mal tenían un chiplet extra fuera de la GPU. Lo que han hecho aquí con las 9070 XT / 9070 es eliminar ese chiplet y meterlo todo dentro de la GPU y en consecuencia queda un chip de mayor superficie.
Es posible que las que saquen ahora sean pci 4.0 y vengan con esos pines pensando en las futuras xtx con 5.0?
Al final tendremos 10 fotogramas a 640 x 480 para acabar jugando a 200 fps y 4k 😂
tenia fe y tenia razon
Ese bicho es enorme
Por lo que estamos viendo, AMD se centraría en la gama media en precio/rendimiento, pero han hecho el mejor chip que podrían hacer. Simplemente ya no pueden competir en la gama alta y ajustarán los precios cuando sepan realmente el rendimiento de la RTX 5070.
Se están viendo rx9070xt totalmente monstruosas, incluso algunas con 3 conectores de alimentación. Nos imaginábamos chips pequeños y de bajo consumo, pero llegan sudando sangre para competir en la gama media.
Mi pregunta es hasta que punto perderemos rendimiento en placas que tengan pcie 4.0 con graficas de pcie5.0
No perderás nada o casi nada, igual que ahora los que tenemos placa o CPU con PCIe 3.0 y gráfica 4.0.
@TitanSP
Sí eso espero, he buscado información al respecto y en teoría prácticamente no se pierde nada, es como cuando por un ancho de banda compartido el pcie corre por 8 en vez de por 16, la diferencia es de 3 a 5 fps cmo máximo. Espero que no sea el caso, pero lo que a mí me escama es que una tarjeta como la 5080 o 5090 necesite el total del ancho de banda y que llegue a comerse los 16 carriles.
Pero AMD siempre tiene el mismo problema , cuantos juegos de salida tienen incluido FSR4 y cuanto tiempo van a tener que esperar los usuarios de AMD para poder sacarle partido a la gráfica... , porque si te compras una gráfica y tienes que esperar 6 meses o 1 año para aprovecharla...
Hay muy pocos juegos que hayan incluido FSR 3.1 hasta la fecha , van a tener que esperar lo mismo para que se incluya FSR4 también ?
A mi me gusta AMD , pero creo que las radeon 9000 solo es la transición para mejorar de arquitectura , pero no vale la pena comprarlas , la mayoría no traen encoding con hardware , tienen ram ddr6 y en el FSR4 aun siendo la misma serie 9000 la gama baja no podrá utilizar FSR4 .
El encoding no la tendrá la gama baja , osea gráfica de $200-$250 para abajo , tener GDDR6 es mejor en este caso , por qué con subir un poco más el bus de bits que Nvidia ya la igualan y tienen más vram
Y lo de FSR 4 que no se podrá utilizar en gama baja es un rumor muy resiente y dudo que se valla a cumplir
Además que con el poder bruto que te da por ahora no necesitas del rescalado para llegar a los 60 fps
Pero prácticamente cualquier grafica de hasta 2 generaciones atrás te da 60fps en ultra a 1080 quitando algunos juegos concretos muy exisgentes , no entiendo que quieres decir con eso , para llegar a eso no hace falta mucho ni una grafica nueva .
De todas formas el reescalado solo es importante hasta el limite de Hz de tu monitor , si tienes un monitor de 60hz , 144hz o 240Hz , da igual que el reescalado te de más de 300fps solo lo vas a notar algo más fluido , pero la sensación real de juego va a seguir siendo la del limite de tu monitor y la generación de fotogramas para juegos de un jugador esta bien , pero para multijugador o shooter competitivo no sirve .
Lo del FRS4 saldrá en 5 juegos contados de salida , y habrá que esperar mínimo 1 año y medio para tener un catalogo amplio de juegos que lo tengan , para eso teniendo el mismo rendimiento que las AMD 7000 preferiría estas o Nvidia que ya puedes aprovecharlas completamente desde que las compras .
Lo que me refiero de AMD es que a sacado un "refrito" rápido por sacar algo , si es con el mismo rendimiento o inferior que la serie 7000 la nueva arquitectura RDNA4 no vale de nada , que consume menos si y que ? , que aporta eso para que la compren ? , y que pasa para los que quieren gama baja por presupuesto o por lo que sea también quiere encoding con hardware , que buscaran opciones fuera de AMD .
Me dan igual las marcas tanto AMD , como Nvidia , Intel o la que sea , lo que quiero es que haya competencia real , para que una marca en este caso Nvidia no maneje los precios de mercado que le de la gana .
@@VeciDK vallamos por partes
Una RTX 4060 no da 1080p ultra 60 fps en todos los juegos , además en los juegos que saldran de aquí a 2 años no podrán , por qué a futuro los juegos son más exigentes , es como jugar con una 2060 juegos pesados de hoy en ultra a 60 fps
Sobre la generación de fotogramas estoy de acuerdo contigo
Pues se verá , si es que AMD cumple su objetivo de aumentar la cuota de mercado pues el FSR 4 se implementara más , o quién sabe , quizás AMD ponga algo de pasta sobre la mesa para que lo implementen
Sabes que llamas refrito únicamente por qué no superó a la gama alta actual que casi nadie compra? Si rinde como una 7900 xt y cuesta $500 ya está , es calidad precio y verás como se vende , no es necesario apuntar en la gama alta cuando se quiere subir cuota de mercado , ya que la mayoría de jugadores está en la gama baja y media
El encoding por lo que tengo entendido ryzen 7000 y 9000 lo tienen , además no todos hacen streaming y gran parte de las personas ni siquiera lo utilizan
En RDNA 4 lo principal que mejoro fue , mejor rendimiento , RT y FSR por IA , lo cual fue lo que más se le crítico a las RX 7000
Y probablemente serán baratas ofreciendo un buen rendimiento ¿Que más quieres?¿Gama alta? Pues ve por Nvidia , si sos uno de los poco que se compra una gama alta
Igual con la llegada de Intel , próximamente diseños de ARM y competidores de china como la MTT s80 , el mercado se llenará de competidores , lo cual nos conviene a todos
AMD esta de transicion durante 1 o 2 años con esta serie 9000 y me da que dará la mayor sorpresa con la siguiente gen cuando saque la gama alta y consiga pasar a Nvidia porque tiene potencial por explotar tanto en arquitectura de gpu, como con FSR, AFMF, en RT, en rasterizado y consumo energético y encima con mas VRAM que la competencia. En cambio Nvidia ya no tiene tanto margen de mejora y pronto todo lo que sube acaba bajando por su propio peso. Acuérdense
Si echamos la vista atrás, la última vez que AMD decidió no sacar gama alta fue el precedente de un hundimiento y estancamiento durante años que solo comenzó a mejorar en las RX5000. Desde entonces solo han demostrado clara mejoría con RX6000 ya que RX7000 ha sido muy mediocre respecto respecto de la anterior entendiéndose como un frenazo.
Esto no lo tienes en Nvidia y tendrías que remontarte a las Geforce FX de 1999 para ver algo similar.
En definitiva cada uno puede creer que en el futuro pasará cualquier cosa, pero si lo apoyas con datos objetivos mejor.
Si me bajan la 7900xtx de precio (menos de 600 dls) y le agregan el fsr 4 los perdonó 😂😂😂
hablame del 9955hx3d
¿estas cpu zen 5 pueden bajar el consumo en reposo de ryzen 9000?
El problema de las CPU chiplet para portátiles es el consumo de reposo
@@GamerBits ¿ pero lo mejoraron con zen 5 o sigue igualito en 30 vatios?
Creo que las comparativas rtx 5000 vs rx 9000 van a decantar un clarísisisimo ganador, PERO, si las rx 9000 tienen un buen precio, mejoran sobre todo en RT y a nivel de raster estan a la altura de las tope de gama de las 7000, probablemente sea una buena opcion para muchos. Aún así, a nivel de estrategia de lanzamiento e imagen de marca, han hecho una cagada que será recordada de aquí a futuros lanzamientos.
Esperemos que a nivel de precio u rendimiento lancen algo bueno , y en RT debe de igualar a las RTX 4000 , y por lo que presento Nvidia las RTX 5000 pegan un salto leve en RT
@traelkel8789 Salto leve en RT? Si es ahí precisamente donde dan un salto brutal.
@@EnxebreRCD pues yo vi el gráfico de Nvidia 4090 vs 5090 (no recuerdo en qué juego) con RT encendido y la diferencia era del 30% más o menos , y tengamos en cuenta que la 5090 tiene más potencia en raster , lo que quiere decir que el salto en RT es aún menor
En esta generación Nvidia duplicó la potencia de IA pero todo el resto apenas lo todo
@@EnxebreRCD y sabes a quien le beneficia eso? Adivinaste , al empresario multimillonario que comprara cientos de miles de estás 5090 , no al usuario común como tu o yo
En el benchmarking porque dirá? "Bottleneck 100%" Y en CPU los FPS van a 255!!! y las temperaturas están en 0 (cero), en lo que corresponde a RAM creo también está muy mal? ¿Usa casi pura Virtual RAM? Y la foto de la GPU sera falsa? Osea la motherboard tan pequeña es? La motherboard de la RX 7900 utiliza toooodo el ancho y los power sockets por lo mismo están en la orilla y está la tiene muy adentro. Creo esa GPU es la "Asrock Radeon RX 7900 XTX, 24GB GDDR6, Taichi OC" pero esta viene con Power sockets de 3x 8-pin!?!?!? Y la de la imagen un solo power socket! Si puedes aclarar esas dudas, que piensas? Saludos ✝🙏🖖
Es que en la siguiente generación le meten un sorpaso a Nvidia y me meo de la risa.
Y en la siguiente NVIDIA se lo devuelve xDDD
@@Fran_Caboy Pregunta a Intel. 😂😂
@@alersito Ya le pregunté y me dijeron que solo están de balde. 🤣
@@Fran_Caboy A mí me da la sensación que AMD tiene algo preparado muy gordo para la siguiente generación. Porque lo que está haciendo NVIDIA es estirar el chicle. Estamos ya con gráficas que consumen 600w y que van camino del tamaño de una lavadora.
@@alersito Tamaño de una lavadora? Se nota que no has visto el diseño de la serie 5000 xDDDDDD
Ahora si, ya se me hacia raro que amd no sacó nada.
Entonces, las nuevas tarjetas de AMD compiten con la serie 40 de NVIDIA y no con la serie 50.
@@luisgerardolopezherrera748 No soy fan de ninguna de las empresas pero cuando dices que no compite con la serie 50 te refieres al software por que no han demostrado la potencia sin esas tecnologías, tranquilamente compite si lo que muestran es verdad con la 5070 ti.
@@cristhianandres Me refiero a los números que se muestran en el video. Por otra parte, la potencia de las GPUs de NVIDIA es la IA, esas tecnologías están ahí para usarse. La tecnología avanza y cambia, la IA es el futuro, debemos ajustarnos al cambio y ver hacia el futuro, no quedarnos estancados en el pasado. (Yo de lo que sí soy fan es de tecnologías innovadoras).
@@cristhianandres siempre computen contra esa serie de las 70s para abajo ese es su mercado
AMD se quedó una generación atrás cuando sacó las RX500 que era un refrito de la serie RX400
@@gerardodelgado4715 Yo prefiero que todo me corra todo en ultra en nativo y buenos FPS que me maquillen cosas con Software te lo dice alguien que tiene una Nvidia . Es importante la IA si,pero la mayoría de desarrolladores no la implementa ni optimiza sus juegos.
AMD: Mi gente, pues nos quedamos en la gama Baja 🗣️🗣️🗣️
4:15 caca mala idea .... mu mala ...... para evitar ..
Es una completa tontería y sin sentido pensar que rendirá ya no más, si no similar a una 7900 XTX una gráfica de este segmento, considerando el mediocre salto en nodo y arquitectura.
Si es que las propias diapositivas de AMD del evento que serán lo más favorables posibles ponían a la 9070 XT máximo en el rango de la 4070 Ti.
La prueba tendrá algún bug en la configuración o será con alguna tecnologia que aumente los fps como eso de la 5070 rindiendo igual que la 4090 con MFG.
Ten en cuenta que la 9070 xt tiene 4000 núcleos mientras que la 7800 xt 3600 , y se rumorea hace meses que llegarán a los 3,2 Ghz mientras que las actuales solo llegan a 2,5 Ghz
Y sumado a una memoria caché L3 mejora (mejorada no me refiero a que simplemente le agregaron más , sino que la mejoraron)
Yo espero que sea como en los primeros rumores , $500 con rendimiento algo superior a la RX 7900 xt
@traelkel8789 no, 3.2Ghz no se van a alcanzar con esa mejora tan mediocre en el nodo. Tendrían que subirlas a más de 400W como mínimo.
Y la arquitectura lo mismo, es un refrito con pequeñas mejoras frente a RDNA 3, la verdadera nueva generación será UDNA. Ese pequeño salto en especificaciones no hará milagros.
Digo, ojalá fuera verdad, pero siendo honestos no tiene ningún sentido pensar que rendirá similar a una 7900 XTX salvo que todo lo filtrado sea mentira y la presentación una farsa de AMD para engañar. No sé, demasiado absurdo e irreal me parece.
Lo del chip monolítico era esperable... Porque AMD la pasó mal en la última generación de chiplets.
PCI-E 5??? No le encuentro mucho sentido, a excepción que estén preparando algo con el Rebar.
No sé... Esto huele raro.
Amd no gracias 😂,nvidia forever 😅
a ver
Si es asi tiene mas sentido esta gpu de amd ahora el precio es el que dictará que comprara la gente