¿Por qué NVIDIA rinde mejor en Minecraft que AMD?

Поделиться
HTML-код
  • Опубликовано: 18 дек 2024

Комментарии • 85

  • @Emmanuelito182
    @Emmanuelito182 6 месяцев назад +8

    @logee1043 2:19 Hola, yo soy programador y me especializó en java, y puedo decirte que minecraft java es tan demandante de procesador debido a que esta escrito en el lenguaje programación java (todo lo que acabo de escribir suena raro ,pero lo puedo explicar).
    En el mundo de la programación hay 2 tipos de lenguajes de programacion,por a decirlo, realmente hay más, pero cada tipo comparten uno de estos 2 tipos.
    Cuando escribes cualquier programa en cualquier lenguaje de programación, tú como programador tienes tus archivos con tu código fuente de tu programa,pero hay un problema, la computadora debido a que no es un ser vivo capaz de pensar y razonar como nosotros los humanos, no es capaz de entender el contenido de ese código fuente que escribiste, esto debido a que esta escrito en un lenguaje de bajo nivel (un lenguaje de bajo nivel es todo aquella forma de comunicación escrita que es entendible a simple vista sin importar en idioma en que esté eacrita[ por ejemplo en inglés o el español], osea nuestro código fuente tiene letras, caracteres especiales [como espacios,comas, puntos, etc.] Los cuales la computadora no es capaz de entender, para que la computadora comprenda nuestro código fuente es necesario compilar nuestro código fuente a lenguaje máquina también llamado binario o ensamblador,para ello se necesita de un programa llamado compilador que lo que hace es traducir nuestro código fuente que tiene caracteres entendibles para un ser humano, a código binario entendible para el procesador de la computadora).
    Ya sabiendo esto, dirán "¿y eso que tiene que ver con minecraft y su pésimo rendimiento?", pues tiene que ver mucho.
    Verán en el mundo de la programación, cada lenguaje de programación se clasifica de varias formas distintas según los paradigmas que intente satisfacer ese lenguaje. Por ejemplo si es un lenguaje para diseño web, o un lenguaje para crear programas para un usuario final (no recuerdo el nombre de esta clasificación), pero bueno en la segunda clasificación mencionada, se subclasifican de 2 formas distintas: lenguajes compilados y lenguajes interpretados.
    Los lenguajes compilados, son todos aquellos lenguajes en los que existen los archivos que contienen el código fuente entendible para un ser humano, pero al ser compilado, este código se transforma a un binario para que el procesador lo pueda comprender y ejecutar. Esto trae muchas ventajas, como un mejor rendimiento debido a que el procesador solo tiene que leer y ejecutar el código sin más, pero también trae varias desventajas como: el programa solo es compatible un sistema operativo (para hacer que el programa se pueda usar en distintos sistemas operativos y plataformas, es necesario modificar el código fuente para que corra en ese sistema operativo y plataforma, a esto es lo que en los video juegos se le llama un porteo), no son compatibles entre artitecturas distintas de procesadores (x86 [también llamada 32bits en intel y amd], x86_64 [también llamado 64 bits en Intel y amd], arm86 [procesadores arm de 32 bits], arm64 [procesadores arm de 64 bits] ,etc.) Para esto se tiene que volver a compilar el programa para que sea compatible con las arquitecturas de procesadores que se necesite.
    También el código fuente no es visible para el usuario final, ya que se encripta y se traduce a lenguaje binario para que procesador.
    En los lenguajes interpretados, se tiene los archivos con el código fuente, pero al compilarse se crea un archivo intermedio (esto es opcional para cada lenguaje interpretados [en el caso de java se hace esto]),este archivo intermedio se ejecuta encima de otro programa que interpreta, el código compilado y lo transforma en código máquina en tiempo real, para que el procesador pueda ejecutarlo (es como si se emular una consola dentro de tu ordenador), debido a que nuestro programa que escribió el programador se ejecuta encima de otro programa que este se ejecuta encima de sistema operativo, el ejecutar una cosa encima de otro, eso provoca una pérdida de rendimiento debido a la traducción en tiempo real y que el programa que está interpretados el código del programa tiene que ser capaz de ejecutar nuestro programa sin problemas.
    Y sepreguntaránn, "¿y de que sirve que existan los lenguajes interpretados si solo pierden rendimiento a comparación de un lenguaje compilado?", pues esto se hace para que nuestro programa se pueda ejecutar en cualquier sistema operativo (como Windows, Mac OS, Linux, etc.), es una forma de ahorrarle tiempo al programador al momento de crear su proyecto, y sin tener que preocuparse tanto sobre si es compatible con tales arquitecturas de procesadores o no, o si es compatible para tales sistemas operativos.
    En los lenguajes de programación interpretados, se puede tener acceso o no a los archivos originales donde se encuentra el código fuente del programa o no(esto depende de cada lenguaje), o también pueden no se puede tener acceso a ellos, y solo tener acceso a su versión compilada en el lenguaje intermedio( en el caso de java este lenguaje intermedio se llama bytecode), y estos dependiendo del lenguaje pueden estar encriptado y no ser legibles para el usuario final o no.
    Debido a que minecraft java está hecho en java, la jvm (java virtual machine) que es el intérprete de java, tiene que traducir el código del juego en tiempo real para el procesador, y la jvm pueda ejecutar correctamente el juego, esto hace que el juego pierda rendimiento y sea más exigente para el procesador que para la tarjeta gráfica, eso además de las malas prácticas de programación que arrastra minecraft java de la época de cuando notch aún trabaja programando el juego.
    Espero que esta explicación sirva para entender sobre los problemas de rendimiento de minecraft java

    • @natanaelbernal6868
      @natanaelbernal6868 6 месяцев назад +2

      Redactas demasiado bien, lo entendí perfectamente y no soy tan pro en esto de la informática XD good

  • @Lilfoxstars
    @Lilfoxstars 7 месяцев назад +7

    Yo probe ese mod de vulkan mod y te sere sincero es bastante bueno para los que tienen cpus limitados ya que tiene una opcion que hace que renderize con la gpu y baja la carga del cpu y puedes jugar con fps estables a 32 chunks con todo al maximo

    • @logee1043
      @logee1043  7 месяцев назад +5

      Los mods de rendimiento están mejorando un montón la verdad, me alegra mucho para los que tienen malos ordenadores

  • @furrystation
    @furrystation 7 месяцев назад +8

    3:06 que preciosa generacion alli

  • @xxlvxxrxx
    @xxlvxxrxx 7 месяцев назад +9

    si tenéis Minecraft java y tenéis Nvidia instalad el mod Nvidium. es una pasada

    • @alfonso5177
      @alfonso5177 7 месяцев назад +2

      En cuanto rendimiento es lo mismo que Sodium, solo que nvidium guarda en la VRAM los chunks cargados permitiendo verlos de lejos.

    • @xxlvxxrxx
      @xxlvxxrxx 7 месяцев назад +1

      @@alfonso5177 el rendimiento es ligeramente superior, aunque nada radical, pero lo que si es distinto es la velocidad de carga y descarga de los chunks

    • @alfonso5177
      @alfonso5177 7 месяцев назад

      @@xxlvxxrxx Por si solo nvidium no mejora la carga, ocupas de mods como Starlight y lithium, en mi caso con una 3070 nvidium da los mismos fps que con sodium, solo te permite tener chunks cargados guardados en la VRAM.
      En una RX 6700 XT sodium va un poco mejor.

    • @User_-kv2tr
      @User_-kv2tr 7 месяцев назад

      @@alfonso5177 Personalmente si me mejoró bastante el rendimiento, con una distancia de 32 chunks con una 4070 en 4k con nvidium desactivado tengo 400fps con cámara estática y 200fps en movimiento y con nvidium activado subió hasta 620fps con cámara estática y 520fps en movimiento, que yo sé que nadie necesita tener más de 520fps en 4k, pero bueno, la ganancia en rendimiento existe, y personalmente prefiero que se utilicen eficientemente los recursos del hardware

    • @logee1043
      @logee1043  7 месяцев назад +1

      En mi caso con nvidium instalado veo diferencia de fps, parece ser que a todo el mundo no le pasa lo mismo.

  • @Kendall855
    @Kendall855 6 месяцев назад +1

    ¡Gran video! Has hecho un análisis muy pequeño, pero excelente e informado. Aunque ahora que lo pienso, es muy obvio jaja, pero nunca me había dado un espacio para pensar al respecto y encontrar mi propia conclusión. Me has dado con qué entretenerme cuándo tenga libre jaja.
    Tienes toda la razón, Minecraft Java depende casi exclusivamente de la CPU, aunque esto aplica principalemente en modo "un jugador". Te puedo dar mi ejemplo: Yo utilizo actualmente una laptop con una 4060, mi modelo en específico es extremadamente similar a su versión de escritorio, pero mi rendimiento en Minecraft es muy similar a cuándo utilizaba mi laptop anterior con una 3050ti. También se puede ver como algunos creadores de contenido, con CPU's infinitamente más caros tienen problemas muy similares, y es que, sencillamente, Minecraft ya tiene un límite de rendimiento que no puede ser fácilmente superado por el hardware, se requiere primero solucionar todo el desmadre que tiene hecho Microsoft en el software de su juego.
    - Comentario: No es que mi 4060 rinda como mi 3050ti, pasé de jugar algunos títulos pesados entre medios y altos en 1080p a 60fps, a jugar todo lo más demandante del mercado en 1440p y configuraciones en el máximo que permita el juego (RT incluido)
    Minecraft Java es una versión Zombi. Hace MUCHO que Microsoft decidió e hizo de todo para matar esta versión, y lo consiguió, ya somos una minoría en el mercado de este juego y estuvimos a nada de ser extintos, pero ha sido la misma comunidad quién le ha dado una "segunda vida" con el uso de los mods, paquetes de texturas, series y experimentos, haciendo que sea lo suficientemente rentable como para que la compañía solo se moleste en tenerla como "una versión Legacy comunitaria" que viene incluida con la compra del "Minecraft Oficial", que es Bedrock.
    Las RTX modernas, como la serie 40, implementan un enfoque completa y totalmente centralizado en los escenarios modernos, como video juegos con alta demanda gráfica y técnicas actuales para la creación de entornos 3D, creación de contenido, entrenamiento de redes neurales. Que sea un poco mejor para Minecraft es algo al azar e incluso de suerte que debemos tomar con pinzas, ya que la comparativa que mostraste y la realidad al jugar Minecraft tienen un fallo muy grande.
    Ambos escenarios mencionados anteriormente limitan a cualquier RTX serie 40 a usar menos del 15% de su chip físico (disminuye a medida nos acercamos a la 4090, que ahí ya es menos del 5% de su chip), ya que este es justamente el apartado dedicado al rasterizado. En AMD constituye el 100% del "poder" de sus tarjetas gráficas, mientras que en Nvidia es solo un apartado que genera compatibilidad y una base para que el hardware principal se pueda desempeñar correctamente, es justo por ello que OpenGL y Vulkan va tan bien ahí, su objetivo es justamente mejorar el desempeño en software objetivamente obsoleto, para así tampoco perder terreno en ese área, pero no invertir más de lo necesario en un apartado que sencillamente no les interesa.
    En un escenario irrealista, pero hipotético, donde alguien quiera un ordenado para jugar EXCLUSIVAMENTE Minecraft, la 7800XTX sería mucho mejor que una 4070, ya que si adquiriera está última estaría desperdiciando al rededor del 90% de su chip total, aún habiendo pagado un precio bastante mas alto, por lo que podríamos concluir que las RTX solo son mejores si colocamos un escenario extraordinario donde todo le favorezca a la marca, pero en la realidad, cualquier RX es una mejor opción para este escenario hipotético, ya que al estar meramente centradas en el Software antiguo, obtendremos un rendimiento similar (en Minecraft), a muchas RTX, incluso de gama alta.
    - Comentario: El tema de la VRAM lo mencionas con bastante énfasis, pero este problema no existe en la serie 40 de Nvidia, ya que aquí se añadió una CachéL2 de tamaño colosal, esto permite que los productos sencillamente no requieran tanta VRAM ni BUS, y puedes verificar mis palabras al observar el rendimiento de una 4060ti de 8GB vs su versión de 16GB, solo en 4K se nota levemente la diferencia, ya que esta versión de 16GB se creó específicamente para entorno profesional (que es donde se usa de forma exagerada este recurso), como la opción "calidad precio" de bajo perfil por excelencia, no está hecha ni fue publicitada para Gaming.
    Es un caso parecido a la 3090, Nvidia expresó de forma tajanta a los creadores de contenido que NO era un modelo para Gaming, sino para trabajo.

  • @Mazxxx45
    @Mazxxx45 6 месяцев назад +1

    A mi me va mal cuando cargo nuevos chunks, (lo tengo a 32) pero es algo raro. (Con una 4080S)

    • @logee1043
      @logee1043  6 месяцев назад

      Si juegas vanilla es completamente normal, yo a 32 voy a 90-100 pero con un frametime que parece el himálaia

    • @Mazxxx45
      @Mazxxx45 6 месяцев назад

      @@logee1043 juego con optifine en java, ahora me pasa menos pero si es molesto esos micro tirones que da a 40fps

    • @logee1043
      @logee1043  6 месяцев назад

      @@Mazxxx45 Instálate el sodium, indium, fabric api el nvidium, ya verás como se soluciona, encima con los 16gb de memoria que tienes vas a poder jugar a 80 chunks

    • @Mazxxx45
      @Mazxxx45 6 месяцев назад

      @@logee1043 no solo 16Vram, si no 32 de ram, pero nose pq me va todo dlv el minecraft jajaja

    • @panchomosbe1797
      @panchomosbe1797 6 месяцев назад

      ​@@Mazxxx45cuello de botella?

  • @edujime23
    @edujime23 7 месяцев назад +2

    Hay un mod para fabric que hace que Minecraft use un renderer optimizado con Vulkan, Yo lo preferiría ya que Vulkan da un control más directo de la gráfica y reduce absurdamente el uso de la GPU, y a lo que e visto también aumenta los fps demasiado, en el video del mod logran que una rx 508 llegue a 600 casi 700 fps con los gráficos al maximo
    En resumen, usen Vulkan > OpenGL

    • @edujime23
      @edujime23 7 месяцев назад

      Y si mucho texto

    • @defe1981
      @defe1981 7 месяцев назад

      Como se llama el mod?

    • @edujime23
      @edujime23 7 месяцев назад

      @@defe1981 VulkanMod pero revisa que tú gráfica aguanta Vulkan si no ni el Minecraft se va a iniciar, puedes usar GPU-Z para ver si lo aguanta

    • @logee1043
      @logee1043  7 месяцев назад

      @@defe1981 Literalmente lo digo en el vídeo

  • @zayvander
    @zayvander 7 месяцев назад +5

    El render gráfico es un tema bastante complejo, especialmente pq depende de un motón de factores (la GPU, pero también el resto de componentes del ordenador, la API gráfica, la librería que conecte la API gráfica con el lenguaje de programación, el propio lenguaje, el shader que se esté utilizando, otros procesos que tenga el ordenador, prioridad, etc... y lo más importante, cómo de bien esté programado), así que es muy "atrevido" decir que x o y GPU funciona mejor para cierta API.
    Aunque es cierto que generalmente Vulkan es mejor que OpenGL hay muchos detalles que hacen que actualmente no sea tan utilizado. Vulkan y OpenGL funcionan casi igual, la principal diferencia es que Vulkan permite tener más acceso a la GPU que OpenGL, lo cuál de primeras puede sonar bien, pero hay que entender que bajar el nivel de abstracción de la API también hace que sea más difícil la combatividad con otras GPUs, hay más bugs y es un desarrollo más caro. Así que dependiendo del juego y de su exigencia gráfica uno será mejor que otro, sin contar que Vulkan es bastante moderno y todavía hay GPUs que no son compatibles, y de las compatibles, las hay que no están diseñadas para Vulkan.
    Lo de que Minecraft usa muy poca GPU es cierto, (seguramente pq se hico en una época en la que las GPUs no eran tan potentes y no estaba tan "de moda" llevar parte del procesamiento a la GPU) lo que hace que sea casi insignificante usar una de AMD, Nvidia o incluso una de Intel siempre que el resto de componentes del PC estén equilibrados (tener una super GPU con una CPU y RAM patata solo empeora el rendimiento tanto de la GPU cómo de la CPU y la RAM).
    Lo que hacen la mayoría de mods de rendimiento (aunque cada mod es un mundo, pero en términos generales) es llevar parte del procesamiento a la GPU y quitar características gráficas que gastan muchos recursos, por ejemplo Sodium aumenta mucho los fps, pero quita el antialaising (un post-procesado bastante caro) y recorta mucho en renderizado de transparencia (lo que causa varios bugs), así que dependiendo de tu equipo y de lo exquisito que seas habrá unos mods que te vengan mejor que otros: lo mejor es probar unos cuantos y quedarte con el que más te guste.
    Aprovecho para decir que tener mas fps de los que puede mostrar tu pantalla es una pérdida de recursos y un gasto de componentes, ciudad a vuestra GPU y no os pongáis a 120fps con un monitor de 60Hz :)

    • @sebastianandres6802
      @sebastianandres6802 6 месяцев назад +1

      (Un poco de mucho texto)
      Que el juego vaya a más fps que hertz técnicamente no es tan desperdicio ya que al tener los FPS a más de 60 hace que (valga la redundancia) la imágen del juego internamente se actualice a más de 60fps, lo que se traduce a qué la información que llega a la pantalla es en promedio más precisa a la información que le llegaría si estuviera capado a 60fps. Esto haría 2 cosas: que la imagen que tú ves en pantalla sea la que más está a "tiempo real" y también reduciría la latencia que hay entre el pulsar una tecla o un click y ver la acción que hiciste con el periférico en la pantalla. Más que nada la latencia es lo mas importante.
      Aún así los limitadores de fps en los juegos te baja la latencia igual por lo que limitar los FPS sigue siendo lo mejor (mientras que los FPS limitados estén más cerca de los FPS que obtienes sin limitar, mejor), solo que decir que es un desperdicio ir a más FPS que los Hz del monitor con el argumento de que el monitor no lo puede ir a más hercios que los FPS del juegos no es correcto, si hay beneficios significativos en tener más FPS que Hz del monitor.
      Lo que he dicho hasta ahora es para corregir eso, pero si eres alguien que no le importa realmente pues también es válido, puedes jugar con los frames limitados al los Hz del monitor y jugar sin ningún problema, no estoy diciendo que no lo hagas.
      Buen comentario también, lo del tema de las API y que un juego u otro vaya mejor en una GPU u otra es una cosa complicadisima y das bastante luz en el tema.

    • @zayvander
      @zayvander 6 месяцев назад +1

      @@sebastianandres6802Sip, el G-Sync podría llegar a solucionar los problemas de latencia de la forma mas óptima posible, pero hay pocos monitores y gpus compatibles :(

  • @Crish2482
    @Crish2482 7 месяцев назад

    bua que locura de video, has condensado bastantes conceptos y mucha informacion en muy poco tiempo, mis dieces

    • @logee1043
      @logee1043  7 месяцев назад

      Muchísimas gracias crish! La mayoría de cosas se me escapan pero siempre intento explicarlo lo mejor posible!

  • @Jon-sj5jr
    @Jon-sj5jr 6 месяцев назад +2

    Buen video Logee🙌
    Que recomendarías para jugar minecraft en un PC Humilde en estas situaciones:
    1- Sin Mods
    2- Mods Forge
    3- Mods Fabric

    • @logee1043
      @logee1043  6 месяцев назад

      Depende del presupuesto que tengas, hay muchísimas opciones

    • @Jon-sj5jr
      @Jon-sj5jr 6 месяцев назад

      @@logee1043 Un portátil sin gráfica con un i7 de décima

    • @logee1043
      @logee1043  6 месяцев назад

      Métete los mods de rendimiento ahí, sodium, indium y el fabric api, tendrías que ir volando con eso :D

  • @TerrazasLeonel
    @TerrazasLeonel 7 месяцев назад +3

    De todas formas en Minecraft mi GPU y cpu nunca se acercan ni al 50% jaja

    • @DizzyEx
      @DizzyEx 7 месяцев назад +3

      Aún no superó la sensación de haber pasado de la noche a la mañana de una laptop que no podía con las últimas versiones al mínimo de gráficos a una laptop que puede con los chunks a tope y con shaders

    • @filamanu
      @filamanu 7 месяцев назад +2

      @@DizzyEx espero experimentar eso pronto

    • @TerrazasLeonel
      @TerrazasLeonel 7 месяцев назад

      @@DizzyEx pues al menos te corrian las ultimas versiones jaja, en parte te entiendo pues yo jugaba en una laptop del 2007 con un celeron de 1 nucleo y 512mb de ram, apenas pude con la 1.7.2 a 15 fps o 20 fps max y asi jugue durante años, recien en 2020 que tuve una laptop mas decente +200 fps pero ahora tengo una pc mucho mejor que son +500fps, bonita sensacion :')

  • @frijulen0751
    @frijulen0751 7 месяцев назад +17

    Este video está patrocinado por Nvidia, para cuando te envían la titan z?

    • @logee1043
      @logee1043  7 месяцев назад +14

      El día que nvidia sponsoree un vídeo mío ya habremos ganado

    • @IscAst4
      @IscAst4 7 месяцев назад +1

      @frijulen
      Logee te dolió la razón

    • @Distoupia
      @Distoupia 7 месяцев назад

      ☠️☠️💀💀 la titan z y su vram...

    • @aorushlcf3522
      @aorushlcf3522 6 месяцев назад +3

      Fanboy de AMD deja que Nvidia y AMD se peleen por eso aparte la marca no te regala sus productos aparte la competencia nos beneficia tu porque te tienes que defender a uno o al otro pero si es muy cierto que en Minecraft Nvidia saca más FPS que AMD por el momento

    • @liamjackaldump
      @liamjackaldump 6 месяцев назад

      Titan Z? Pfft mano sabías que dentro de unos meses sale las RTX 50?

  • @SamRecon
    @SamRecon 6 месяцев назад

    Simplemente nvidia rinde mejor en opengl aunque ya no es tan usado a favor vulkan que seria la evolucion del primero como llamadas bajo nivel.

  • @davidorellana971
    @davidorellana971 7 месяцев назад

    Lo que me llama la atención es que los cods las gráficas AMD son las que sacan más rendimiento contra similares de Nvidia en potencia gráfica, me parece curioso

    • @logee1043
      @logee1043  7 месяцев назад

      Cierto, en ese caso no sé porqué será, supongo que al tener muchos devs de consolas, y las consolas al llevar AMD pues optimizan para dicho hardware, pero idk

    • @zayvander
      @zayvander 6 месяцев назад

      Principalmente es porque las de AMD soportan cómputo asincronado y tienen mayor ancho de banda. (Nvidia también, pero solamente con las más modernas)

    • @m0r4ag
      @m0r4ag 6 месяцев назад

      No es curioso, simplemente son convenios en donde los desarrolladores se dedican a optimizar mejor especificaciones AMD, como en RDR2

  • @bestbogota9558
    @bestbogota9558 6 месяцев назад +1

    tengo amd radeon rx 7600 xt es hermosa

  • @filamanu
    @filamanu 7 месяцев назад

    jsjsjsj DIOS GRACIAS estaba buscando justo algo que habla de esto, me voy a comprar una rx 6400 para una pc de oficina y pese a que la 1060 gtx es mas vieja rinde mejor en el minecrafr 1.8.9 grabando incluso todo maximo da minimo 500 fps pero es algo mas del codec de grabacion

    • @logee1043
      @logee1043  7 месяцев назад

      Buah ve a por la 1060 de cabeza, tiene más vram encima no?
      Muchas gracias por el comentario😊

  • @rio-dq9sc
    @rio-dq9sc 7 месяцев назад +5

    La duda real es "porque cualquiera que sepa configurar su PC puede siquiera considerar que AMD te rinde mejor que cualquiera".
    Si hoy nvidia saca sus CPU de escritorio probablemente destrone a AMD.
    Esos manes tienen una súper computadora de entrenamiento virtual que se testea en todos los escenarios registrados de los PC de las personas.
    Los FPS ni siquiera son un estándar de medición.

    • @Soki1933
      @Soki1933 7 месяцев назад

      Uhg?

    • @User_-kv2tr
      @User_-kv2tr 7 месяцев назад

      ojalá tando AMD como Nvidia se avienten a migrarse a ARM, le vendría super bien a los ordenadores de sobremesa ese desempeño

    • @logee1043
      @logee1043  7 месяцев назад +2

      Quiero que pienses detenidamente en la tontería de proporciones bíblicas que acabas de soltar.

    • @rio-dq9sc
      @rio-dq9sc 7 месяцев назад +1

      @@logee1043 Em amigo, a mí me tocó ver ese servidor de entrenamiento por AI con ambientes simulados. Con centenares de pruebas corriendo al mismo tiempo.
      Muchas empresas estamos evaluando el como se ejecutara el SO en esos ambientes. Enserio ese mega servidor que desarrollaron es una bestialidad simulando ambientes, los tiempos son absurdamente bajos y los recursos igual.
      No sé que tan cerca estés del sector profesional(no de modernidad), el área profesional de desarrollo de nuevas tecnologías(osea las cosas que veremos en 1/3 años).
      Pero la simulación de el ambiente de nuestros usuarios se esta viendo cada día más comun a medida que nvidia lanza nuevos chips. Porque nos ahorra mucho dinero.
      Ya tenemos hasta presupuestos aproximados de sus CPU futuros.
      AMD es una basura. Te lo digo yo. Fuera de usar sus CPU para servidor por disponibilidad y ahorro de costos.
      Realmente no aportan nada ni sus CPU ni GPU a nivel empresarial.
      Muchas empresas han estado quitando sus colaboración con AMD porque "no entregan soluciones y se niegan a liberar los registros para que lo solucionemos nosotros".
      Lo que cuesta millones en gastos operativos.
      Cómo se traduce esto? Si la empresa del SO que te gusta no libera parches constantes tiendes a tener problemas "que crees que son nuestros" e incluso errores críticos.
      Es tan ridículo que cada que alguien menciona un problema y menciona a AMD "muchos de los departamentos de desarrollo se rien". Porque desde zen3 AMD es una broma que no puede dejar de generar errores cada día(literal).
      Con Intel por ejemplo la mayor parte de sus problemas vinieron de "configurar los e-core" luego de unos 4 meses de problemas(y muchas Interacciones), además de pruebas de rutina o uno que otro error raro cada semana, es bastante tranquilo.
      Y repito: lo digo como alguien que debe ver esas necesidades a diario.

    • @Eduardo664MX11
      @Eduardo664MX11 6 месяцев назад

      ​@@logee1043pues yo si he escuchado lo que dice el tipo, básicamente en un día hacen el trabajo que hace AMD en meses, en un solo día, AMD e INTEL se están quedando muy atrás, sobre todo INTEL.

  • @1shiiroxy
    @1shiiroxy 7 месяцев назад

    Si dices que funciona para las targetas nvidia, funcionara para todas? Osea por ejemplo la 1030, o no se talvez si pero con un menor redimiento, y ahora hablando por parte de amd, pongamosle un radeon vega 8 o 7, que segun rinde igual que una 1050 o 1650 no recuerdo, buscando, el complemento que dijiste (si existe?) Tambien mejoraria el tiempo de carga? O solamente funcionaria para tarjetas dedicadas, aunque claro tendras menos ram y el cpu se esforzara un poco menos, por parte de intel, he probado una inter iris con el minecraft 1.20.4 va exepcional, 200 fps y con shaders los complementary a 720p te puede alcanzar la media de 110 fps en 12 chunks si mal no recuerdo, aunque para los demas juegos la iris se queda un poco mal por que no esta optimizada aun

    • @TheSpookyOficial
      @TheSpookyOficial 7 месяцев назад

      Nvidium usa mesh shading es complejo de explicar si te interesa el tema puedes ver un video hay muchos en Internet,amd es compatible con los mesh shading a partir de las rx 6000 el problema es que aun no los han implementando en openvcl por otro lado nvidia es compatible con los mesh shading a partir de la serie 20 por lo que si tienes una gpu de una generación anterior a esta tampoco podrás usar nvidium sobre el rendimiento de las gpu amd depende de la versión de minecraft que juegues las modificaciones que tengas y el modelo de gpu que tengas como tal pero en términos generales las gpu de ambas marcas deberían ir relativamente iguales en sus equivalentes también depende de que tan quisquilloso seas con los detalles etc por ejemplo algunos mods de optimizacion desabilitan ciertas configuraciones gráficas que consumen muchos recursos para mejorar el rendimiento y eso puede ser algo bueno o no dependiendo de tus gustos,otra cosa he visto que últimamente mods como nvidium y distant horizons se están usando mucho y algo a tener en cuenta es que estos mods están en beta y tienen muchos errores así que no se que tan conveniente sea tenerlos,por cierto si no me equivoco una vega 8 es equivalente a una 1080

    • @dtarshed2156
      @dtarshed2156 7 месяцев назад

      ​@@TheSpookyOficial Ay, recomiendo usar signos de puntuación como las comas y puntos, puedes expresar mejor las ideas xD

    • @logee1043
      @logee1043  7 месяцев назад

      Es lo que dice el compañero, nvidium usa mesh shaders y eso lo tienes a partir de nvidia turing (no sé si las gtx 16 lo tienen), pero si vas sin el mod todas las gpu de nvidia usan cuda así que te verás beneficiado de todas formas.

    • @TheSpookyOficial
      @TheSpookyOficial 7 месяцев назад

      @@logee1043 si no me equivoco minecraft no aprovecha los cuda cores seria mas los rt cores para el tema de los shaders con ray tracing como seus ptgi etc aunque siendo sincero posiblemente para tener una tasa de fps decentes con ray tracing a full tendrias que tener como minimo de una 3070 para arriba y para minecraft bedrock con path tracing mas de lo mismo aunque tiene dlss y eso puede ayudar dependiendo de tus preferencias

  • @NickT9330
    @NickT9330 6 месяцев назад

    La 7800xt no compite con la 4070 super, la que compite con la 4070 super es la 7900gre. La 7800xt compite con la 4070. Estaría bueno que compares un mundo con nvidium y sin él para ver la diferencia de rendimiento y ver si vale de verdad la pena descargarlo. Saludos.

    • @logee1043
      @logee1043  6 месяцев назад +1

      Buena idea! Corrijo el error en el vídeo, si no te has fijado :D

  • @renzogallegos5877
    @renzogallegos5877 3 месяца назад

    Ni idea yo juego Minecraft en PS4 y solo creativo y supervivencia nada mas...

  • @SpreekkPlay
    @SpreekkPlay 7 месяцев назад

    Buen video ingeniero licenciado

  • @SrCuttyFlam
    @SrCuttyFlam 7 месяцев назад

    Buen video tío!

    • @logee1043
      @logee1043  7 месяцев назад

      Gracias cutty!😘

  • @altex3
    @altex3 6 месяцев назад +1

    Buen video

    • @logee1043
      @logee1043  6 месяцев назад

      Muchas gracias!