Si el video sale en ingles es que RUclips ahora los dobla con IA! puedes cambiarlo El procesador es impresionante para tener 10 años , lastimosamente son solo 4 nucleos y DDR3 y se queda corto no seria una opción interesante hoy! Pero esto demuestra que INTEL tenia y tiene tecnología para poder aplastar a AMD
el problema de intel no es su tecnologia, es su manejo. Es cuestion de mirar y ver como se hundio en la bolsa, retrocediendo a valores de hace 16 años. Todo tiene que ver con todo..
Ese procesador es como Marty McFly tocando Johnny B. Goode para luego decirle a la multitud "Creo que ustedes aún no están listos para esto, pero a sus hijos les encantará".
@@kure2658 -Lisa? Soy Marvin Lisa- quien? 🤔 Marvin- tu primo Marvin Sue... Recuerdas la innovación que estabas buscando? Escucha esto! (Show de fondo) 📞🔊
Q raro que recién te enteres, llevo más de 15 años en el negocio de las pc, y cuando eran allá por el 2015 me llamo la atención que solo habían los de quinta generación en laptops, me puse a averiguar y si había para pc, pero no podía traerlo de eeuu a Perú, Amazon estaba verde, después de años en uno de esos foros de tecnología un ex trabajador de intell qué hacia publicaciones respondió a esa pregunta y dijo que era porque no había pasado las pruebas de rendimiento para aplicaciones, recuerda q en esa época no le daban mucha bola a lo gaming, y se centraron en la línea corporativa, aparte no tenían competencia, hicieron refritos hasta la gen 10 cuando vieron q amd estaba peleandoles
No iba a 65W porque a Intel le preocupaban los arbolitos, iba a 65W porque todas las CPUs que estrenan un nodo nuevo son terriblemente inestables, le paso lo mismo al i7 4470K.
@@SakuraDoll-C si algo parecido entendí, estaba en los grupos gringos de reddit de tecnología y hasta leí lo mismo en discord, la cuestión actualmente es que porque no mejoran esa idea y la actualizan para gen 15, y digo 15 porque para mi esas core X no existe
Para nosotros los consumidores es mejor que lo sepan, porque al dar la talla y competir con otras empresas el que tenga el mejor costo beneficio sale ganando, core ultra ha sido un frasco porque no fue exactamente lo que los consumidores querían y aunque bajen los precios seguí siendo una opción que muy pocos tomarían, sin embargo con esta tecnología le daría más valor a sus cpus y la lucha que ha tenido siempre con AMD se mantendría y eso se traduce que si o si AMD se obliga a inovar y competir y al mismo tiempo los precios bajen ñ.
aqui un ex miembro de los crasheos de intel y haber tengo el i9 14900K y con la mejor liquida de corsair para refrigerarlo, ahora esta arreglado con la nueva bios de intel pero el CPU pasaba los 100 grados ahora sigue calentando hasta 90 y poco mas pero no peta y funciona perfecto ahora, y yo desarrollándooslo en unreal engine estuve al borde de morir ebria el engine y pasaban 5 segundos y explotaba todo...
Esto me recuerda a la tecnología SLI de 3dfx/Nvidia, que fue enterrada porque con dos gpus de modelo anterior podías superar con creces las gpus de nueva generación
Algún día vendrá alguien que sepa de las arquitecturas con la que se fabrican las gráficas y con sus herramientas y los huevos bien puestos revivirá el SLI en gráficas
Yo por 2016 hablaba con un señor de una tienda de hardware en argentina local de la zona, y el ya me habia dicho que el rendimiento real del CPU se encuentra en la caché. Veo que realmente no mentia en absoluto, es impresionante.
Ojala hables de la serie 50, aun que todo mundo este hablando de ellos, hay mucho hype y desinformación o información incompeta y tu eres una de mis mejores fuentes de información en este tema, como siempre excelentes videos! Saludos desde Chihuahua, MX.
La 5th Generacion de Intel fue muy infravalorada y demasiado extraña. Cuando arme mi primer PC andaba buscando lo mejor calidad precio. Y me tope con la 5ta Generacion, pero al no encontrar una buena placa y un CPU me fui por la 4ta y me quede con mi flamante i7 4790K que aun es mi PC principal y por ahora ha podido con todo. Solo con el Minecraft si se muere a veces. P.D No exploten más de 20K de TNT a la vez.
La quinta generación es compatible con el socket LGA 1150 de cuarta generación solo si es chipset H97 o Z97. 😉 Yo tengo el poderoso Xeon E3 1285L V4 y creo que ese procesador es incluso más poderoso que el i7 5775C
Por eso me compré un Ryzen 7 9700x y ningún problema, no lo overclockee aun pero la verdad que anda perfecto, ni un solo crasheo ni nada raro, ahora esperando para actualizar la gráfica que la 1070 ya está viejita :(
@@say4301 yo lo tengo y es impresionante lo bien que se mueven los juegos sin crasheos y le subí el tbp a 105 w y anda impecable sin levantar altas temperaturas.
Yo hace un año renové el PC, tenía un I7 5820K overclockeado a 4,5, y con la 3070 iba de escándalo en cualquier juego, aunque obviamente en algunos juegos se ahogaba un poco, pero sobre todo lo noté en programas de trabajo para edición y diseño, por lo que me acabé comprando un 14600k que heredó la 3070. Pero ahí sigue, le monté una 660 que tenía por ahí y sigue siendo un pc muy funcional y lo uso como pc secundario, aunque cuando me pille la 5070Ti le volveré a montar la 3070. Me dio mucha pena cambiarlo, mi idea era aguantarlo unos años más, pero al final me pudieron las ganas de renovación. El 5820k es de 2014, 6 nucleos 12 hilos, yo lo compré en 2016... y a día de hoy sigue dando la talla, es flipante.
@sfdxshow Me gustaría saber que opinión tienes sobre los quad-channel como el i7-6800K y que potencial o decadencias tienen con los actuales. En otras palabras "¿Por qué dejaron de existir?"
Que buen vídeo ¡. Y Microsoft queriendo obligarnos a cambiar de pc cuando hay muchos procesadores supuestamente obsoletos que van increíblemente bien....
Sin duda el cache es importante pero también debe tener una buena interacción con el orden del procesador y muchas cosas que no entiendo pero sin duda es lo que mejora a gran medida las velocidades de un procesador.
Wauuuuu que buen video que lastima que no siguieron con ese diseño de CPU intel, Sfdxshow cual seria el mejor procesador por lado de Ryzen o intel para tener un PC poder estudiar y desarrollar inteligencia artificial.
Pues sí, muchas veces nos empeñamos en mirar que es lo que tiene mejor el vecino, sin darnos cuentas que lo mejor ya lo tenemos en casa, siempre grande tan grande Show
Puse el video y me empezó a hablar una voz distinta de la se Antonio, y en inglés, pensé que era una propaganda y era que estaba configurado en inglés, que bueno que te estés expandiendo, mucha más gente debería ver tus videos, maquina
Gracias Antonio, siempre quise ver esa CPU funcionando. Genial por tú parte. Esa CPU lleva GPU integrada? Si es así podías compararla con otras de esa época, integradas.
Menuda bestia avanzada a su tiempo salió en su dia. Nuestros amigos chinos hacen placas base más actuales para los Intel xeon con ddr 4 y demás... Solo de imaginarme una placa base de estas chinas con ese procesador... Pero desconozco si habrán placas base de estas con el socket de este procesador
Un procesador actual con eDRAM no podría garantizar una ventaja frente a los Ryzen en términos de relación costo-rendimiento. Las pruebas de juegos muestran mejoras específicas, pero no demuestran una superioridad general. Además, implementar eDRAM es significativamente más costoso y complejo que la caché 3D de AMD, lo que reduce su viabilidad comercial frente a las soluciones más eficientes y rentables de AMD. Probablemente, Intel implemente su propia caché 3D en algún momento. Aun así, interesante video.
Hermano, no tengo ni grafica ni pc armada(tengo una all in one) y aun asi me miro todos tus videos como si supiera jaja alto contenido loco saludos de argentina
hola , yo compre un i5 13400f y me tiro un par de pantallazos azules ...actualice la bios del mother asus b760 , hasta en la bios bajo el voltaje de funcionamiento con la nueva bios ....
Este es el que tengo i7-7700HQ en mi portátil y me encantaría poderlo usar en un sobre mesa modo experimento lo que no se si estará en la placa base integrada. A dia de hoy tira como un animal este procesador.
Los que te dieron "Me gusta" son igual de ignorantes que tu comentario... Es solo una caché de cuarto nivel, más lenta que la L3 pero muchísimo más rápida que la RAM... y no tiene nada raro, solamente que son mucho más caras.
@@josel.p.2822 Tampoco. La eDRAM no es una caché de cuarto nivel porque no la utiliza el CPU sino el GPU integrado. La eDRAM (Embedded DRAM) es una memoria integrada en el procesador que se utiliza específicamente para respaldar el funcionamiento del motor gráfico Intel Iris Plus. La caché L3 es una caché de escritura simultánea que respalda la ejecución de los núcleos del procesador. No existe una comparación real que permita decir que uno es mejor que el otro. Hacen cosas diferentes, de maneras diferentes, en nombre de diferentes partes del procesador.
Me apena escuchar que los "FX" fueron malos, y que tantos se vendieron y hasta hace poco mucha gente los usaban. Yo tengo un FX-6300 de serie desde el 2012 y no he tenido ni el más minimo problema, ni siquiera de temperaturas (sí que eran algo calentitos, pero peores eran cualquier cpu de portátil en esa época). Lo tengo jubilado junto con mi 1050ti, que tan buen resultado por poco dinero me ha dado este combo.
Hola Show! tengo pensando hacer una PC nueva gamer, pero ahorita estoy metido en otros gastos y me gustaría tu comentario una lista de que comprarías primero y que al final, gracias !
por cierto que, venia para socket 1150(mismo que el de 4ta gen), deslimitado, con 128mb de cache l4, los primeros con los 14nm, y venia con un integrado grafico intel iris 6200, que a pesar de ser mas viejo podia compararse con los primeros vega 8 de ryzen; la falta de competencia hizo que intel no se enfocara en lo bueno y terminamos en la historia que todos conocemos hasta la 7ma gen y asi
Haces bien en ponerle asterisco a las rtx 5000, ya muchos viewers están filtrando qué es solo software IA, no hay mucha diferencia en la base de hardware, y es cosa de tomar con pinzas porque al final todo dependerá del juego lo soporte, en cuanto al anuncio fue pobre, casi todo el espacio se dedicó a hablar de las IA, es decir, nvidia esta dejándonos migajas
Yo soy más de AMD, me gusta más su filosofía, pero eso no quieta que sé lo que fue Intel y sé lo malo que es que una compañía domine un mercado, para ojos de los consumidores, que somos nosotros. Ya fue malo cuando Intel dominó los 32 bits y tenía precios abusivos, además de parar el mercado en los 32 bits por tener una competencia casi muerta. Espero que Intel se recupere y que vuelva esa competencia que les hace apretar a las dos compañías a tope y sacar lo mejor de ellas al mejor precio para nosotros. Estoy viendo como AMD ha hecho un poco de mejora sobre la serie anterior (no sé si es que no la están exprimiendo mucho), pero es que no le hacía falta mucho más, por lo que se está volviendo vaga, como aquella Intel de 32 bits. También me gustaría ver más competencia, como cuando Motorola y Cyrix estaban dando palos. No es que molestaran mucho, pero oye, ahí estaban. Estaría genial que hubiera más competencia. También en gráficas, puesto que se aplica exactamente lo mismo.
Cuanto más miniaturize necesitarán silicio más puro ,ese es el problema no el priblemon hacia el que va la microelectrónica,El cuarzo material junto al carbono que se utilizan para los impos de silicio de los componentes electrónicos,generalmente se obtiene de arena con sustrato de limos ,ese tipo de arena la ideal para "imprimir" semiconductores en capas , actualmente la de "mejor calidad" y relativa facilidad de extracción está en los mares de asia ,en conflicto entre china las dos coreas y un Japón que fue desplazado hace alos
impresionante, la verdad mi corazoncito esta con amd, pero me encantaria que los azules retomaran el camino de las cpu´s y de paso tambien se unieran a las grandes ligas de las graficas o por lo menos a las tarjetas de IA
Es lógico que no hicieran más procesadores ya que no merece la pena tener un procesador potente que impida la venta de futuros procesadores potentes, tú lo has dicho quién vende bombillas gana cuando estas se funden, años atrás los dual core muchos de ellos al hacer overclock se quemaban y era rentable pero actualmente mi haciendo overclock se suelen quemar.
Se supone que, en su momento, aumentar la cantidad de memoria L-Cache incrementaba la latencia del procesador. Esto puede ser bueno o malo dependiendo del uso: para ciertas tareas, podría resultar beneficioso, pero en cálculos intensivos podría hacer el procesador más lento. Esto se debe a que la velocidad de lectura/escritura de cada nivel de L-Cache disminuye conforme crece su tamaño y distancia, siendo la L1 la más pequeña y rápida, y así sucesivamente, aca se habla de una L4... y fuera del procesador... para esta epoca con DDR3 igual debia ser muchooo mas rapida, pero en la actualidad sin apilarlas como AMD, deben ser bastante lentas para la necesidad actual. AMD logró mitigar este problema al apilar la L-Cache (como en sus procesadores con 3D V-Cache), lo que permitió aprovechar las ventajas de una mayor capacidad sin impactar tanto en el rendimiento. Sin embargo, esto aumentó significativamente el costo de producción. Por otro lado, Intel podría haber considerado que esta estrategia no era rentable en términos de costo-beneficio, ya que históricamente han enfocado más sus productos hacia empresas y servidores que hacia el mercado de PC gaming, a pesar del marketing que promocionaba sus procesadores como los más rápidos para juegos, muchas veces mediante overclocking en modelos existentes. En última instancia, todo se reduce al costo-beneficio. Es probable que algún ingeniero haya buscado implementar mejoras innovadoras, pero las prioridades financieras y la presión por obtener resultados rápidos habrían frenado esos desarrollos. Investigación y desarrollo (IyD) puede generar ideas prometedoras, pero las finanzas y los intereses corporativos suelen limitar su alcance.
Capaz escondían algún tipo de fallo o vulnerabilidad o simplemente eran caros o difíciles de producir, dudo que habiendo tenido esa formula ya una vez la hayan desechado por nada, si mal no recuerdo también llegaron a probar algo parecido llamado Intel Optane para ayudar el almacenamiento pero visto que no es un estándar hoy en día parece que tampoco rindió frutos porque por lo visto era demasiado cara, al menos para ese entonces.
Ya decía yo que recordaba algo medio extraña esa generación de Intel, siempre se me hizo curioso que cuando estábamos ya en la sexta generación, era más probable ver a la venta un procesador de cuarte, que de quinta, de hecho, nunca vi un i5 en venta.
hey @sfdcshow Espero que todo bien, no se si te has enterado pero esta lo de auto dubbing, quizas algunos de tus seguidores le moleste eso. En mi particular no me molesta cambiarlo, pero se que alguno estaran estresado. Si es de ser posible crees poder quitar la opcion a los nuevos videos que suban. Claro entiendo que dependera de tus suscriptores y seguidores mas que de uno solo. Pero solo digo quizas sea mejor como no :) Nada primera vez que te escribo y me ha encantado todos tus proyectos que has hecho.
Ojalá Intel vea este video, por qué si no se ponen pilas dejaran a AMD sola y el tal costo beneficio que siempre a habido entre estas dos empresas al competir desaparecerá poco a poco.
Buenas tío he visto que al final le haces OC con el Intel XTU pero en mi pc (moderno) que he instalado el ShowOS v2 no me deja instalar el Intel XTU tras varios intentos y no entiendo por qué
tio tengo unn desafio que no pensaste nunca !!! es adaptar un splitt del aire acondicionado a la cpu. seria usar el intercambio de calor para enfriar la cpu. te desafio.
Ese es el funcionamiento básico de los heat pipes de Los enfriadores por aire genio. Tienen una mezcla de un alcohol con un derivado de glicerina y hacen ese ciclo de enfriar, calentar qué teorías
Porque no puedo desactivar la pista de audio doblado al inglés, van varios videos de este y otros canales que me los reproduce con el audio doblado por IA y no logro encontrar como cambiar para el original
Hay una cosa que no entiendo de esto. La eDRAM al ser un tipo de memoria embebida dentro del ecosistema de los gráficos integrados de esa época que se llamaba "Intel Irish Pro Graphics", no se supone que esa L4 solo saca provecho de los gráficos integrados y no de una GPU externa.. No sé,, quizas estoy confundiendo algo, o quizás esa L4 se "sale" por así decirlo del entorno gráfico integrado y se pueda compartir con el resto de procesos de la CPU, lo cuál si es de esta forma sí podría significar que la GPU externa tome ventaja de ella.. ¿Alguien podría orientarme un poco?.. Es interesante este tema..
Recuerdo que sucedía algo similar con los core2 duo, core 2quad y core 2 extreme, realmente eran muy buenos. De hecho aún conservo mi vieja compu 775 (casi kole doy uso pero es un buen recuerdo de mi q9550) 🗿🗿🗿
Yo en mi Intel de 14gen (en el portátil de viaje) se pone a 80 grados jugando al máximo... No sé si los de portátil son diferentes en cuanto a este problema pero no he tenido fallos (también viendo que me sobra potencia seguramente haga lo que has dicho para que se caliente menos)
Obviamente los de portátil (todos) vienen siempre capados de fábrica para así poder hacerlos funcionar a mínimos vatios (bajándole los voltios) y temperaturas. Nada que ver con la potencia bruta de uno de sobremesa. De ahí que los de portátiles vayan finos, pero los de sobremesa vayan fatal. Y por eso también la solución que Intel les dio a sus usuarios fue la de bajarles precisamente la potencia y/o consumo. Saludos.
Los portátiles de 45W de TDP desde hace 6 o 7 años dan el máximo consumo que pueden a 100C como tope, los P o los U de 15W a 35W están limitados en potencia. Hay 2 opciones, o juegas al Minecraft o estas perdiendo bastantes vatios por el camino.
Pero la eDRAM es de uso exclusivo de la GPU integrada Iris Pro (de hecho, la eDRAM aparece listada bajo la sección de especificaciones de GPU, @5:22). No es una cache secreta, ni tampoco funciona como tal.
Gracias por el vídeo una pregunta que procesador de la generación i7 me recomiendas, tengo un presupuesto entre 250 y 350 dólares, espero me puedas responder mi pregunta.
intel tiene tecnologia futuristas que parece no implementarlas x no se que razón, yo he tenido un Procesador Intel Core i7-4770 me duro 10 años si no habría sido x la fuente aun seguirá usándola, según ahora veo que intel hace procesadores para que dure varios años, actualmente tengo una corei7 12700 , sin problemas 😊
Si el video sale en ingles es que RUclips ahora los dobla con IA! puedes cambiarlo
El procesador es impresionante para tener 10 años , lastimosamente son solo 4 nucleos y DDR3 y se queda corto no seria una opción interesante hoy!
Pero esto demuestra que INTEL tenia y tiene tecnología para poder aplastar a AMD
Sería por cuestión de patentes. Quizá la tecnología. De los chiplets pertenecen a AMD
y comparado con el 3300x?
La cache l4 solo venia con los procesadores 4 y 5 generacion que incluyen GPU
lo que si derrumba lo de nesecitas 8 núcleos para el futuro 4 núcleos papeando en el futuro
el problema de intel no es su tecnologia, es su manejo. Es cuestion de mirar y ver como se hundio en la bolsa, retrocediendo a valores de hace 16 años. Todo tiene que ver con todo..
Ese procesador es como Marty McFly tocando Johnny B. Goode para luego decirle a la multitud "Creo que ustedes aún no están listos para esto, pero a sus hijos les encantará".
"... a través de mi competencia directa (AMD)" XD.
y de fondo esta el primo del actual ceo de amd en el telefono he escucha esto.
@@kure2658 jajajaja ese mismo xD
@@kure2658
-Lisa? Soy Marvin
Lisa- quien? 🤔
Marvin- tu primo Marvin Sue... Recuerdas la innovación que estabas buscando? Escucha esto! (Show de fondo) 📞🔊
el ceo de intel: diablo como no lo había pensado
Q raro que recién te enteres, llevo más de 15 años en el negocio de las pc, y cuando eran allá por el 2015 me llamo la atención que solo habían los de quinta generación en laptops, me puse a averiguar y si había para pc, pero no podía traerlo de eeuu a Perú, Amazon estaba verde, después de años en uno de esos foros de tecnología un ex trabajador de intell qué hacia publicaciones respondió a esa pregunta y dijo que era porque no había pasado las pruebas de rendimiento para aplicaciones, recuerda q en esa época no le daban mucha bola a lo gaming, y se centraron en la línea corporativa, aparte no tenían competencia, hicieron refritos hasta la gen 10 cuando vieron q amd estaba peleandoles
gracias por el contexto.
No iba a 65W porque a Intel le preocupaban los arbolitos, iba a 65W porque todas las CPUs que estrenan un nodo nuevo son terriblemente inestables, le paso lo mismo al i7 4470K.
@@SakuraDoll-C si algo parecido entendí, estaba en los grupos gringos de reddit de tecnología y hasta leí lo mismo en discord, la cuestión actualmente es que porque no mejoran esa idea y la actualizan para gen 15, y digo 15 porque para mi esas core X no existe
Que bueno que subiste video, estuve todo la mañana viendo tus videos de hace 3 años jajaa
Ya que tienes tu propio sistema operativo, vas ha tener que hacer tu propio procesador.
Show SDFZ 12100K 🥵👍
😂😂 Show no es dueño del sistema operativo. Solo hizo un mod de Windows.
@@AmoblandoLaMente dejalo que siga soñando bro nada cuesta 😂
YO Y LOS PANAS CON LA REALIDAD ALTERADA
Solo es un mod
Saludos desde Chiapas, México , buen VIDEO
Excelente video. De cuantas cosas nos enteramos, que si no nos lo explicaran de forma sencilla y amena como tú lo haces, ni lo imaginaríamos. Gracias.
Yo viendo éste video con mi Z97-DELUXE/USB 3.1 I7 5775C OVERCLOCK A 4.2GHZ Y 32GB DDR3 2666MHZ Y RX57000XT😢😢ME DA NOSTALGIA DIOSSSSSSS
Solo dire , overcloooock!!! Quiero verlo a fondo🤟🏿
Que hace show dándole el secreto a Intel para salvarse? JAJAJA
Para nosotros los consumidores es mejor que lo sepan, porque al dar la talla y competir con otras empresas el que tenga el mejor costo beneficio sale ganando, core ultra ha sido un frasco porque no fue exactamente lo que los consumidores querían y aunque bajen los precios seguí siendo una opción que muy pocos tomarían, sin embargo con esta tecnología le daría más valor a sus cpus y la lucha que ha tenido siempre con AMD se mantendría y eso se traduce que si o si AMD se obliga a inovar y competir y al mismo tiempo los precios bajen ñ.
Ya Intel le soltó el billete 😂
@@AntonyGarcia-vi3ppLe solto el billete para que les diga algo que ellos mismos ya sabian 🤑🤑🤑
@gravityomega9607 Para recordarles 🤣😂🤣
Algunos suplican, se venden a quién sea.
Otros se toman todo con calma o simplemente llaman la atención de forma indirecta.
Yo tengo esos CPUs en unas miniPCs, Intel NUCs. Broadwell ueron los primeros 14nm y luego vinieron los Skylake ++++++ en 14nm++++++
aqui un ex miembro de los crasheos de intel y haber tengo el i9 14900K y con la mejor liquida de corsair para refrigerarlo, ahora esta arreglado con la nueva bios de intel pero el CPU pasaba los 100 grados ahora sigue calentando hasta 90 y poco mas pero no peta y funciona perfecto ahora, y yo desarrollándooslo en unreal engine estuve al borde de morir ebria el engine y pasaban 5 segundos y explotaba todo...
Esto me recuerda a la tecnología SLI de 3dfx/Nvidia, que fue enterrada porque con dos gpus de modelo anterior podías superar con creces las gpus de nueva generación
todo es negocio
Algún día vendrá alguien que sepa de las arquitecturas con la que se fabrican las gráficas y con sus herramientas y los huevos bien puestos revivirá el SLI en gráficas
Como siempre haciendo descubrimientos o más bien re-descubrimientos!! Impresionantes!! 🫡
Yo por 2016 hablaba con un señor de una tienda de hardware en argentina local de la zona, y el ya me habia dicho que el rendimiento real del CPU se encuentra en la caché. Veo que realmente no mentia en absoluto, es impresionante.
Yo acá batallando con mi humilde Ryzen 3 3100 dándolo todo ❤, saludos desde Argentina y feliz año!!
Ojala hables de la serie 50, aun que todo mundo este hablando de ellos, hay mucho hype y desinformación o información incompeta y tu eres una de mis mejores fuentes de información en este tema, como siempre excelentes videos! Saludos desde Chihuahua, MX.
no se puede cambiarles la mentalidad a los fanbois de Nvidia, q sigan comiendose el buen marketing nomas
@@maletaso ¿por qué? ¿Qué es lo que están diciendo?
La 7090 necesitará una fuente propia y la 8090 vendrá con generador incluido
La 5th Generacion de Intel fue muy infravalorada y demasiado extraña. Cuando arme mi primer PC andaba buscando lo mejor calidad precio. Y me tope con la 5ta Generacion, pero al no encontrar una buena placa y un CPU me fui por la 4ta y me quede con mi flamante i7 4790K que aun es mi PC principal y por ahora ha podido con todo. Solo con el Minecraft si se muere a veces.
P.D No exploten más de 20K de TNT a la vez.
La quinta generación es compatible con el socket LGA 1150 de cuarta generación solo si es chipset H97 o Z97. 😉 Yo tengo el poderoso Xeon E3 1285L V4 y creo que ese procesador es incluso más poderoso que el i7 5775C
CAPO SHOW, saludos desde Argentina 🇦🇷🤙🏼
Por eso me compré un Ryzen 7 9700x y ningún problema, no lo overclockee aun pero la verdad que anda perfecto, ni un solo crasheo ni nada raro, ahora esperando para actualizar la gráfica que la 1070 ya está viejita :(
justo quiero comprar ese procesador es el mejor para mi, nada de x3d ni overclock con eso ya tengo más que suficiente no más.
@@say4301 yo lo tengo y es impresionante lo bien que se mueven los juegos sin crasheos y le subí el tbp a 105 w y anda impecable sin levantar altas temperaturas.
@@paiperjuggernaut Eso es lo mejor, buen rendimiento sin tener una estufa en la habitación.
Yo hace un año renové el PC, tenía un I7 5820K overclockeado a 4,5, y con la 3070 iba de escándalo en cualquier juego, aunque obviamente en algunos juegos se ahogaba un poco, pero sobre todo lo noté en programas de trabajo para edición y diseño, por lo que me acabé comprando un 14600k que heredó la 3070. Pero ahí sigue, le monté una 660 que tenía por ahí y sigue siendo un pc muy funcional y lo uso como pc secundario, aunque cuando me pille la 5070Ti le volveré a montar la 3070. Me dio mucha pena cambiarlo, mi idea era aguantarlo unos años más, pero al final me pudieron las ganas de renovación. El 5820k es de 2014, 6 nucleos 12 hilos, yo lo compré en 2016... y a día de hoy sigue dando la talla, es flipante.
@sfdxshow Me gustaría saber que opinión tienes sobre los quad-channel como el i7-6800K y que potencial o decadencias tienen con los actuales. En otras palabras "¿Por qué dejaron de existir?"
como siempre me fascino con tus videos show, muchas gracias eres el mejor!!
Hola show eres mi idolo saludos desde Perú
que buenos videos mi pana :3, de ser los reyes en cpu hace 10 años a estar tratando de sobrevivir D:
Excelente video broth👌💪💪💪💪
Intel debería de revertir sus procesadores, y pensar lo que hacían en el pasado y reiniciar nuevamente
Grande show tan original como siempre 😊
Que buen vídeo ¡. Y Microsoft queriendo obligarnos a cambiar de pc cuando hay muchos procesadores supuestamente obsoletos que van increíblemente bien....
que buen video , ahora si me voy feliz , siempre me sorprendes .
No me arrepiento de ver este pedazo de video!!😎😎🤙
WAAAAAAAAAAAAAAAAA YA KIERO VER ESE BUNKER MI SEÑOR SHOW. TREMENDO HYPE QUE TENGO. FUAAAAAAAAAAAAAAA
UN ABRAZO DESDE CHILE!!!
Genial Video . Sería genial que nos fueras mostrando pasos de la fabricación del Búnker
Sin duda el cache es importante pero también debe tener una buena interacción con el orden del procesador y muchas cosas que no entiendo pero sin duda es lo que mejora a gran medida las velocidades de un procesador.
un gran video !
cada vídeo es una obra de arte
Wauuuuu que buen video que lastima que no siguieron con ese diseño de CPU intel, Sfdxshow cual seria el mejor procesador por lado de Ryzen o intel para tener un PC poder estudiar y desarrollar inteligencia artificial.
Pues sí, muchas veces nos empeñamos en mirar que es lo que tiene mejor el vecino, sin darnos cuentas que lo mejor ya lo tenemos en casa, siempre grande tan grande Show
y no olvidar que tambien tenian algo similar a los chiplets hace años atras
1:00 que seguidor ese
Proximo video de SfdxShow, como me converti en CEO de Intel y rescate la empresa.
Puse el video y me empezó a hablar una voz distinta de la se Antonio, y en inglés, pensé que era una propaganda y era que estaba configurado en inglés, que bueno que te estés expandiendo, mucha más gente debería ver tus videos, maquina
Como lo cambiaste?
@@DJAANFEn android, ajustes> Pista de audio, yo también acabo de enterarme ahora😮
@DJAANF como si fuera a cambiar la calidad del vídeo, me salió la opción de idioma
Que levante la mano quien haya ido a Wallap.....a buscar esa bestia justo despues del video🙋🏻🙋🏻🙋🏻🤣🤣🤣
Bravo! Sdfx Show salvando a Intel. Totalmente impresionante! 🎉 😂
Siempre siempre genial
Gracias Antonio, siempre quise ver esa CPU funcionando. Genial por tú parte.
Esa CPU lleva GPU integrada? Si es así podías compararla con otras de esa época, integradas.
Menuda bestia avanzada a su tiempo salió en su dia. Nuestros amigos chinos hacen placas base más actuales para los Intel xeon con ddr 4 y demás... Solo de imaginarme una placa base de estas chinas con ese procesador... Pero desconozco si habrán placas base de estas con el socket de este procesador
Muy buen video. Con qué placa lo probaste y cuánto de ram le pusiste?
Un procesador actual con eDRAM no podría garantizar una ventaja frente a los Ryzen en términos de relación costo-rendimiento. Las pruebas de juegos muestran mejoras específicas, pero no demuestran una superioridad general. Además, implementar eDRAM es significativamente más costoso y complejo que la caché 3D de AMD, lo que reduce su viabilidad comercial frente a las soluciones más eficientes y rentables de AMD. Probablemente, Intel implemente su propia caché 3D en algún momento.
Aun así, interesante video.
*"Intel consiguió un Titan para esa época"*
Ojala intel volviera a vender cpus asi aunque lo veo muy dificil a estas alturas
Hermano, no tengo ni grafica ni pc armada(tengo una all in one) y aun asi me miro todos tus videos como si supiera jaja alto contenido loco saludos de argentina
Saludos desde argentina ❤
hola , yo compre un i5 13400f y me tiro un par de pantallazos azules ...actualice la bios del mother asus b760 , hasta en la bios bajo el voltaje de funcionamiento con la nueva bios ....
Actualmente tengo el mismo problema, creo que actualizaré la BIOS también jajajja
Este es el que tengo i7-7700HQ en mi portátil y me encantaría poderlo usar en un sobre mesa modo experimento lo que no se si estará en la placa base integrada. A dia de hoy tira como un animal este procesador.
como se nota que las grandes companias controlan el avance de la tecnologia
Si intel tuviera esa tecnología a día de hoy, estaría arrasando en las ventas de cpus
Los que te dieron "Me gusta" son igual de ignorantes que tu comentario...
Es solo una caché de cuarto nivel, más lenta que la L3 pero muchísimo más rápida que la RAM... y no tiene nada raro, solamente que son mucho más caras.
@@josel.p.2822 bueno, ahora me siento un total ignorante, gracias por la información, ahora veo porque intel dejo de utilizar esa cache xd
@@josel.p.2822 Tampoco. La eDRAM no es una caché de cuarto nivel porque no la utiliza el CPU sino el GPU integrado.
La eDRAM (Embedded DRAM) es una memoria integrada en el procesador que se utiliza específicamente para respaldar el funcionamiento del motor gráfico Intel Iris Plus. La caché L3 es una caché de escritura simultánea que respalda la ejecución de los núcleos del procesador.
No existe una comparación real que permita decir que uno es mejor que el otro. Hacen cosas diferentes, de maneras diferentes, en nombre de diferentes partes del procesador.
Hoy en día esa Cache L4 rinde como 2 módulos DDR4 en Dual Channel.
Me apena escuchar que los "FX" fueron malos, y que tantos se vendieron y hasta hace poco mucha gente los usaban. Yo tengo un FX-6300 de serie desde el 2012 y no he tenido ni el más minimo problema, ni siquiera de temperaturas (sí que eran algo calentitos, pero peores eran cualquier cpu de portátil en esa época). Lo tengo jubilado junto con mi 1050ti, que tan buen resultado por poco dinero me ha dado este combo.
Hola Show! tengo pensando hacer una PC nueva gamer, pero ahorita estoy metido en otros gastos y me gustaría tu comentario una lista de que comprarías primero y que al final, gracias !
1:10 intel se ha venido
🥵🥵🥵🥵
por cierto que, venia para socket 1150(mismo que el de 4ta gen), deslimitado, con 128mb de cache l4, los primeros con los 14nm, y venia con un integrado grafico intel iris 6200, que a pesar de ser mas viejo podia compararse con los primeros vega 8 de ryzen; la falta de competencia hizo que intel no se enfocara en lo bueno y terminamos en la historia que todos conocemos hasta la 7ma gen y asi
Es que la Cache L4 era para la IGPU, al resto de antiguos portátiles con una iGPU tocha de Intel tipo iris tenían la misma cache.
Haces bien en ponerle asterisco a las rtx 5000, ya muchos viewers están filtrando qué es solo software IA, no hay mucha diferencia en la base de hardware, y es cosa de tomar con pinzas porque al final todo dependerá del juego lo soporte, en cuanto al anuncio fue pobre, casi todo el espacio se dedicó a hablar de las IA, es decir, nvidia esta dejándonos migajas
Yo soy más de AMD, me gusta más su filosofía, pero eso no quieta que sé lo que fue Intel y sé lo malo que es que una compañía domine un mercado, para ojos de los consumidores, que somos nosotros. Ya fue malo cuando Intel dominó los 32 bits y tenía precios abusivos, además de parar el mercado en los 32 bits por tener una competencia casi muerta. Espero que Intel se recupere y que vuelva esa competencia que les hace apretar a las dos compañías a tope y sacar lo mejor de ellas al mejor precio para nosotros. Estoy viendo como AMD ha hecho un poco de mejora sobre la serie anterior (no sé si es que no la están exprimiendo mucho), pero es que no le hacía falta mucho más, por lo que se está volviendo vaga, como aquella Intel de 32 bits. También me gustaría ver más competencia, como cuando Motorola y Cyrix estaban dando palos. No es que molestaran mucho, pero oye, ahí estaban. Estaría genial que hubiera más competencia. También en gráficas, puesto que se aplica exactamente lo mismo.
Cuanto más miniaturize necesitarán silicio más puro ,ese es el problema no el priblemon hacia el que va la microelectrónica,El cuarzo material junto al carbono que se utilizan para los impos de silicio de los componentes electrónicos,generalmente se obtiene de arena con sustrato de limos ,ese tipo de arena la ideal para "imprimir" semiconductores en capas , actualmente la de "mejor calidad" y relativa facilidad de extracción está en los mares de asia ,en conflicto entre china las dos coreas y un Japón que fue desplazado hace alos
impresionante, la verdad mi corazoncito esta con amd, pero me encantaria que los azules retomaran el camino de las cpu´s y de paso tambien se unieran a las grandes ligas de las graficas o por lo menos a las tarjetas de IA
Es lógico que no hicieran más procesadores ya que no merece la pena tener un procesador potente que impida la venta de futuros procesadores potentes, tú lo has dicho quién vende bombillas gana cuando estas se funden, años atrás los dual core muchos de ellos al hacer overclock se quemaban y era rentable pero actualmente mi haciendo overclock se suelen quemar.
Votaciones para que show lo contraten para CO de intel, se vendrian cosas muy guapas ✨
Se supone que, en su momento, aumentar la cantidad de memoria L-Cache incrementaba la latencia del procesador. Esto puede ser bueno o malo dependiendo del uso: para ciertas tareas, podría resultar beneficioso, pero en cálculos intensivos podría hacer el procesador más lento. Esto se debe a que la velocidad de lectura/escritura de cada nivel de L-Cache disminuye conforme crece su tamaño y distancia, siendo la L1 la más pequeña y rápida, y así sucesivamente, aca se habla de una L4... y fuera del procesador... para esta epoca con DDR3 igual debia ser muchooo mas rapida, pero en la actualidad sin apilarlas como AMD, deben ser bastante lentas para la necesidad actual.
AMD logró mitigar este problema al apilar la L-Cache (como en sus procesadores con 3D V-Cache), lo que permitió aprovechar las ventajas de una mayor capacidad sin impactar tanto en el rendimiento. Sin embargo, esto aumentó significativamente el costo de producción. Por otro lado, Intel podría haber considerado que esta estrategia no era rentable en términos de costo-beneficio, ya que históricamente han enfocado más sus productos hacia empresas y servidores que hacia el mercado de PC gaming, a pesar del marketing que promocionaba sus procesadores como los más rápidos para juegos, muchas veces mediante overclocking en modelos existentes.
En última instancia, todo se reduce al costo-beneficio. Es probable que algún ingeniero haya buscado implementar mejoras innovadoras, pero las prioridades financieras y la presión por obtener resultados rápidos habrían frenado esos desarrollos. Investigación y desarrollo (IyD) puede generar ideas prometedoras, pero las finanzas y los intereses corporativos suelen limitar su alcance.
quisiera ver como rinde con una grafica de intel. podrían hacer algo así moderno y con la mejor de drivers de sus gpus serían imparables
Todos los que tengan la app CPU-L en su cell deben saber de la existencia de esos Intel desde hace años y nunca haber visto uno
Capaz escondían algún tipo de fallo o vulnerabilidad o simplemente eran caros o difíciles de producir, dudo que habiendo tenido esa formula ya una vez la hayan desechado por nada, si mal no recuerdo también llegaron a probar algo parecido llamado Intel Optane para ayudar el almacenamiento pero visto que no es un estándar hoy en día parece que tampoco rindió frutos porque por lo visto era demasiado cara, al menos para ese entonces.
Excelente directo
Ya decía yo que recordaba algo medio extraña esa generación de Intel, siempre se me hizo curioso que cuando estábamos ya en la sexta generación, era más probable ver a la venta un procesador de cuarte, que de quinta, de hecho, nunca vi un i5 en venta.
hey @sfdcshow Espero que todo bien, no se si te has enterado pero esta lo de auto dubbing, quizas algunos de tus seguidores le moleste eso. En mi particular no me molesta cambiarlo, pero se que alguno estaran estresado. Si es de ser posible crees poder quitar la opcion a los nuevos videos que suban. Claro entiendo que dependera de tus suscriptores y seguidores mas que de uno solo. Pero solo digo quizas sea mejor como no :) Nada primera vez que te escribo y me ha encantado todos tus proyectos que has hecho.
ese procesador es el que yo tenia antes, ahora lo tiene mi hermano y sigue dando guerra, le puso una rx6600 y ahi esta funcionando
Hola crees que funcione en una tarjeta Madre con chipset H81?
Ofrecete como el nuevo CEO de intel 🤯🤯
Yo todavía sigo usando mi i7 3770k que fue mi primera computadora personal. Mi próximo procesador también quiero que sea Intel
Ojalá Intel vea este video, por qué si no se ponen pilas dejaran a AMD sola y el tal costo beneficio que siempre a habido entre estas dos empresas al competir desaparecerá poco a poco.
Buenas tío he visto que al final le haces OC con el Intel XTU pero en mi pc (moderno) que he instalado el ShowOS v2 no me deja instalar el Intel XTU tras varios intentos y no entiendo por qué
tio tengo unn desafio que no pensaste nunca !!! es adaptar un splitt del aire acondicionado a la cpu. seria usar el intercambio de calor para enfriar la cpu. te desafio.
no
no
No
Ese es el funcionamiento básico de los heat pipes de Los enfriadores por aire genio. Tienen una mezcla de un alcohol con un derivado de glicerina y hacen ese ciclo de enfriar, calentar qué teorías
Por algo no lo habrá pensado, Einstein
Porque no puedo desactivar la pista de audio doblado al inglés, van varios videos de este y otros canales que me los reproduce con el audio doblado por IA y no logro encontrar como cambiar para el original
Hay una cosa que no entiendo de esto. La eDRAM al ser un tipo de memoria embebida dentro del ecosistema de los gráficos integrados de esa época que se llamaba "Intel Irish Pro Graphics", no se supone que esa L4 solo saca provecho de los gráficos integrados y no de una GPU externa.. No sé,, quizas estoy confundiendo algo, o quizás esa L4 se "sale" por así decirlo del entorno gráfico integrado y se pueda compartir con el resto de procesos de la CPU, lo cuál si es de esta forma sí podría significar que la GPU externa tome ventaja de ella.. ¿Alguien podría orientarme un poco?.. Es interesante este tema..
Recuerdo que sucedía algo similar con los core2 duo, core 2quad y core 2 extreme, realmente eran muy buenos. De hecho aún conservo mi vieja compu 775 (casi kole doy uso pero es un buen recuerdo de mi q9550) 🗿🗿🗿
imaginate a los de intel viendo tu video antonio... tienes que pasarles tu cuenta bancaria para un jugoso y merecido bono jajajaja.
Yo en mi Intel de 14gen (en el portátil de viaje) se pone a 80 grados jugando al máximo... No sé si los de portátil son diferentes en cuanto a este problema pero no he tenido fallos (también viendo que me sobra potencia seguramente haga lo que has dicho para que se caliente menos)
Obviamente los de portátil (todos) vienen siempre capados de fábrica para así poder hacerlos funcionar a mínimos vatios (bajándole los voltios) y temperaturas. Nada que ver con la potencia bruta de uno de sobremesa. De ahí que los de portátiles vayan finos, pero los de sobremesa vayan fatal. Y por eso también la solución que Intel les dio a sus usuarios fue la de bajarles precisamente la potencia y/o consumo.
Saludos.
Los portátiles de 45W de TDP desde hace 6 o 7 años dan el máximo consumo que pueden a 100C como tope, los P o los U de 15W a 35W están limitados en potencia.
Hay 2 opciones, o juegas al Minecraft o estas perdiendo bastantes vatios por el camino.
@@SakuraDoll-C Jugando al AC mirage con todo a tope. Pero si, imagino que es por ser de portatil
wow, entonces intel diciendo que por su arquitectura la cache extra no le ayudaria era completamente mentira jaja, grande SHOW!!
show , tenes que preguntarle a algun fabricante de mothers chinos si hay placa para este procesador DDR4 o 5 (con los xeon de epoca las hay)
Pero la eDRAM es de uso exclusivo de la GPU integrada Iris Pro (de hecho, la eDRAM aparece listada bajo la sección de especificaciones de GPU, @5:22).
No es una cache secreta, ni tampoco funciona como tal.
Show, los threadripper tienen mucha mas cache, cual es la razon por la que rendían menor a los ryzen de su época en juegos?
OSTIA TIO si que flipas en conocimiento y lo que mencionas es una tecnología muy buena, pero la obsolescencia programada es la que manda $$$$
También otra tecnología muy buena que saco Intel fue el Intel Optane, lastima que lo descontinuaron
No pongas la traducción automática por voz, por un bug a algunas personas no les permite cambiar a que hable en español
Y con que grafica exactamente lo provaste?
Estaría bueno para conseguirlo en un puesto de venta de chatarra eléctrica. Sería como conseguir una joya
Gracias por el vídeo una pregunta que procesador de la generación i7 me recomiendas, tengo un presupuesto entre 250 y 350 dólares, espero me puedas responder mi pregunta.
Estoy pensando en comprarme un pc tengo poco recurso pero quiero un procesador ahunque sea antiguo bueno que mueba casi todo que me recomiendas
Ya Intel no es lo mismo que hace muchos años atrás
Es cierto lo que dices Antonio 😢, me da mucha pena yo conocí a Intel primero que AMD y pues desde siempre uso Intel y me da mucha pena ver así
intel tiene tecnologia futuristas que parece no implementarlas x no se que razón, yo he tenido un Procesador Intel Core i7-4770 me duro 10 años si no habría sido x la fuente aun seguirá usándola, según ahora veo que intel hace procesadores para que dure varios años, actualmente tengo una corei7 12700 , sin problemas 😊
Aun rockeando con mi i7 4770 y 1660 super
@@pixelaxel12 que genial😀
Un core 2 quad q9400 por aqui y jugando a muchos juegos actuales, no AAA claro.
@@pepelope4963 muy bien