💻🤖 ¿Qué Ordenador Necesitas para Inteligencia Artificial? ¡Lo Pongo a Prueba! 🚀🔍
HTML-код
- Опубликовано: 15 дек 2024
- Descarga ya mi ebook "Aprovecha ChatGPT" GRATIS!
www.jonhernand...
CURSO completo sobre Inteligencia Artificial, cada semana nuevo contenido: Accede aquí con un descuento exclusivo para seguidores de RUclips!
www.jonhernand...
En el video de hoy pongo a prueba diferentes configuraciones para generar imágenes con inteligencia artificial de forma local!
Necesitas un ordenador de mas de 4000€? o puedes hacerlo con un portatil? y los mac? lo vemos todo en esta prueba de rendimiento de diferentes equipos, pero además te explicaré que componentes son realmente importantes si quieres mejorar tu ordenador actual para poder crear imagenes en tu ordenador!
Para el video hemos contado con SLIMBOOK, si necesitas un buen ordenador no dudes en contactarles, tienen desde equipos portatiles hasta aviones de sobremesa como el que yo me he comprado para Stable Diffusion.
Equipos :
slimbook.com/k...
slimbook.com/k...
slimbook.com/e...
El video de las pruebas que comento : • Stable Diffusion - Mac...
Descarga mi Guía para MIDJOURNEY AQUÍ:
www.jonhernand...
Nuevo DISCORD para la comunidad:
/ discord
Canal de Whatsapp sobre IA:
www.whatsapp.c...
PROMPT USADO :
German woman in snowy forest, midnight, smoke from nostrils, glowing eyes, dramatic light, high contrast shadows, Sharp light, midnight forest, in snow storm,( freckles:1.5), green eyes, ginger hair, big curls, looking at viewer, outside( full body shot:1.5), dutch angle, twisted view, cinematic, detailed textures, bokeh, natural lighting, 4k uhd, dslr, soft lighting, high quality, hasselblad
¡No olvides suscribirte y dejar tus comentarios! Comparte el vídeo con tus contactos a través de whatsapp, todo el mundo necesita estar al día de la IA ¡Nos vemos en el próximo vídeo! 🚀🌐
🎯 Key Takeaways for quick navigation:
00:00 🖥️ *En este video, se evalúan diferentes ordenadores para determinar cuál es el mejor para trabajar en Inteligencia Artificial.*
00:29 💻 *La configuración de un ordenador para Inteligencia Artificial es diferente de otros usos, y la GPU es crucial.*
02:33 🎮 *NVIDIA es líder en hardware de Inteligencia Artificial, con tarjetas gráficas como la RTX 4090 siendo ideales para este propósito.*
04:12 🧡 *AMD es una competencia viable, pero NVIDIA se recomienda para una experiencia más fluida con Stable Diffusion.*
05:09 📈 *Se necesita una tarjeta gráfica con al menos 8 GB de RAM para trabajar cómodamente con Stable Diffusion.*
07:17 ⚖️ *Es importante equilibrar el rendimiento de la GPU con otros componentes del ordenador para satisfacer diferentes necesidades.*
08:52 💼 *Se presentan tres equipos de Slimbook con diferentes configuraciones para demostrar su rendimiento en Inteligencia Artificial.*
11:56 🖥️ *El tiempo de procesamiento de imágenes en Stable Diffusion es esencial para el flujo de trabajo en Inteligencia Artificial.*
14:04 ⏱️ *Se realizaron pruebas de generación de imágenes en tres ordenadores con diferentes configuraciones.*
15:19 💡 *El ordenador más potente (con una RTX 4090) generó cuatro imágenes en solo 36 segundos.*
16:05 🚀 *Una tarjeta gráfica como la 4060 Ti de 16 GB ofrece un buen rendimiento en relación calidad-precio en Inteligencia Artificial.*
17:00 💻 *La elección del equipo adecuado depende de las necesidades y el presupuesto, pero la RTX 4090 es ideal para un rendimiento óptimo.*
Made with HARPA AI
Mi PC tiene 8 años y pico y lo único que he tenido que actualizar para ejecutar Stable Diffusion de manera confortable ha sido la tarjeta gráfica. Debido al tiempo que tiene el PC, no he querido gastar mucho dinero y he optado por una RTX 3060 de 12 GB de VRAM. En cuanto a CPU, RAM y esas cosas, no tengo ningún problema. Todo va como un tiro. Actualmente estoy generando imágenes, en modo image to image, de 800x1200 pixeles, en 9 segundos.
Tu me puedes orientar de como usar mejor el IA....
Hola qué CPU tienes?
@@hostjaus portatil intel core i7 11370H y graficos geforce gtx 1650 me sirve para inteligencia artificial ??
@@fabianbohorquez3020 No creo, debería ser RTX 3060 hacia arriba
⛔ATENCIÓN 👉👉El que quiera montarse un equipo con una RTX 4090 a principio del 2025, que espere al lanzamiento de la RTX 5090, seguramente tengan 32GB de VRAM GDDR7 (Más VRAM que la 4090 y más rápida que la GDDR6X) No está claro aún, pero parece ser que los planes de NVIDIA apuntan su lanzamiento más hacia el CES 2025, que tendrá lugar en Las Vegas en enero del próximo año. Aunque por ejemplo la RTX 5080 tenga la misma cantidad de VRAM que la RTX 4080 (16GB) será GDDR7, más rápidas que las GDDR6X de las RTX 4080 por lo cual tendrán más ancho de banda. Los precios serán más o menos similares a las de la generación 4000. Saludos!
GDDR 7, no DDR7, hay una gran diferencia.
@@juan1911 Gracias por tu aclaración fue un descuido 😂👍
Yo creo que valdran bastante mas 😅
@@Missil10 Los precios de la serie 4000 ya estaban hinchados por culpa de la IA. Esperemos que sean similares al menos en la gama baja y gama media. Saludos!
Hola Jon. Termino de entrar en este mundo de la IA, con el objetivo de generar imágenes, videos y contenidos para redes, para mis proyectos musicales. Como parto de nivel básico de usuario en todo al respecto, te agradecería tu consejo para ponerme al día en IA enfocada a mi proyecto y que máquina me aconsejas actualmente. Saludos.
Hola, genial tu canal de IA, te seguia en el de fotografía, me podrías decir si la tarjeta grafica influye en la velocidad del relleno generativo de photoshop? gracias
No, gen fill se hace en la nube
Llevo mucho tiempo esperando este vídeo. Gracias!
¿Estás usando algún modelo específico o el modelo base SD 1.5, XL...?
Uso juggernaut sobre xl para casi todo
@@la_inteligencia_artificial Buena elección aunque requiere que cites a su autor para uso comercial
Que tan bueno sería si se usará tarjeta a cuadros para stable diffusion?
ojo esto es solo para stable diffusion y otros modelos pequeños, pero si alguien piensa usar modelos de lenguajes locales, sobre todo el mixtral 8x7b, ni la 4090 alcanza, se necesitan más de 40 gb de vram, solo como la a6000, y encima hasta 4 en una sola pc; de locos.
Hay modelos pequeños que se pueden usar en local como phi2
@@la_inteligencia_artificial
He probado Phi3 para responder en chatbot.
Un fracaso total
Estas pruebas serian similares si el objetivo en lugar de ser generación de imágenes con SD, fuera trabajar con modelos LLM Opensource en local y realizar finetunings locales? O para ese objetivo las prestaciones y necesidades serian otras diferentes? Muchas gracias de antemano Jon.
Depende del modelo, para correr un llm potente necesitas mucho mas
Que opinan de rtx4090 24gb oc de asus strix en una maximux hero xii wifi y un i9 10900k con 128gb de ram?? Mi pregunta es porke la.maximus tiene solo pci 3.0 y la.4090 es pci 4.0? Funcionaria???
La ram es ddr4 me pasó mencionarlo. Y pregunto pork estoy por comprar targeta de video pero no me e decidió si vale la pena o no 4090 strix en base a lo k menciono del pci 3.0 va pcie 4.0
Usuario "normal" con una 4090 jejeje
Por cierto, la relación costo beneficio es mejor con la serie RTX, sin embargo hay que comprar MUCHAS por cuestión de tiempo de entrenamiento.
Aún y así son mucho más lentas es decir juntar la ram de 3 4090 es una h100 pero no rinden igual por ancho de banda. Te cuesta 8k en lugsr de 30 pero sigue siendo mucho más lento
No creo que sea correcto decir tan alegremente que lo que importa es la GPU y da igual el resto. Si tienes una 4090 en un i3 con poca RAM, tendrás unos cuellos que harán desperdiciar esa GPU, por no hablar de que hay que tener espacio físico según qué gpu y una buena fuente de alimentación. Resumiendo, que si no sabes, no compres un pepino de GPU porque igual la tienes que devolver.
Tienes razón, investiguen más por si cuenta
Eso mismo he dicho en el video, que no recomiendo montar una 4090 en un equipo que no esté a la altura
Muchas gracias Jon
El PCIe no es importante? Osea si tengo un procesador PCie 4.0 4x para una gráfica x8 no causa cuello de botella en IA?
Wow por fin alguien que explica bien los componentes que utilizan la IA
Oye una pregunta lo más importante es la gpu entonces digamos que tengo un procesador i5 8400 cofee leke
32 GB de ram una exelente fuente que soporta mucho
Podría comprarle una gpu RTX 3060 TWINX2 12GB GDDR6 LHR?
Ya que dijiste que lo más importante es la gpu es posible utilizar stable difusión en una PC con ese procesador y esa gpu?
O también debería cambiar el procesador
Oye cuánto es el porcentaje que utilizan la gpu y la temperatura las 3 PC cuando utilizas stable difusión?
No te sabría decir las temperaturas pero la 4090 va muy muy sobrada. Creo que podrías montar eso sin problema
que tarjeta de video me recomiendan para un i5 de octava generación con 64gb ddr4 ?
Depende del presupuesto pero una 4060ti 16gb es lo mejor calidad precio
Gracias por tu orientación. en nuestro proyecto de análisis de ondas cerebrales nos estamos encontrando con limitaciones de recursos debido a la gran cantidad de datos. Pensábamos que los retrasos y errores eran por fallos de ChatGPT, pero ¿será que nuestro ordenador no tiene suficiente capacidad? A menudo, el sistema se cuelga y muestra errores, requiriendo varios intentos para completar el análisis. Agradeceríamos tu opinión sobre si esto es un problema de hardware o un fallo de la IA.
Te refieres a que por mensaje te limita el análisis ? , has probado otras opciones como claude , es más caro pero te da mas tokens por mensaje
@@AlexisGc3 gracias por su respuesta, lo que queria decir es que se cuelga a mitad fe la tarea y toca iniciar de nuevo, muchas veces esta a punto de terminar y de bloquea, da error. A veces la termina
Gracias por los excelentes vídeos con los que compartes muy generosamente los conocimientos que tienes o la información que vas recibiendo. Este es una buena prueba de lo que escribí antes. Pienso que y tú, como fotógrafo profesional, estoy casi seguro de que usas Mac. Por esto y también pensando en muchos de tus usuarios, sería excelente que hicieras esto mismo pero con los computadores de Apple como los iMac o Mac Studio. Espero te parezca buena esta idea y lo veamos pronto en un nuevo vídeo.
Creo que el rendimiento de una laptop depende del modelo que se utilice. En mi caso, he probado el mismo prompt generando 4 imágenes con las mismas dimensiones y con la configuración por defecto, lo que me ha tardado 45 segundos. Mi laptop es una MSI Pulse 2023 con una tarjeta gráfica 4070 de 8 GB de VRAM, un procesador Intel Core i7 13700H y 32 GB de RAM, cuyo costo es de 2000 euros. Por lo tanto, considero que no siempre un equipo de escritorio ofrecerá mejores resultados que una laptop.
x 800€ tienes un ryzen 5 7500f (150€) placa msi 620m (75€) 2 ram 2x8gb ddr 5 Glowy/crucial >50€ aprox 330€ > la base y tiene 370€ para grafica si vas a segunda mano puedes encontrar facil una 6800 xt x 300€ una fuente baratilla x 50€ y te queda margen para un par de m.2 de 1 tb si sabes comprar los precios de esos pc pre ensamblados son para millonarios si quieres algo bueno bonito y barato montalo tu mismo te ahorraras 1000€ literalmente la clave es aliexpress y no tener prisa
Ayúdame . Que pedir por alibaba para una computadora para inteligencia artificial y estudio de audio y video
Amigo rrspondeme una duda porfavor. Quiere un pc para IA y la tarjeta que comprare es la rtx 4070 ti super (16gb) pero cual procesador deberia usar? I5 14600k (317$) o el i7 14700k (399$)?
El que te alcance el dinero
Antes de verlo pongo mi setup (me gusta presumir 😢😅😂) y vemos que hay que mejorar, la arme específicamente para SD pero a los pocos meses tuve que cambiar fuente y gpu.
Fuente: Asus Gaming 1000w 80+ Gold
MB: MSI Pro Z790-P w
CPU: i5 13500 ( por mejorar )
RAM: Kingston 64gb ddr5 5200m
SSD: 1*2tb, 2*512gb
HDD: 1*4tb
GPU: MSI Suprime Nvidia RTX 4090 24gb (originalmente puse una Gigabyte 3060 OC 12gb)
... Play
Y no la usas para inteligencia artificial?
Guau ,Como decía Socrates : yo solo sé q nada sé!
Sé complica aceleradamente situación.😮
Con mi RTX 3060 de 12GB funciona rápido el SDXL 1.0 y es económica, OJO es super IMPORTANTE la ram de video mientras mas GB tenga la tarjeta mas rápida y de mayor tamaño se podran generar imágenes, otro factor a tener en cuenta es la cantidad de nucleos Cuda.
Habría que definir que es rápido, prueba a hacer un batch de 9 imágenes a 768*512 por ejemplo en 25 pasos en euler a
Se puede usar dos gpus al mismo tiempo?
Si
Que tal son las Intel arc
Es posible ejecutar modelos LLM, Stable Difusión y voice changer en una pc con 2 tarjetas gráficas ? Es posible tener 2x3060RTX(12vram) para conseguir 24 y que los “programas o interfaces” logren reconocerla como un solo módulo o que trabajen en conjunto ?
Encontraste la respuesta?
Como dato se puede bajar el consumo y tener practicamente el mismo rendimiento.
Yo con la 4090 suelo poner el power limit al 55% para Stable Diffusion (una reducción del 45% que se dice pronto), pero el rendimiento en IA es practicamente identico consumiendo menos. (Debido a que realmente el "consumo tipico" es inferior, sobre 250-300W pero sobretodo actua cuando se aplican "frenos" cuando hay picos de consumo (donde puedes verte picos de 380-400W incluso con power limit del 55% porque el power limit actua despues por el retraso en detectar el consumo que pueda tener. Pero en general el consumo medio es considerablemente mejor y te ahorras machacarla con picos fuera de control.
En resumen si a alguien le preocupa la relacion consumo/rendimiento, bajar el power limit está genial.
Muchas gracias
Es posible usar 2 GPU diferentes para IA en este caso Stable Diffusion?, lo digo porque compré una 4080 super para IA pero quisiera aprovechar mi anterior 4070.
Holaaa! Me serviria una mac m3 con 16gb de ram?
En septiembre de 2024 seguramente presentaran las nuevas rtx 50
Pero si no os podeis esperar en el CES enero 2024 sacaran 3 gpu nuevas rtx 40, (las super) que traen mejoras a las que hay ahora
Menos la 4090, no hay ninguna super que la supere a esa bestia
Buenas! Sigo el canal desde hace un tiempo, sobre todo por la parte de noticias de IA semanales, un apartado muy nutritivo para el cerebro viendo la cantidad de impactos que tenemos al dia. Estuve buscando pero no he conseguido ver el vídeo de como instalar Stable Difusión en local y como usarlo, ¿Podeis poner el link a mano si está hecho? Muy buen trabajo y el contenido que haces 👍😉
Esta rn el curso de ia. Tienes el link en la descripción
Sería bueno ahora explicar que con Forge-UI, mejora la velocidad especialmente en tarjetas menos potentes.
Un punto en el que tengo dudas, es que pasa con los nuevos procesadores nuevos con NPU ?
Van a mejorar, a corto plazo el rendimiento con SD ? Vale la pena esperar a esos procesadores y esperar que SD también trabaje con esos NPU ?
Habrá una diferencia entre GPU y NPU ?
Muchas gracias por el video.
EN ARGENTINA ESOS PRECIOS SON EL DOBLE, SALUDOS DESDE ARGENTINA
amigo y para que srive ese nucleo que estan trayendo los nuevos procesadores, como el 8700g de amd, se llama NPU,ayudara en algo a la IA ?????? gracias.
Esta mas enfocado para servicios en sistemas operativos. Se pueden usar sus 16tops (que creo que tiene) para hacer uno que otro trabajo. Pero lo mejor es una gráfica.
Hola Jon! Una pregunta, el bottleneck que existe al momento de combinar placa grafica y procesador cuando hablamos de gaming, existe en estos casos?
Muy bueno el video, quisiera saber si un RIG de mineria sirve para una AI? esto de usar varias gpu en un mismo cepu para que sea mas economico. Gracias.
Un RIG como tal sería como tener un cpu con varios núcleos , tu windows va a reconocer cada gpu de forma individual lo que no sé es si el programa te podría reconocer todas Creo solo lo podría hacer con una a ala vez y para que puedas tener el doble de poder tendrías que poner 2 gráficas máximo en un sistema SLI para ahí si el sistema las reconocería como una sola GPU
Si estos son los recursos que nos pide StableDifussion para las fotos, no puedo ni imaginar lo que se va a requerir para vídeo en HD... por no hablar del tiempo que nos va llevar el realizar las secuencias
Para una foto en 1080p una resolución muy baja en estos tiempos
Yo creo que me inclinaría por la rtx 3090 pensando en la escalabilidad ya que esta soporta nvlink y podría a mediano plazo comprar otra y unirlas para obtener 48gb vram
Se podría probar con las versiones Ultra de intel?
Podrías supuestamente vender el poder de computo del pc ⚡ por tokens Rndr. Un proyecto cripto de Renderizado...
buenas tardes queria saber que conviene mas si un intel core i9 14900k o un amd ryzen 9 7950X a nivel de micros, tomando en cuenta velocidad, y compatibilidad con programas para inteligencia artificial, redes neuronales, aprender y usar stable diffusion etc. placa de video usaria por el momento una rtx3060 que ya tengo, dato a tener en cuenta los costos son muy similares, muchas gracias
Si tienes dinero en este caso es mejor que esperes a los nuevos procesadores amd o Intel que tendrán núcleos dedicados exclusivamente a la IA eso hará un rendimiento absurdamente superior a lo que ves hoy en IA
No se puede con MacBook serie M.Tambien seria bueno un video de IAs de audio las que traducen voces y cantan en otros idiomas diferentes a la voz original
Yo tengo un asus 18 scar con una rtx 4090 me funciona?
Excelente, Gracias por la información, me ha servido mucho porque estoy pensando en comprar un #Slimbook portátil muy parecido al del vídeo
¡¡Hola!! ¿Que tal? ¡¡Buen video!! Tengo un pc con un Xeon e5 2680 v4, 32 gb de ram ddr4 y una amd rx580 de 8gb. Como te podrás imaginar, con esta gráfica apenas voy a poder ejecutar modelos de IA . ¿Crees que una 3060 de 12 gb para empezar esta bien o me recomiendas otra (ahora mismo no me puedo gastar mucho)? Hay que tener en cuenta que ya mismo saldrá la serie 5000 de nvidia. Saludos
Si, podrás correr modelos de 8b o 12b de forma local
Esperaba ver un procesador Ryzen en las pruebas + gráficas.?
Mucho depende del modelo, supongo que para imagenes es importante la memoria ... pero para otros casos?
Pienso que hay que esperar las nuevas versiones de placas de NVidia, ya que incorporarán procesadores optimizados para IA, en el mientras tanto la 4060 TI es una opción muy válida sin gastar tanto dinero, muy buena comparativa Jon
RTX 4090, yo pensando si realmente necesito dos riñones 🤔🥺
Yo tengo una 4070 ti y me costó unos 800 dolares con descuento, yo creo en un año Nvidia llevará esto a tope, y no dudo que empresas como Apple o el mismo Intel estén mejorando sus procesadores para IA
Hombre, yo un ordenador de sobremesa no me pienso comprar, ya los tuve en su día cuando eran los únicos que había. El primer ordenador que me compré fue de Apple, hará unos 35 años, y desde entonces los siguientes han seguido siendo de la misma marca, no por ninguna bobada de fidelidad, sino por el simple hecho de que han ido bien. Ahora el que tengo, que salió el mes pasado, es el modelo tope de gama del MacBook Pro M3 Max, que además amplié al máximo de todo lo configurable; lo más de lo más de un portátil Apple que te puedas comprar. Y no, no me salió por los cuatro o cinco mil euros que comentas, sino por prácticamente el doble: casi diez mil. Toda esta parrafada viene a cuento de que no me creo -no quiero creerme- que mi portátil pueda tardar en generar esas imágenes cinco veces más que los de sobremesa de tu comparativa. Espero y deseo que tamaña lentitud fuera imputable a modelos de Mac anteriores o a recientes más raspaditos de recursos. Con mi MacBook Pro anterior generé con Firefly de Adobe, antes de que me llegara el nuevo, varios miles de imágenes, de las que se consiguieron salvar de mi primera criba sobre la marcha más de cuarenta mil. Aunque todo lo iba haciendo de forma intuitiva por prueba y error, aprendiendo de los cambios que se producían al introducir una nueva variable en el prompt. Como método, desde luego, es muy poco estructuradito.
El tema es que mac no está optimizado para eso con su memoria combinada. Me temo que el rendimiento te decepcionara mucho. Lo de firefly lo hacen los ordenadores de Adobe en la nube, lo que hablamos aquí es usarlo de forma local. Instala stable difussion y pruébalo que me da curiosidad jaja
Gracias, Jon, lo haré. Aunque quizá lo mejor sea seguir tu curso de IA, que son ya demasiados cabos sueltos los que arrastro y no sólo técnicos sino, lo que es peor, conceptuales.
una 4090, seguramente es una bestia, pero qué rendimiento se obtendría poniendo a trabajar dos 4060 o dos 4070 en paralelo (conectadas en la misma placa base, claramente)?
Estoy pensando en comprar un super PC y me encantaría saber si tienes algún código de descuento, sería interesante si pudiese ayudarte también con mi compra, gracias y saludos !!
Escríbeles con pantallazo de esto y te harán un descuento :)
Yo trate de usar SD con una 4050 de 6 GB... y no lo recomiendo
Jaaj
No estoy muy de acuerdo con tus valoraciones, llevo usando SD el local desde que se ha podido hacer, y en mi opinion lo mínimo para generar imagenes es una 3070, para entrenar modelos usa My Pods con acceso a 4090 o h 100 lo que quieras, ademas la ram disponible si es relevante, hay procesos en la generacion que hacen swap a ram por lo tsnto cuanta mas tengas mejor otra cosa es que tengas eue hacer publicidad de tu patrocinador
No tiene nada que ver con el patrocinador, el te puede montsr lo que quieras por lo que no tiene sentido tu comentario XD, no has visto el rendimiento de la prueba? El equipo con la 4090 lleva 64gb de ram el otro solo 16 y prácticamente no tiene efecto. Una 4060ti 16gb rinde muchísimo mejor que una 3070 e incluso que una 3080. ( tengo dos pcs con 3080) un saludo
Por supuesto que una 3080 o superior va más rápido que una 3070, yo lo que trato de decir es que no hoy no es necesaria una 4090 - 2000€ y 500 wats de consumo, con dreamboht hacían falta 24 GB de vram hoy para lora lo puedes hacer con 8, SD turbo no necesita tanta maquina y esa es la tendencia cada vez menos recursos para trabajar con modelos de ai, por lo que cada vez tiene menos sentido ir al hardware más potente. Y como dije antes para entrenar modelos My Pods y tendrás acceso a gráficas que no podrías pagar como las h100
@@emotionalshock4079 no se si has visto el video pero precisamente digo que 4060ti (500€) es posiblemente la mejor opcion
@@emotionalshock4079 discrepo contigo, es verdad que optimizan para menos recursos pero el SD turbo es para generación de video, tiene una perdida de calidad muy alta igual que el LCM le falta bastante entrenamiento aun y si quieres generar imágenes grandes en pixel y varias a la vez necesitas mucha VRAM además stability puede sacar un modelo XXL que en vez de generar 1024x1024 puede ser de hasta 4096x4096 siempre será mejor mas potencia para no esperar en lo ultimo si se lo puede permitir el bolsillo así es la informática.
para que queres hacer una foto con inteligencia artificial?no entiendo
Hay personas que usan esos generadores de imágenes para crear arte, para crear contenido en las redes sociales, para entretenimiento, etc . Algunos de estos generadores cobran una membresía. Entonces prefieres pagarle dinero a una empresa o solo comprar una tarjeta gráfica y crear imágenes de forma ilimitada?
ChatGPT me califica la configuración del 4090 como «impresionante». ¿Estarán conchabados ChatGPT y Slimbook?
Todavía esta bien mi rtx 2080ti 😊
En un video de 18 minutos estaría bien poner un indice
No vale la pena ver COMPLETO este video, es preguntar en una IA y ya, respuesta corta y precisa.
mi gtx 1050 de 2gb en caso de poder demoraría 10 horas :v
en resumen necetiamos es plata, mucha plata y ahi pensamos en un set up para IA
Por ello mucha gente prefiere pagar una cuota mensual, hay paginas que con un pago mensual montan el Stable diffusion completo y ofrecen entrenamiento LORA como Civitai
La 4090 Ti no existe.
He dicho ti?
@@la_inteligencia_artificial 12:31 Me emocione creí que ya había salido.
Se podrá montar dos GPU en paralelo para mejorar el resultado.
si en raid
Bueno, podemos ver que con la IA en realidad no solamente gana dinerillo el tío Bill Gates de Microsoft sino que también ganan de ese dinerillo los fabricantes de targetas graficas.
🤣😂🤣
Los que más...
Empieza el video -> 13:40
Gracias 👍🏻