Gracias Xavier, super interesante. Por cierto. Me apunté al gen48. Gracias por la recomendación para probar Runway gen 3 🎉 por cierto parece que llega la temporada de fresas , 🍓🍓🍓 esperamos con ansias tu próximo vídeo...
ese modelo es bueno, pero en mi 3090 demora 30 minutos hacer un video de img to video de 5 segundos realmente es muy pesado, no esta optimizado, no usa la vram, usa mas la memoria ram como 40gb's
La licencia es apache2, así que puedes usarlo comercialmente. La licencia del modelo sólo añade a lo anterior que no se puede usar para actividades delictivas, dañinas para la humanidad, o uso miltar.
@@MarveComic Por ahora no :( Según he leído en las "issues" de su repositorio, ya tienen un modelo para eso, pero no tienen pensado liberarlo por ahora (creo que lo tienen de pago en algún sitio). Eso sí, parece que ya hay varias personas intentando finetunear el modelo txt2video para conseguir uno img2video :)
En la página de Github dicen que se puede ejecutar con sólo 5GB de VRAM cambiando un par de cosas en la inferencia (aunque aún no lo he probado). Dicen literalmente esto: "🔥🔥 News: 2024/8/29: By adding pipe.enable_sequential_cpu_offload() and pipe.vae.enable_slicing() to the inference code of CogVideoX-5B, VRAM usage can be reduced to 5GB. "
En el video se utiliza un hardware con 24GB de VRAM y 32GB de RAM, y aun así, cada generación de video en el modelo 5B tarda de 6 a 8 minutos para producir 6 segundos de video. Por lo tanto, usar este modelo podría exigir bastante a tu configuración actual. Sería mejor inversión estresar el hardware de MimicPc más rentable a largo plazo y alargas la vida útil de tu máquina.
En el readme del repositorio dicen que se puede usar con 5GB si se modifica un script, pero no creo que se pueda usar desde ComfyUI con esa modificación (o quizás sí, aún no lo he probado). Eso sí, como bien dice dankoat, con 8GB VRAM va a tardar la vida en generar algo ^_^U
SUSCRÍBETE a mi NEWSLETTER y recibe un GPT de regalo:
👉 bit.ly/ia-newsletter_
Recibe toda la INFO de mi ACADEMIA:
👉 bit.ly/curso_ia_
Muchas gracias por la información, eres un Crack en IA
Gracias Xavier, super interesante. Por cierto. Me apunté al gen48. Gracias por la recomendación para probar Runway gen 3 🎉 por cierto parece que llega la temporada de fresas , 🍓🍓🍓 esperamos con ansias tu próximo vídeo...
Hola Alex! ¡A mi también me han dado acceso al gen48! Este finde toca quemar créditos :)
Super interesante como siempre, excelente.
hola, puedes explicar como instalar correctamente, tengo el confyui pero cuando supo el workflow nada sucede, me da error
Gracias por el tutorial. Se puede usar un Lora entrenado con la cara de una persona para crear un vídeo?
No
La comunidad aporta mucho al opensource pero lleva su tiempo si es muy nuevo esto
ese modelo es bueno, pero en mi 3090 demora 30 minutos hacer un video de img to video de 5 segundos
realmente es muy pesado, no esta optimizado, no usa la vram, usa mas la memoria ram como 40gb's
se puede usar comercialmente o se puede vender los videlos que genere?
La licencia es apache2, así que puedes usarlo comercialmente. La licencia del modelo sólo añade a lo anterior que no se puede usar para actividades delictivas, dañinas para la humanidad, o uso miltar.
@@juanjesusligero391 gracias sabes si se puede usar con imagen a video?
@@MarveComic Por ahora no :(
Según he leído en las "issues" de su repositorio, ya tienen un modelo para eso, pero no tienen pensado liberarlo por ahora (creo que lo tienen de pago en algún sitio). Eso sí, parece que ya hay varias personas intentando finetunear el modelo txt2video para conseguir uno img2video :)
el pago es anual? me parece bien, no todos pueden comprar GPUs tan caros.
Hola, el pago de MimicPc es solo un pago único
cuando dices de una maquina suficientemente potente es cuanto? El mio tiene memoria 8gb 1tb sdd, icore 11
En la página de Github dicen que se puede ejecutar con sólo 5GB de VRAM cambiando un par de cosas en la inferencia (aunque aún no lo he probado).
Dicen literalmente esto: "🔥🔥 News: 2024/8/29: By adding pipe.enable_sequential_cpu_offload() and pipe.vae.enable_slicing() to the inference code of CogVideoX-5B, VRAM usage can be reduced to 5GB. "
En el video se utiliza un hardware con 24GB de VRAM y 32GB de RAM, y aun así, cada generación de video en el modelo 5B tarda de 6 a 8 minutos para producir 6 segundos de video. Por lo tanto, usar este modelo podría exigir bastante a tu configuración actual. Sería mejor inversión estresar el hardware de MimicPc más rentable a largo plazo y alargas la vida útil de tu máquina.
En el readme del repositorio dicen que se puede usar con 5GB si se modifica un script, pero no creo que se pueda usar desde ComfyUI con esa modificación (o quizás sí, aún no lo he probado). Eso sí, como bien dice dankoat, con 8GB VRAM va a tardar la vida en generar algo ^_^U
Se puede usar en MimicPc?
Esto... ¿Has visto el vídeo? ^_^U La respuesta es sí. Tienes el workflow para MimicPC en la descripción.
con forge no se puede?
Hola lecitron, en teoría no, han puesto la nueva función de spaces, pero aún no la he probado en profundidad.
@@XavierMitjana-Lab gracias por comentar
😍😍😍😘