Buenísimo! He buscado información relacionada con la IA y la creación de imágenes, y considero que este es el mejor vídeo sobre el tema. Felicitaciones Xavier!
Sensacional tu canal. Muchas gracias!!!😅🎉 Resulta abrumadora la eclosión de la IA, y te escojo como uno de mis 3 canales de referencia. Bona feina company! 😊
Muy buena la comparativa. Ya que DAll-e viene integrado en un creador de bing, lo estoy probando, esta muy bien. Le he dado prompts para que me haga diseños de dibujos que parezcan logos y esta interesante. Yo tengo más interés en las IAs, para temas conversacionales educativos... pero esto ya tiene un nivel que vale la pena conocer. Me gustaria que la opción de relllenar el exterior de una imagen estuviera también en firefly, no solo partes de la imagen, y de lo que tienen puesto en próxima aparición, poder usar el darle una imagen y que tu prompt lo ajuste al estilo de esa imagen.
Ayer fue muy emocionando ver cómo funcionaba DALL-e3 y me gustó el resultado, se apegó al prompt que le di. Gracias por la comparación que presentaste. También me ha gustado que POE agregara un generador de imágenes.
A mí estéticamente tiene algo que no me convence. Pero con un poco de imaginación, puede solucionarse. Vamos, pasando luego las imágenes por un workflow de Stable Diffusion.
@@XavierMitjana gracias por tan buen contenido, me encanta y trato de llevar esto en mi canal siempre que este relacionado con Analisis de datos, aunque lo del tema de las imagenes me encanta demasiado
tienes algun video que muestre como usar Stable Diffusion XL de forma gratuita? por ejemplo en el minuto 15:41 hablas de POE. Tienes un video sobre ello por favor? Gracias.
Gratis o más o menos gratis, puedes hacerlo en Leonardo, POE y quizá PlaygroundAI. En clipdrop creo que también se puede. Tendrás límites diarios, pero entre todas es prácticamente ilimitado.
muy buenas comparativas Xavier, aunque yo como ilustrador y diseñador hubiera colocado como palabras claves para el robot "flat design" en vez de flat colors, ya que el flat desing esta directamente asociado con vectores y lo interpretaría mejor, igual es solo un apunte, gracias por esos videos tan buenos.
@@666MM para mi no, pero conozco mucha gente que no lo consigue, que si hace falta una versión especifica, que si dependencias, que si errores, menudo drama para instalar SDXL o Turtoise, te llena el pc de basura. Sigo reafirmandome y veo que no soy el único por los likes
Excelente comparación, Xavier! Me gustaría añadír que a pesar de que Bing y ChatGPT usan Dalle3, al probar en ambos, por alguna razón que desconozco tuve resultados ligeramente mejores en Bing.
Sí, es cierto, porque aunque sobre el papel utilizan el mismo modelo, el ajuste parece bastante distinto. Utilizar una herramienta u otra ahora nos exige conocer en que funciona mejor cada una. Vamos, que habrá trabajo solo para entender el ecosistema de herramientas.
Xavier una consulta. En el minuto 5:47 empiezas a explicar lo de Firefly. Tengo una duda sobre el uso de los Creditos generativos en este caso. Tú en la pantalla principal de Firefly usastes un prompt y le distes a generar. En vista de que en la pantalla principal no existe la forma de elegir por ejemplo la relacion de aspecto y otros atributos, sino solo de escribir un prompt y darle a Generar como lo has hecho, eso indica que esa generación se cuenta como 1 credito generativo? si es así Adobe nos estaría haciendo gastar 1 credito en balde, porque solo despues de escribir el promot y darle a generate, recien se ingresa a la pantalla donde aparece otras especificaciones que uno quisiera verdad? Se entiende mi consulta? Gracias por tus tutoriales.
Hola Javier, tengo varios en el canal, pero el método en concreto que utilizo en la miniatura es este: ruclips.net/video/fuzmBCQRxBw/видео.htmlsi=hc_EYQGnKv3h_J8V
Estuve usando mucho dalle 3 desde bing y es increible las ilustraciones que puede crear , lo unico que a los dias que salio tuvo muchas restricciones , ahora no se puede poner nombres de nadie que sea famoso , es dificil pedirle una ilustracion de cualquier persona famosa , ejemplo actor o cantante, el primer dia hice con elvys presley , y a los dias ya no me dejaba, por que me bloquea el promt , incluso sin ser algo que pueda interpretar ofensivo , era elvis tocando la guitarra. Ojala revean eso , o analicen el promt antes de bloquearlo.Despues para todo lo demas increible
@@HariArcade prefiero dalle 2. El sacrifició al precio de pasar de dalle 2 al 3 es que ahora no te dan los -100/100 puntos o boost cada dos días, si no que ahora se gastan. Si me das a elegir prefiero los boost rellenables a cambio del modelo anterior, ya que este no es la gran cosa y viene muy restringido.
Yo trabajo en publicidad y utilizo Midjourney. Para imágenes de belleza tipo glamour los resultados son increíbles pero no consigo por ejemplo una imagen de una esteticista realizando un tratamiento de depilación láser, que es lo que necesito para algunos de mis clientes. Sabes que plataforma me iría bien para crear ese tipo de imágenes realistas? Muchas gracias por tu contenido!
En teoría sí, pero las pruebas que he realizado de momento me sugieren que no es tan inmediato como parece. Seguiré investigando porque lo tengo solo desde ayer.
¿Como hago para que me de 4 imagenes? a mi solo me esta dando una cuando uso DALL-E 3 en Chat GPT. ¿Donde deja las imágenes creadas DALL-E 3 en Chat GPT?, estuve trabajando una imagen al final las puso no se donde y no pude recuperar el trabajo anterior.
@@XavierMitjana ¿Donde deja las imágenes creadas DALL-E 3 en Chat GPT?, estuve trabajando una imagen al final las puso no se donde y no pude recuperar el trabajo anterior.
Hola Xavier muy bueno el video como todos los que haceis en el canal, me pregunto si el usar Stable Diffusion desde POE no lo pone en desventaja, en mi experiencia los resultados son peores que el uso del mismo prompt desde Stable Diffusion Web o desde Automatic 1111, a Dall E 3 creo que le pasa lo mismo, no responde igual desde Chat GPT Pro que desde BING, que opinas?
Sí, con Stable Diffusion XL es difícil hacer una comparación completamente justo porque el entorno de Stable Diffusion XL es mucho más heterogéneo que el de resto de generadores. He optado por utilizar una de las muchas integraciones generalistas que hay. Pero Stable Diffusion, con sus virtudes y sus defectos, juega en una liga diferente.
Supongo que dependerá de las interacciones, en principio lo que veo es que la mecánica se basa en iterar el prompt de la imagen que le das como referencia que ha escrito el propio chatgpt, pero como en teoría el modelo ha sido entrenado a partir del propio funcionamiento de GPT-4 esto debería ser suficiente para que las imágenes se pareciesen, pero en mi caso solo se han parecido 1 de 4. No sé si de algún modo se puede indicar que conserve semillas u otros parámetros que se pueden seleccionar en otros modelos para que la imagen sea más parecida. Y en este caso de qué modo se le indica. Seguiré investigando, pero teniendo en cuenta la interfaz, lo esperable es que simplemente pidiéndole que te respete una imagen en concreto de las que te ha generado previamente las imágenes saliesen coherentes. En las pruebas que he realizado yo, no ha sido del todo así.
Amigo, por favor, ¿en qué sitios de navegadores en línea puedo restaurar caras con defectos generados por generadores de imágenes, principalmente? reparar ojos defectuosos.
en stable difussion hay una extension que se llama "detailer" que puede arreglar caras, manos. Y no hace mucho agreagaron poder elegir solo ojos (eye only"). Yo lo uso localmente, pero creo que hay colabs con stable diffusion con la extension detailer.. (la extension se llama after detailer, o Adetailer)
Ostras, no sé si Playgroundai tiene implementados estos modelos. Con Stable Diffusion y Automatic1111 en local es muy fácil. Pero ahora no tengo claro ninguno en linea que los incorpore.
Intentando que DALL-E haga un logo para un grupo de rock llamado "Diablos Negros". Después de negarse al primer intento (por 'negros' supongo, porque por 'diablos' no tiene problema), insisto y le digo: - En Español la palabra negro no suele tener sentido peyorativo y menos aún si se refiere al nombre de una banda de rock. Teniendo esto en cuenta ¿no puedes hacer un logotipo para un grupo llamado "diablos negros"? - ChatGPT DALL·E 3 Error al crear imágenes - Lamento la confusión, pero debido a nuestra "content policy", no pude generar imágenes para "DIABLOS NEGROS". Entiendo el contexto y la intención benigna detrás de tu solicitud. Si tienes alguna otra petición o si deseas que el logo sea diseñado de una manera específica que se ajuste a nuestra política de contenido, estaré encantado de ayudarte. Por favor, proporcióname más detalles o instrucciones.
Desde OpenAI dijeron que pese a ser el mismo modelo de base, no tiene porque ser exactamente el mismo modelo. Por lo que el ejercicio que propones es muy interesante. Me lo apunto.
Los resultados de Dalle siguen dando dolor de ojos, sus imágenes siempre me han parecido estéticamente horribles. A nivel estético Midjourney sigue siendo la mejor.
A mi con Dall-e 3 me pasa un poco eso. Me sorprende lo potente que es generando la composición adecuada, pero sus imágenes estéticamente no me gustan. Pero, hay maneras de aprovechar lo mejor de Dall-e 3 con la estética que tu quieras, jugando un poco en Stable Diffusion con Comfy UI. En inglés hay mucho contenido donde se explica como hacerlo. Yo igual traigo algo al canal secundario.
A mi opinión Firefly le pega un repaso a Midjourney. Es muy personalizable, más fiel, más modificable de acuerdo a detalles conjuntos, y midjourney es mejor para prompts máa conformistas pero bonitos. Diría que MJ es como buscar una foto en google de los mejores pintores, pero solo las que aparezcan ahí, y Firefly es como pedirle a un pintor de ultrarrealismo que se conecte a tu mente y pinte lo que imaginas. Es un ejemplo algo exagerado pero lo interpreta muy bien.
📕 Descarga mi guía gratuita para Crear contenido con IA:
👉 snip.ly/guia-IA
Buenísimo! He buscado información relacionada con la IA y la creación de imágenes, y considero que este es el mejor vídeo sobre el tema. Felicitaciones Xavier!
Sensacional tu canal. Muchas gracias!!!😅🎉 Resulta abrumadora la eclosión de la IA, y te escojo como uno de mis 3 canales de referencia. Bona feina company! 😊
Muy buena la comparativa. Ya que DAll-e viene integrado en un creador de bing, lo estoy probando, esta muy bien. Le he dado prompts para que me haga diseños de dibujos que parezcan logos y esta interesante. Yo tengo más interés en las IAs, para temas conversacionales educativos... pero esto ya tiene un nivel que vale la pena conocer. Me gustaria que la opción de relllenar el exterior de una imagen estuviera también en firefly, no solo partes de la imagen, y de lo que tienen puesto en próxima aparición, poder usar el darle una imagen y que tu prompt lo ajuste al estilo de esa imagen.
Ayer fue muy emocionando ver cómo funcionaba DALL-e3 y me gustó el resultado, se apegó al prompt que le di. Gracias por la comparación que presentaste. También me ha gustado que POE agregara un generador de imágenes.
En esto es el mejor con diferencia Paulo.
Dalle3 me ha parecido la mejor herramienta de todas y es muy comodo que no tenga que ir a otro lado fuera de chatgpt para poderla utilizar
Concuerdo y tiene unos resultados menos controlables pero muy buenos
A mí estéticamente tiene algo que no me convence. Pero con un poco de imaginación, puede solucionarse. Vamos, pasando luego las imágenes por un workflow de Stable Diffusion.
@@XavierMitjana gracias por tan buen contenido, me encanta y trato de llevar esto en mi canal siempre que este relacionado con Analisis de datos, aunque lo del tema de las imagenes me encanta demasiado
Me encanto lo que esta haciendo dalle, están super las imágenes.
Como siempre muy buena información, explicación y video. Muchas gracias y hasta el próximo video.
Gracias!
tienes algun video que muestre como usar Stable Diffusion XL de forma gratuita? por ejemplo en el minuto 15:41 hablas de POE. Tienes un video sobre ello por favor? Gracias.
Gratis o más o menos gratis, puedes hacerlo en Leonardo, POE y quizá PlaygroundAI. En clipdrop creo que también se puede. Tendrás límites diarios, pero entre todas es prácticamente ilimitado.
muy buenas comparativas Xavier, aunque yo como ilustrador y diseñador hubiera colocado como palabras claves para el robot "flat design" en vez de flat colors, ya que el flat desing esta directamente asociado con vectores y lo interpretaría mejor, igual es solo un apunte, gracias por esos videos tan buenos.
25:24 dijo Adobe XL, quizo decir Stable Diffusion XL 33:23 dice que ideogram es el peor respecto al texto, cuando es el mejor
Encuentro que necesitamos mas software ia facil de instalar, de esos de descargar, instalar y usar. Sin necesidad de instalar phyton, o cosas raras.
Encuentra lo que quieras pero hasta que no lo hagan… si quieres probarlo instala Python que no es nada raro y te irá bien.
Hey python no Es una cosa rara
Tengo el vídeo pendiente, pero podéis echar un vistazo a un proyecto que se llama Pinokio.
@@666MM para mi no, pero conozco mucha gente que no lo consigue, que si hace falta una versión especifica, que si dependencias, que si errores, menudo drama para instalar SDXL o Turtoise, te llena el pc de basura. Sigo reafirmandome y veo que no soy el único por los likes
Desde cuándo phyton es cosa rara? 😂😂
Excelente comparación, Xavier! Me gustaría añadír que a pesar de que Bing y ChatGPT usan Dalle3, al probar en ambos, por alguna razón que desconozco tuve resultados ligeramente mejores en Bing.
Sí, es cierto, porque aunque sobre el papel utilizan el mismo modelo, el ajuste parece bastante distinto. Utilizar una herramienta u otra ahora nos exige conocer en que funciona mejor cada una. Vamos, que habrá trabajo solo para entender el ecosistema de herramientas.
Muy completo el análisis. Muchas gracias.
Xavier una consulta. En el minuto 5:47 empiezas a explicar lo de Firefly. Tengo una duda sobre el uso de los Creditos generativos en este caso. Tú en la pantalla principal de Firefly usastes un prompt y le distes a generar. En vista de que en la pantalla principal no existe la forma de elegir por ejemplo la relacion de aspecto y otros atributos, sino solo de escribir un prompt y darle a Generar como lo has hecho, eso indica que esa generación se cuenta como 1 credito generativo? si es así Adobe nos estaría haciendo gastar 1 credito en balde, porque solo despues de escribir el promot y darle a generate, recien se ingresa a la pantalla donde aparece otras especificaciones que uno quisiera verdad? Se entiende mi consulta? Gracias por tus tutoriales.
Seguramente se puede acceder directo a la interfaz, yo justo lo he empezado a probar y como estaba en modo prueba, no me he preocupado por ello.
Xavier es posible subir algún tutorial sobre como generar fotos de uno mismo, así como lo haces en las miniaturas de tus vídeos?
Hola Javier, tengo varios en el canal, pero el método en concreto que utilizo en la miniatura es este:
ruclips.net/video/fuzmBCQRxBw/видео.htmlsi=hc_EYQGnKv3h_J8V
Pueden entrenar loras con tu cara y cuerpo... lora training..para stable difussion utlizando la app kohya_ss. Es bien facil y hay varios tutos.
Que buen proceso! las comparativas y las posibilidades!
Muchas gracias! 😊
Dalle 3 está, avanzado muchísimo! Creeo que será el número 1!😉👍🤩
Estuve usando mucho dalle 3 desde bing y es increible las ilustraciones que puede crear , lo unico que a los dias que salio tuvo muchas restricciones , ahora no se puede poner nombres de nadie que sea famoso , es dificil pedirle una ilustracion de cualquier persona famosa , ejemplo actor o cantante, el primer dia hice con elvys presley , y a los dias ya no me dejaba, por que me bloquea el promt , incluso sin ser algo que pueda interpretar ofensivo , era elvis tocando la guitarra. Ojala revean eso , o analicen el promt antes de bloquearlo.Despues para todo lo demas increible
No es la gran cosa, yo le pedi algunas cosas no tan dificiles y me hizo cosas raras, hay error de composición siempre
sii siento que le faltan cosas, pero tiene una calidad muuy buena y encima desde bing es gratis, puntazo a favor jaja@@brindisi10
@@HariArcade prefiero dalle 2.
El sacrifició al precio de pasar de dalle 2 al 3 es que ahora no te dan los -100/100 puntos o boost cada dos días, si no que ahora se gastan.
Si me das a elegir prefiero los boost rellenables a cambio del modelo anterior, ya que este no es la gran cosa y viene muy restringido.
Yo trabajo en publicidad y utilizo Midjourney. Para imágenes de belleza tipo glamour los resultados son increíbles pero no consigo por ejemplo una imagen de una esteticista realizando un tratamiento de depilación láser, que es lo que necesito para algunos de mis clientes. Sabes que plataforma me iría bien para crear ese tipo de imágenes realistas? Muchas gracias por tu contenido!
Pues para esto en principio firefly debería ser tu generador ideal.
@@XavierMitjana lo voy a probar, gracias!
Tu crees que se podrias creaer un story board con la opcion de char gpt y dalle 3 ?
En teoría sí, pero las pruebas que he realizado de momento me sugieren que no es tan inmediato como parece. Seguiré investigando porque lo tengo solo desde ayer.
La comparativa no es justa. En SD solo has generado dos y has comparado dos contra 4 de los otros
¿Como hago para que me de 4 imagenes? a mi solo me esta dando una cuando uso DALL-E 3 en Chat GPT.
¿Donde deja las imágenes creadas DALL-E 3 en Chat GPT?, estuve trabajando una imagen al final las puso no se donde y no pude recuperar el trabajo anterior.
Hola Alberto, lo han actualizado y ahora solo da uno por mensaje. Copilot sigue dando 4.
@@XavierMitjana ¿Donde deja las imágenes creadas DALL-E 3 en Chat GPT?, estuve trabajando una imagen al final las puso no se donde y no pude recuperar el trabajo anterior.
Hola Xavier muy bueno el video como todos los que haceis en el canal, me pregunto si el usar Stable Diffusion desde POE no lo pone en desventaja, en mi experiencia los resultados son peores que el uso del mismo prompt desde Stable Diffusion Web o desde Automatic 1111, a Dall E 3 creo que le pasa lo mismo, no responde igual desde Chat GPT Pro que desde BING, que opinas?
Sí, con Stable Diffusion XL es difícil hacer una comparación completamente justo porque el entorno de Stable Diffusion XL es mucho más heterogéneo que el de resto de generadores. He optado por utilizar una de las muchas integraciones generalistas que hay. Pero Stable Diffusion, con sus virtudes y sus defectos, juega en una liga diferente.
Stable diffusion utilizando controlnet+realistic vision v5+lora y el mejorador de detalles que integra es una locura
Excelente👌👌
Hay algo raro, DotCSV subió un vídeo en el que las imágenes se parecían más entre sí.
Supongo que dependerá de las interacciones, en principio lo que veo es que la mecánica se basa en iterar el prompt de la imagen que le das como referencia que ha escrito el propio chatgpt, pero como en teoría el modelo ha sido entrenado a partir del propio funcionamiento de GPT-4 esto debería ser suficiente para que las imágenes se pareciesen, pero en mi caso solo se han parecido 1 de 4. No sé si de algún modo se puede indicar que conserve semillas u otros parámetros que se pueden seleccionar en otros modelos para que la imagen sea más parecida. Y en este caso de qué modo se le indica. Seguiré investigando, pero teniendo en cuenta la interfaz, lo esperable es que simplemente pidiéndole que te respete una imagen en concreto de las que te ha generado previamente las imágenes saliesen coherentes. En las pruebas que he realizado yo, no ha sido del todo así.
Amigo, por favor, ¿en qué sitios de navegadores en línea puedo restaurar caras con defectos generados por generadores de imágenes, principalmente? reparar ojos defectuosos.
en stable difussion hay una extension que se llama "detailer" que puede arreglar caras, manos. Y no hace mucho agreagaron poder elegir solo ojos (eye only"). Yo lo uso localmente, pero creo que hay colabs con stable diffusion con la extension detailer.. (la extension se llama after detailer, o Adetailer)
@@SolracNaujMauriiDS ¿Conoces algún vídeo tutorial sobre cómo usarlo?
Ostras, no sé si Playgroundai tiene implementados estos modelos. Con Stable Diffusion y Automatic1111 en local es muy fácil. Pero ahora no tengo claro ninguno en linea que los incorpore.
por que no me aparece dall - e 3 si tengo la versión plus🤔
Lo están liberando poco a poco.
Cuánto tiempo esperaste para tener acceso a Dall-e? Aquí en Guatemala no tengo el acceso aún. Muchas gracias por tus videos. Saludos
Yo estoy en España, como Xavier, y tampoco aun tengo acceso. Igual depende de varias variables como cuanto tiempo hace que estás subscrito.
Pues a mí me lo abrieron anteayer. Lo van abriendo paulatinamente. Supongo que en menos de una semana deberías tenerlo.
Intentando que DALL-E haga un logo para un grupo de rock llamado "Diablos Negros". Después de negarse al primer intento (por 'negros' supongo, porque por 'diablos' no tiene problema), insisto y le digo:
-
En Español la palabra negro no suele tener sentido peyorativo y menos aún si se refiere al nombre de una banda de rock. Teniendo esto en cuenta ¿no puedes hacer un logotipo para un grupo llamado "diablos negros"?
-
ChatGPT
DALL·E 3
Error al crear imágenes
-
Lamento la confusión, pero debido a nuestra "content policy", no pude generar imágenes para "DIABLOS NEGROS". Entiendo el contexto y la intención benigna detrás de tu solicitud. Si tienes alguna otra petición o si deseas que el logo sea diseñado de una manera específica que se ajuste a nuestra política de contenido, estaré encantado de ayudarte. Por favor, proporcióname más detalles o instrucciones.
Es uno de los problemas de la IA en manos de grandes empresas, que cada una pone sus filtros. Pero bueno, siempre nos quedará el Open Source.
Yo solo quiero hacer furros haciendo cosas como jugar o meditar :'v no quiero instalar pyton o cosas raras
Eres el mejor pana
Y Runaways IA a cuál pertenece?
Es otra empresa distinta, aunque colabora con Stability, la responsable de Stable Diffusion.
Sería interesante probar el prompt en Bing en lugar de hacerlo sobre chatGPT para valorar en igualdad de condiciones DALLE3
Desde OpenAI dijeron que pese a ser el mismo modelo de base, no tiene porque ser exactamente el mismo modelo. Por lo que el ejercicio que propones es muy interesante. Me lo apunto.
Ya hay gente que ha hecho esa prueba y han reportado muchos más errores y lentitud en el proceso desde Being que desde ChatGPT@@XavierMitjana
Excelente video. Gracias!
Los resultados de Dalle siguen dando dolor de ojos, sus imágenes siempre me han parecido estéticamente horribles. A nivel estético Midjourney sigue siendo la mejor.
A mi con Dall-e 3 me pasa un poco eso. Me sorprende lo potente que es generando la composición adecuada, pero sus imágenes estéticamente no me gustan. Pero, hay maneras de aprovechar lo mejor de Dall-e 3 con la estética que tu quieras, jugando un poco en Stable Diffusion con Comfy UI. En inglés hay mucho contenido donde se explica como hacerlo. Yo igual traigo algo al canal secundario.
A mi opinión Firefly le pega un repaso a Midjourney. Es muy personalizable, más fiel, más modificable de acuerdo a detalles conjuntos, y midjourney es mejor para prompts máa conformistas pero bonitos.
Diría que MJ es como buscar una foto en google de los mejores pintores, pero solo las que aparezcan ahí, y Firefly es como pedirle a un pintor de ultrarrealismo que se conecte a tu mente y pinte lo que imaginas.
Es un ejemplo algo exagerado pero lo interpreta muy bien.