ajja tus videos son como para escucharlos tomandoce un cafecito.☕.. con toda la calma del mundo jejeje..😄. mientras que otros están con el cronómetro en mano⏳... (simplemente un comentario sin agresividad contra nadie que quede en claro) 😊 muchas gracias, gracias por tus enseñanzas.🏝🏝🏞🏝
correccion, 17:23 la imagen que generas con el lora es exactamente shenhe, la anterior solo era alguien parecido. los lora son lo maximo, en resumen sirven para generar personajes en especifico, y los textual inversion serian como solo un estilo de dibujo
@@elcuervosenpai Igual xD pasa de algo muy distinto al personaje perfecto y dice casi lo mismo, si que no tiene ni idea de Shenhe y como pronuncia el nombre que dolor
Excelente tutorial 👌, muchas gracias. Lo que también uso es la extension Additional Networks para "administrar los loras" algunos recomiendan usar centesimos para tener más "precisión". También tienes razón hay trigger words para que funcionen. Me di cuenta que influye el modelo, sampler, hiresfix (upscaler) , número de pasos y cfg para tener buenos resultados.
Muchas gracias por transmitir tus conocimientos. He aprendido muchas cositas nuevas estos dos últimos días gracias a ti. No tengo tanto tiempo como me gustaría para investigar y facilitas mucho las cosas. De nuevo, muchas gracias.
@@stablediffusionespanol Una pregunta,la pagina prompt base deja subir promtp hechos con stable difusion lighting? y si es asi,que version seria? 1.0 0.9 2.0 o cual?
Ya voy por el tercer video jeje Me falta aún muchas palabras claves pero creo que voy entendiendo. Ya me falta poco para mi edifico blanco. Al menos ya tengo el stable y he cogido un par de models que he visto en civinoseque que ponía background. Aún no quiiero probar nada por si no me sale y ya me harte y me vaya jajaja
Para el LORA, tienen q prestar atención en la descripción de donde descargan ahí explica, xk a veces dice q modelo es recomendado usar y q palabra o palabras encienden el Lora, aparte el valor q tiene entre los () puede ser modificado. por eso Lean la descripción del lora. Saludos
17:24 "Casi lo mismo" jajajaja, si se nota la diferencia xd, pero bueno al final si que pudo hacer a Shense, por lo que veo el tema de los Loras es como prueba y error, toca probar con distintos modelos y promps especificas, buen video por cierto
TIP sobre LORAS: En la pestaña de los LORA, buscas el que quieres activar. Al pasar el puntero sobre el lora, veras un icono con herramientas . Le das clik y veras los Training dataset tags. Vas dándole clik a los que se ajustan mas a la imagen que quieres crear y se irán agregando mas abajo en "Activation text" . Copias lo creado en Activation text y lo pones en el Prompt. Si quieres podes agregar algo mas y le das a generate.
Hola amigo como estamos?, muchas gracias por tus videos, como demoraste tanto ya lo había aprendido jajaja , pero gracias por ayudar esta linda comunidad se aprecia mucho. 😋😍🥰
16:18 Donde dice "número de post: 6121720", ¿de casualidad eso no funcionará como seed no? ¿o los seed solo funcionan con los que te da stable diffusion?
Como mencionas los Lora pueden ser un dolor de Huevos o pueden funcionar bien. Realmente para entrenar personajes "Reales" por decirlo asi funciona perfectamente, pero para personajes de anime no lo hace tan bien como "HyperNetwork". Aun asi Lora creo que es de los metodos de entrenamiento mas efectivos
Hola muy bien explicado todo en tus videos, ya vi unos cuantos y voy a probar a instalar el programa. Solo una cuestión, los modelos tipo ¨CHECKPOINT¨ en que carpeta van? en \models\Stable-diffusion puede ser? Gracias y un saludo.
Y acá estamos, re podrido de usar Google Collab porque no me da la gráfica. La pregunta es, que sería lo mínimo indispensable para generar imágenes de tamaño medio en modo local. Tengo un I5 con 24gb de memoria pero la Geforce que tengo es de 2gb y al toque se pudre todo. Hay algo económico recomendable para economías Argentinas capaz de funcionar sin atascarse a mitad de camino?
Viste? Por eso no uso colab... No está copado. Necesitas una Nvidia de 4gb de vram cómo mínimo y así y todo te puede pasar como a mí que de todas formas explota
te explico google collab no usa TU grafica, google collab te proporciona de manera remota una GPU externa, tu no usas tus recursos ellos te dan a ti recurosos, collab justamente esta para las personas que no quieran usar su propia pc, o no tengan los recursos, el local, o automatic 1111 si usa tus recursos si usa tu propia grafica, dejando eso claro que no te de collab es porque tu problema debe ser otro
Una consulta, yo descargue mucho y no se cual es cual, tengo unos que son .SAFETENSORS y otros que dicen .ckpt según yo los que .SAFETENSORS son lora, pero tengo unos que pesan hasta 7 gigas, si se pasan mas de una giga son checkponts?
yo primero escribo lo que quiero en txt2img y esa imagen la envio a img2img y pongo el lora, ahi ya te pone la cara sobre la imagen si el lora esta poco entrenado esta opcion sirve porque solo te pone la cara sobre la imagen
lorea el lora...me causa gracias el nombre...me gusta mucho los loras porque son livianos y facil de entrenar. Lo unico malo que le veo es a la hora de combinar muchos loras, que puede ajustar con los numeritos..
Saludos! Alguien sabría decirme por qué no tengo las opciones debajo del botón GENERATE que veo en los tutoriales? yo solo tengo disponibles dos iconos. Cómo habilito los otros iconos? GRACIAS!
Hola, excelente canal. Una consulta, tengo dos modelos entrenados en Loras, uno con mi rostro y el otro con el rostro de mi mamá, mi pregunta es, cómo es la forma correcta de utilizar el PRONT para asignar características diferente a cada modelo y me genere una única imagen con las dos personas. Lo he intentado pero no he logrado obtener buenos resultados. De antemano gracias
Tio stable hola!, tengo un problema y es que me sale que cuda se quedó sin memoria, antes me iba finisimó el stable diffusion pero ahora ya no me deja hacer imagenes de más de 800x800 pixeles, que puedo hacer?
hay comandos para el ejecutable bat de automatic para reducir el consumo de memoria. Los comandos pueden ser --medvram, use --lowvram. Buscalo para saber como se aplica.
Gracias por el video. Una pregunta sabes como crear un Lora? Veo videos de crear videos pero pesam gigas, los logras no pesan nada. Sabes como se crean? Gracias
@@stablediffusionespanol pues si, aunque depende del internet, algo que yo hago es que guardo los resultados que me gusta y borro todo lo demas. pero el SD no ocupa tanto espacio como tal, lo que ocupa espacio son los resultados y modelos 🥺🤔🤔
Para poner un lora de un personaje no vasta poner solo el lora igual tienes que escribir el nombre del personaje en cuestión es decir , mina ashida. así interpreta en su totalidad al personaje sin estar describiendolo
Ya lo solucioné. Para los que tengan el mismo problema, es porque la versión de webui que tenía era muy antigua. Volví a instalar SD en una nueva carpeta y listo.
es prompt enginner no los descargas originalmente, tus los creas, en el txt2img, es decir por ejemplo algo facil, usas unos promtps de a girl, sitting cross-legged on a bench, in the park, with the city in the background Digamos estos son los prompts positivos, luego vemos primero que modelo usamos por ejemplo hay modelos que sacan muy buenas imagenes pero tienen mucho contendió NSFW, o niñas pequeñas y digamos no quieres que salgan esas cosas, entonces en negative prompts pones: NSFW, loli, young girl, child, chibi, por ejemplo. Luego vemos mis prompts y vemos que puse que se muestre algo de fondo hay muchos modelos que los difuminan y talvez tu no quieras difuminados entonces colocas bloom en los negativos por ejemplo. aunque claro si existe algo que puedes descargar para colocar en negativos, son textual inversion, son en realidad son una amalgama de prompts negativos comprimidos para que sea mas facil poner y tenga mas fuerza o peso estos puedes encontrar en civitai o hugging face talves te refieres a esto espero ayude
una aclaración y corrección que dices. Dices: que los lora no sirven del todo ya que a pesar de poner el lora el modelo lo no crea, a menos que hagas una descripción del personaje en concreto y es cierto debes describir al personaje para que te aparezca, y si no lo pones aunque este el lora, no te aparecerá y eso no es un error, porque te invito a ti y a todos que en cualquier modelo describan cualquier personaje que quieran sin lora, lo que ocurrirá es que aparecerá un personaje con descripciones similares pero este no será el personaje, será un especie de cosplay nada mas, no importa el modelo o los prompts nunca será el personaje que quieras, y yo lo se hice varias pruebas en varios modelos de personajes, sin lora y luego al usar cualquier lora, este personaje aparecerá sin duda, tal cual es en la serie, si claro esta, usas tanto buenos modelos como prompts, asi que lo siento pero tu criterio sobre los lora que "que no son copados." sin ofender pero no estoy de acuerdo con tu criterio y creo te equivocas, porque son muy eficientes, y sirven muy bien, ya que sin lora, es solo cosplay y con lora crea al personaje
hola un favor como arreglo este problema NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
hola buenas veo...que esto tiene una carpeta local en la computadora. nose como se llama, o cuando se descarga. como la encuentro. o como la descargo? en ningun momento el google colab me pidio crear una carpeta local o en algun lugar donde guardar...como hago?
Estoy re contra confundido, ¿esa versión que usas es con GPU o sin GPU (como el colab)? Es extraño que tengas en el disco local. ¿Dónde encuentro esa versión de programa?
sauce de la imagen de shenhe? es mi super waifu, la tengo c1. Tengo una duda, la seed sirve de algo? porque por defecto la tengo en -1 pero no se si afecta al resultado o no, tampoco se que hacen exactamente los checkpoints ni en que afectan, ni si puedo usar una imagen que tenga una pose en concreto y hacer que la IA me haga la misma imagen pero con el lora que le diga. PD: sin el lora la shenhe que hacias no se parecia apenas, se pronuncia "shenje", que no pasa nada como la pronuncies, y no se como hacer imagenes especificas, la verdad, mira que miro videos pero no hay forma, demasiado complejo todo y pocas explicaciones de que significan las cosas y en que repercuten, por no hablar de donde seleccionarlas, guardarlas cuando se descargan, y cual elegir dependiendo de lo que busques. Otra duda son los Sampling steps, que no se si cuantos mas pongas mas detalle va a tener la imagen o no. En mi caso me gustaría hacer a shenhe y a kuki shinobu principalmente, aunque también otros personajes, también me gustaría mucho saber hacer loras pero no hay forma de saber como hacerlos, con los hypernetworks, embedings y demás, no me entero :C Tampoco se si puedo usar el controlnet con los openpose, canny y depth principalmente para crear poses especificas, he intentado crear muchas veces la jack-o pose que me encanta pero no hay forma, me deforma al personaje o me ignora el prompt/openpose, etc. y eso que uso blender para crear las imagenes proporcionadas, con pies y manos detalladas para que no los deforme y ni con esas, me vi este video ruclips.net/video/ptEZQrKgHAg/видео.html
Con buscar en civitai shenhe te sale algún lora , la seed es un numero especifico de la imagen por ejemplo copias todos los promps y usas todo igual pero te saldrá uno aleatorio con el seed te saldrá el mismo que viste posiblemente (ya que tienes que usar el mismo checkpoint o loras ) , -1 es aleatorio ósea te saldrá un seed random , si pones 1 y vuelves a regenerarlo te saldrá la misma imagen siempre que no cambies nada mas claro, los checkpoints son como una base es el paquete de texturas hay fotorrealistas o mas anime , y si esa shenhe era una random total xd , por eso estan los lora para que sea exacto aunque hay algunos personajes como hatsune miku que con solo poner nombre sale sin necesidad de loras, en civitai hay varias cosas como el jack-o pose en lora que me funciono, los Sampling steps no lo tengo tan claro pero si creo que da mas detalle yo uso 28-32 y ya si me gusta la imagen le subo a 60, ten en cuenta que tarda mas en 60, yo tambien ando aprendiendo como hacer loras , busca "Make your own Loras, easy and free" en el civitai es un tuto en ingles, espero te ayude , son cosas que he entendido por mi cuenta asi que no puedo explicar mejor sorry.👍
@@titosusva Supondré que usas el mismo que el de video el stable-diffusion-webui al lado del -1 hay un dado y una señal de reciclaje verde dándole a eso te pone el seed 8:04
@@titosusva Puedes poner el puntero encima de algunas letras y te dice lo que hacen , por ejemplo si pones el puntero encima de Hires. fix o CFG Scale te dice lo que hace.👌
hola soy nuevo en esto de la IA de generacion de imagenes. y me di cuenta que la IA. necesita que le expliques igual sobre la imagen, que le des el contexto de lo que le pedis. porque si se figan cuando le preguntas sobre una imagen con Interrogate Clip te da una descripción muy detallada, o sea para poner el personaje que queres, tenes que describirlo tambien un poco, como se ve, quien es en la historia, etc, no solo poner su nombre.
La verdad me vi todo el video y en ningun lado entendi como importar el Lora que tengo en Stable Diffusion. Onsea tu mostraste una carpetas de subcarpetas de Stable Diffusion en "Tu Equipo" y como le eso Stable Diffusion collab
ajja tus videos son como para escucharlos tomandoce un cafecito.☕.. con toda la calma del mundo jejeje..😄. mientras que otros están con el cronómetro en mano⏳... (simplemente un comentario sin agresividad contra nadie que quede en claro) 😊
muchas gracias, gracias por tus enseñanzas.🏝🏝🏞🏝
correccion, 17:23 la imagen que generas con el lora es exactamente shenhe, la anterior solo era alguien parecido.
los lora son lo maximo, en resumen sirven para generar personajes en especifico, y los textual inversion serian como solo un estilo de dibujo
Confirmo, cuando dijo "Es casi lo mismo" dije WTF jajajaj, para obtener el resultado deseado toca ser muy especifico, es prueba y error
@@elcuervosenpai Igual xD pasa de algo muy distinto al personaje perfecto y dice casi lo mismo, si que no tiene ni idea de Shenhe y como pronuncia el nombre que dolor
¿A día de hoy los Lora han mejorado? Gran video como siempre.
Despues de buscar entre tanta basura de tutoriales encontré oro!! gracias amigo ♥
Muchas gracias por el comentario!!!
Excelente tutorial 👌, muchas gracias. Lo que también uso es la extension Additional Networks para "administrar los loras" algunos recomiendan usar centesimos para tener más "precisión". También tienes razón hay trigger words para que funcionen. Me di cuenta que influye el modelo, sampler, hiresfix (upscaler) , número de pasos y cfg para tener buenos resultados.
Exacto, hay que trabajar bastante porque a veces no funcionan bien
Muchas gracias por transmitir tus conocimientos. He aprendido muchas cositas nuevas estos dos últimos días gracias a ti. No tengo tanto tiempo como me gustaría para investigar y facilitas mucho las cosas. De nuevo, muchas gracias.
Si pones una imagen en la carpeta con el mismo nombre del Lora te lo pone en la preview .
Buen dato!
jasjajjsjas y si que sirve!
Buen hombre, usted se merece una cerveza. Héroe sin capa 🤜🏻🤛🏻
Super buen dato!!!
Jaja que genio siempre me resolves todas las dudas sos un capo. Muchas gracias. tome su buen like 😃😄
🤗
muchas garcias es el video que tanto andaba buscando te felicito es un buen video sigue asi !
Muchas gracias bro, mejor explicado imposible👏👏👏
Muchas gracias!!!!
@@stablediffusionespanol Una pregunta,la pagina prompt base deja subir promtp hechos con stable difusion lighting? y si es asi,que version seria? 1.0 0.9 2.0 o cual?
Gracias por el video zanjaste mis dudas crack
2:14 osó llamar Makima a Power, buen tutorial
Excelente explicación!
Ya voy por el tercer video jeje Me falta aún muchas palabras claves pero creo que voy entendiendo. Ya me falta poco para mi edifico blanco. Al menos ya tengo el stable y he cogido un par de models que he visto en civinoseque que ponía background. Aún no quiiero probar nada por si no me sale y ya me harte y me vaya jajaja
grande pa, me si es mas rapido aprender con tus videos que traducirlos del ingles
JAJAJA JAJAJA JAJAJA me alegro!!!
Me encanto mucho el video
Muchas gracias!!
Para el LORA, tienen q prestar atención en la descripción de donde descargan ahí explica, xk a veces dice q modelo es recomendado usar y q palabra o palabras encienden el Lora, aparte el valor q tiene entre los () puede ser modificado. por eso Lean la descripción del lora. Saludos
17:24 "Casi lo mismo" jajajaja, si se nota la diferencia xd, pero bueno al final si que pudo hacer a Shense, por lo que veo el tema de los Loras es como prueba y error, toca probar con distintos modelos y promps especificas, buen video por cierto
gracias!!! muy buen video!!!
TIP sobre LORAS: En la pestaña de los LORA, buscas el que quieres activar. Al pasar el puntero sobre el lora, veras un icono con herramientas . Le das clik y veras los Training dataset tags. Vas dándole clik a los que se ajustan mas a la imagen que quieres crear y se irán agregando mas abajo en "Activation text" . Copias lo creado en Activation text y lo pones en el Prompt. Si quieres podes agregar algo mas y le das a generate.
Hola amigo como estamos?, muchas gracias por tus videos, como demoraste tanto ya lo había aprendido jajaja , pero gracias por ayudar esta linda comunidad se aprecia mucho. 😋😍🥰
JAJAJA más vale tarde que nunca jajaja
@@stablediffusionespanol toda la razón jajaja eres un grande mi pana 💪😁
comentario de apoyo a tu canal.
Los promts son una función si queres que la máquina redacté exasto tu modelo
Muy buen vídeo! Muchas gracias!!! Y una preguntita, hay alguna forma de por ejemplo generar imágenes manteniendo la cara de una lora en concreto?
como lograste resolverlo para mantener el mismo rostro porque solo se me ocurre usando deepface
El seed es para eso, copias el seed y cuando volves a crear otra imagen pegas el seed de la imagen que tiene el rostro que querés
Buen video bien explicado gracias.
La concha de la LORA, por fin !!
JAJAJA JAJAJA JAJAJA JAJAJA
buen video, muy rebuscado en algunas cosas pero ya cuando se le encuentra el modo se puede, y soy un sim de shenhe, saludos
me leiste el pensamiento jjje. gracias por instruirnos
Muy buen video, por eso no me salian mis waifus, gracias bro y nuevo sub
Que pasa cuando se agotan los 75 prompts? Veo q vas x los 150?? Aumenta solo? Gracias x el aporte impresionante!!!
Yo entendi el funcionamiento del lora, es así: a) (lora:nameLora:1)
Yo tengo el NMKD Stabble diffusion1.9.1 y no me aparece instalar los loras, que hago?
16:18 Donde dice "número de post: 6121720", ¿de casualidad eso no funcionará como seed no? ¿o los seed solo funcionan con los que te da stable diffusion?
amigo una pregunta, te carga instantaneo el resultado? o cortas el video, por que a mi por imagen tarda como 3 minutos
Gracias master
Gracias capo soso groso sabelo
Como mencionas los Lora pueden ser un dolor de Huevos o pueden funcionar bien. Realmente para entrenar personajes "Reales" por decirlo asi funciona perfectamente, pero para personajes de anime no lo hace tan bien como "HyperNetwork". Aun asi Lora creo que es de los metodos de entrenamiento mas efectivos
La Lora es el modelo ya entrenado y lo otro es entrenar un modelo
¿Una pregunta se pueden poner más de 2 Loras?
¿Es posible generar (crear propio) LORAs en un servidor remoto cuando nuestro PC corre riesgo de ser apagado con extintor?
Y yo desesperado por el Lora y ahora veo que mi descripción extensa era mejor 😅
Yo tengo NMKD, puedo usar LORA?
Bueno a practicar y hacer a misty como maga oscura 😁😀😆
JAJAJA vos podes!!
Hola muy bien explicado todo en tus videos, ya vi unos cuantos y voy a probar a instalar el programa. Solo una cuestión, los modelos tipo ¨CHECKPOINT¨ en que carpeta van? en \models\Stable-diffusion puede ser? Gracias y un saludo.
Si, en esa carpeta
Se pueden cargar desde Google Colab en un cuaderno bajado de githup, no me aparece el directorio
Y acá estamos, re podrido de usar Google Collab porque no me da la gráfica. La pregunta es, que sería lo mínimo indispensable para generar imágenes de tamaño medio en modo local. Tengo un I5 con 24gb de memoria pero la Geforce que tengo es de 2gb y al toque se pudre todo. Hay algo económico recomendable para economías Argentinas capaz de funcionar sin atascarse a mitad de camino?
Instalar Automatic 1111, busca videos de instalacion en la computadora. Necesitas una buena grafica geforze 2060 o 3060
Viste? Por eso no uso colab... No está copado. Necesitas una Nvidia de 4gb de vram cómo mínimo y así y todo te puede pasar como a mí que de todas formas explota
te explico google collab no usa TU grafica, google collab te proporciona de manera remota una GPU externa, tu no usas tus recursos ellos te dan a ti recurosos, collab justamente esta para las personas que no quieran usar su propia pc, o no tengan los recursos, el local, o automatic 1111 si usa tus recursos si usa tu propia grafica, dejando eso claro que no te de collab es porque tu problema debe ser otro
Una consulta, yo descargue mucho y no se cual es cual, tengo unos que son .SAFETENSORS y otros que dicen .ckpt según yo los que .SAFETENSORS son lora, pero tengo unos que pesan hasta 7 gigas, si se pasan mas de una giga son checkponts?
Exacto, los pesados son checkpoint. Lo de ckpt o safetensor es la extensión
yo primero escribo lo que quiero en txt2img y esa imagen la envio a img2img y pongo el lora, ahi ya te pone la cara sobre la imagen si el lora esta poco entrenado esta opcion sirve porque solo te pone la cara sobre la imagen
Crees que Lora este a la altura de Dreambooth?
Depende de cómo se entrene: con dreambooth podrías refinarlo mucho más
Amigo, en el stable diffusion en mi pc me permite 75 letras y en el tuyo 150 letras
donde se instalan los lora en Automatic 1111?
lorea el lora...me causa gracias el nombre...me gusta mucho los loras porque son livianos y facil de entrenar. Lo unico malo que le veo es a la hora de combinar muchos loras, que puede ajustar con los numeritos..
Aún es vigente?
debajo de generate no tengo esa opción, en su lugar dice style 1 y style 2, en vertical si están los botones pero no ese donde los activas
Saludos!
Alguien sabría decirme por qué no tengo las opciones debajo del botón GENERATE que veo en los tutoriales?
yo solo tengo disponibles dos iconos. Cómo habilito los otros iconos?
GRACIAS!
Hola, excelente canal. Una consulta, tengo dos modelos entrenados en Loras, uno con mi rostro y el otro con el rostro de mi mamá, mi pregunta es, cómo es la forma correcta de utilizar el PRONT para asignar características diferente a cada modelo y me genere una única imagen con las dos personas. Lo he intentado pero no he logrado obtener buenos resultados. De antemano gracias
Yo no encuentro nada de eso en CivitAI.... ¿está obsoleto este video?
disculpa me pasas el link del dabooru que mostraste en el video porfa!!!!
Tio stable hola!, tengo un problema y es que me sale que cuda se quedó sin memoria, antes me iba finisimó el stable diffusion pero ahora ya no me deja hacer imagenes de más de 800x800 pixeles, que puedo hacer?
es facil solo tienes que volver a reinstalar stable, de hecho es algo común a todos les pasa incluso a gente con pc potentes
@@aaronkaufman8335 Genial gracias
hay comandos para el ejecutable bat de automatic para reducir el consumo de memoria. Los comandos pueden ser --medvram, use --lowvram. Buscalo para saber como se aplica.
Gracias Juan Carlos! Frank acá creé este video: ruclips.net/video/8qiDF3Ed-iw/видео.html
@@stablediffusionespanol Buenas! tenes el tuto jeje
como se usan los Lora en Google colab?
hola una pregunta. Estuve revisando y no tengo la carpeta Lora. Es necesario instalar algo o solo creo una carpeta que diga Lora?
Gracias por el video. Una pregunta sabes como crear un Lora? Veo videos de crear videos pero pesam gigas, los logras no pesan nada. Sabes como se crean? Gracias
Si, sé cómo se crean pero no puedo crearlos con mí máquina jeje el proceso requiere una buena tarjeta gráfica y memoria RAM
@@stablediffusionespanol me puedes recomendar algún tutorial de como crear Loras?
Harás un vídeo de cómo entrenar a LoRa???????
Me lo piden muchísimo, pero no puedo porque mí máquina no puede correrlo 😔 y no me gusta mostrar algo que no me funciona
@@stablediffusionespanol 🥺 F bro, porque no lo haces en Google colab 🥺🤔??
Muy difícil para subirle cosas y se llena el drive 😔
@@stablediffusionespanol pues si, aunque depende del internet, algo que yo hago es que guardo los resultados que me gusta y borro todo lo demas. pero el SD no ocupa tanto espacio como tal, lo que ocupa espacio son los resultados y modelos 🥺🤔🤔
Dentro de la carpeta de models, no tengo la carpeta de Lora. Debería instalar algo aparte? Saludos
Creala, con L mayúscula
al generar una imagen mis loras no funcionan que podria ser,si aparece dentro del programa pero no funciona
Para poner un lora de un personaje no vasta poner solo el lora igual tienes que escribir el nombre del personaje en cuestión es decir , mina ashida. así interpreta en su totalidad al personaje sin estar describiendolo
Banda se pueden usar en el dreamerland de Android?
A mi no me sale el icono rojo para usar los lora, ¿sabes por qué será?
Ya lo solucioné. Para los que tengan el mismo problema, es porque la versión de webui que tenía era muy antigua. Volví a instalar SD en una nueva carpeta y listo.
Gran video, pero una pregunta donde se descargan los prompt negativos ?
De ningún lado, son como el prompt normal: lo vas descubriendo
es prompt enginner no los descargas originalmente, tus los creas, en el txt2img, es decir por ejemplo algo facil, usas unos promtps de
a girl, sitting cross-legged on a bench, in the park, with the city in the background
Digamos estos son los prompts positivos, luego vemos primero que modelo usamos por ejemplo hay modelos que sacan muy buenas imagenes pero tienen mucho contendió NSFW, o niñas pequeñas y digamos no quieres que salgan esas cosas, entonces en negative prompts pones:
NSFW, loli, young girl, child, chibi, por ejemplo. Luego vemos mis prompts y vemos que puse que se muestre algo de fondo hay muchos modelos que los difuminan y talvez tu no quieras difuminados entonces colocas bloom en los negativos por ejemplo. aunque claro si existe algo que puedes descargar para colocar en negativos, son textual inversion, son en realidad son una amalgama de prompts negativos comprimidos para que sea mas facil poner y tenga mas fuerza o peso estos puedes encontrar en civitai o hugging face talves te refieres a esto espero ayude
al copiar los archivos lora no me aparecen en ningún lado no me aparece al lado de checkpoints
una aclaración y corrección que dices.
Dices: que los lora no sirven del todo ya que a pesar de poner el lora el modelo lo no crea, a menos que hagas una descripción del personaje en concreto y es cierto debes describir al personaje para que te aparezca, y si no lo pones aunque este el lora, no te aparecerá y eso no es un error, porque te invito a ti y a todos que en cualquier modelo describan cualquier personaje que quieran sin lora, lo que ocurrirá es que aparecerá un personaje con descripciones similares pero este no será el personaje, será un especie de cosplay nada mas, no importa el modelo o los prompts nunca será el personaje que quieras, y yo lo se hice varias pruebas en varios modelos de personajes, sin lora y luego al usar cualquier lora, este personaje aparecerá sin duda, tal cual es en la serie, si claro esta, usas tanto buenos modelos como prompts, asi que lo siento pero tu criterio sobre los lora que "que no son copados." sin ofender pero no estoy de acuerdo con tu criterio y creo te equivocas, porque son muy eficientes, y sirven muy bien, ya que sin lora, es solo cosplay y con lora crea al personaje
el lora es mas para mantener la consistencia en un personaje o estilo y que sea lo mas parecido en la mayoría de generaciones
Si, por lo que he probado es para eso
hola un favor como arreglo este problema
NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
hola buenas veo...que esto tiene una carpeta local en la computadora. nose como se llama, o cuando se descarga. como la encuentro. o como la descargo? en ningun momento el google colab me pidio crear una carpeta local o en algun lugar donde guardar...como hago?
Encontraste solución?
Estoy re contra confundido, ¿esa versión que usas es con GPU o sin GPU (como el colab)? Es extraño que tengas en el disco local.
¿Dónde encuentro esa versión de programa?
Por más que colab diga sin GPU, intensamente google usa gpu. Y acá tenés toda la info para instalar local: ruclips.net/video/zDiGpvJRUGc/видео.html
Se nota la diferencia, yo si soy fan de Genshin Impact
Genial info!!
@@stablediffusionespanol Te recomiendo el juego, son 500 horas de historia y exploración totalmente gratis.
Hola, alguien sabe como tener una imagen previa en los Textual inversion, Lora?
Mas arriba en los comentarios leí que "Si pones una imagen en la carpeta con el mismo nombre del Lora te lo pone en la preview "
@@nicolasgabriel3402 funciono! muchas gracias! :D
@@rojoatorres Genial!!
a la hora de generar la imagen no me aparece, sale como que la ha generado pero nose ve nada, solucion?
Cuanta Vram tienes ?, mira el terminal .bat si dice algo , o el checkpoint
sauce de la imagen de shenhe? es mi super waifu, la tengo c1. Tengo una duda, la seed sirve de algo? porque por defecto la tengo en -1 pero no se si afecta al resultado o no, tampoco se que hacen exactamente los checkpoints ni en que afectan, ni si puedo usar una imagen que tenga una pose en concreto y hacer que la IA me haga la misma imagen pero con el lora que le diga.
PD: sin el lora la shenhe que hacias no se parecia apenas, se pronuncia "shenje", que no pasa nada como la pronuncies, y no se como hacer imagenes especificas, la verdad, mira que miro videos pero no hay forma, demasiado complejo todo y pocas explicaciones de que significan las cosas y en que repercuten, por no hablar de donde seleccionarlas, guardarlas cuando se descargan, y cual elegir dependiendo de lo que busques.
Otra duda son los Sampling steps, que no se si cuantos mas pongas mas detalle va a tener la imagen o no. En mi caso me gustaría hacer a shenhe y a kuki shinobu principalmente, aunque también otros personajes, también me gustaría mucho saber hacer loras pero no hay forma de saber como hacerlos, con los hypernetworks, embedings y demás, no me entero :C
Tampoco se si puedo usar el controlnet con los openpose, canny y depth principalmente para crear poses especificas, he intentado crear muchas veces la jack-o pose que me encanta pero no hay forma, me deforma al personaje o me ignora el prompt/openpose, etc. y eso que uso blender para crear las imagenes proporcionadas, con pies y manos detalladas para que no los deforme y ni con esas, me vi este video ruclips.net/video/ptEZQrKgHAg/видео.html
Con buscar en civitai shenhe te sale algún lora , la seed es un numero especifico de la imagen por ejemplo copias todos los promps y usas todo igual pero te saldrá uno aleatorio con el seed te saldrá el mismo que viste posiblemente (ya que tienes que usar el mismo checkpoint o loras ) , -1 es aleatorio ósea te saldrá un seed random , si pones 1 y vuelves a regenerarlo te saldrá la misma imagen siempre que no cambies nada mas claro, los checkpoints son como una base es el paquete de texturas hay fotorrealistas o mas anime , y si esa shenhe era una random total xd , por eso estan los lora para que sea exacto aunque hay algunos personajes como hatsune miku que con solo poner nombre sale sin necesidad de loras, en civitai hay varias cosas como el jack-o pose en lora que me funciono, los Sampling steps no lo tengo tan claro pero si creo que da mas detalle yo uso 28-32 y ya si me gusta la imagen le subo a 60, ten en cuenta que tarda mas en 60, yo tambien ando aprendiendo como hacer loras , busca "Make your own Loras, easy and free" en el civitai es un tuto en ingles, espero te ayude , son cosas que he entendido por mi cuenta asi que no puedo explicar mejor sorry.👍
@@monololk1751 ty
@@titosusva Supondré que usas el mismo que el de video el stable-diffusion-webui al lado del -1 hay un dado y una señal de reciclaje verde dándole a eso te pone el seed 8:04
@@monololk1751 oh, ok, gracias, lo hice una vez pero ni idea de como
@@titosusva Puedes poner el puntero encima de algunas letras y te dice lo que hacen , por ejemplo si pones el puntero encima de Hires. fix o CFG Scale te dice lo que hace.👌
hola soy nuevo en esto de la IA de generacion de imagenes. y me di cuenta que la IA. necesita que le expliques igual sobre la imagen, que le des el contexto de lo que le pedis. porque si se figan cuando le preguntas sobre una imagen con Interrogate Clip te da una descripción muy detallada, o sea para poner el personaje que queres, tenes que describirlo tambien un poco, como se ve, quien es en la historia, etc, no solo poner su nombre.
tal vez..
No hay forma de hacerlo todo desde Google Colab? 😭
Un "por favor" y un "gracias" les ayudaría a que alguien les responda.
wacho no tienes discord o algo? para que podamos solucionar los temas mas facil
Ahora solo falta como aprender a usar el embedding
ese es el textual inversion. De hecho en esa carpeta se colocan los archivos.
alguien sabe como hacer eso pero en colab ¿?
si?
La verdad me vi todo el video y en ningun lado entendi como importar el Lora que tengo en Stable Diffusion. Onsea tu mostraste una carpetas de subcarpetas de Stable Diffusion en "Tu Equipo" y como le eso Stable Diffusion collab
Para que te aparesca te faltó poner genshin impact y el nombre del personaje
Viejo qué mal explicas
Como se entrena un rostro en stable difusión pero en local host?
Bro, disculpa, tienes discord? - quiero hacer algo en especifico en Diffusion, pero necesito de tu ayuda, pls :,u