Stable Diffusion - Вопросы, Ответы, Лайфхаки, Советы • 2
HTML-код
- Опубликовано: 1 июн 2024
- Telegram ➜ t.me/win10tweaker
Boosty (эксклюзив) ➜ boosty.to/xpuct
► 00:00 Вступление
► 00:33 xformers 4000
► 01:22 Куда делся hypernetwork
► 01:57 Midjourney prompts
► 02:47 Разные лица
► 06:04 Подкаталоги моделей
► 06:53 CFG Scale
► 07:43 Drag and drop в Prompt
► 08:22 Расширения ломают Stable Diffusion
► 09:33 Lama Cleaner
► 10:57 Dreambooth опять 25...
► 14:45 Текст в Stable Diffusion
► 15:56 Обнажёнка на RUclips
► 23:42 Запятая в Styles
► 25:03 [cat:dog:30]
🔥 Deliberate: huggingface.co/XpucT/Delibera...
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Плейлист Stable Diffusion: • Stable Diffusion
#StableDiffusion #XpucT - Наука
Спасибо большое Хачатур за этот ролик) Очень много новой и полезной информации подчеркнул лично для себя) И в конце такой лайвхак крутой) Самая интересная и точная инфа на вашем канале! Удачи Вам во всем!!!
Хачатур ты классный мужик. Спасибо тебе за работу и терпение. Твоя работа бесценна!
Благодарю за полезную и познавательную информацию! Вдохновляет.
Неожиданное видео с очень приочень любопытной концовочкой! Спасибо за информативный ролик )
Ооо. Меня ждут увлекательные полчаса)
Как всегда, круто Хачатур, я бы слушал и слушал. Про обнажёнку и прочее давай на бусти, про позы очень интересно, а в ютуб типа превью/тизер выкладвай с направлением по ссылке на бусти.
Знаете, когда вы себя на видео вот так вот перемещаете туда сюда, чувствуется некая теплота в теле, даже горечь, делайте так почаще, пожалуйста, это очень приятно
Не увлекайтесь с теплотой, это может вызвать сексуальное возбуждение, и тогда точно стайк!
@@RomaLebedev апхапхапхахпахпа
@@RomaLebedev опошлять не стоит, может он чувствует отцовскую теплоту, откуда ты знаешь. Как говориться у кого что на уме.
а мне мешает, автор на видео, как раз я бы за его уменьшение в кадре.
Не по колокольчику, а по зову сердца. Спасибо за видео! Как всегда ПУШКА!:)
Спасибо, полезнейшие 30 минут за неделю)))
Спасибо за вашу работ! Очень интересно!
Настолько классно и подробно все объясняешь, что спустя 10 лет использования ютуба начал ставить лайки под видео, начиная с твоего!
Очень рад знакомству с каналом, твоим подходом, огонь, пушка, взрыв мозга!
Даже коммент оставить заставил, благодарю!
Спасибо. Как всегда познавательно!
Иногда у Хачатура получается в один момент произносить сразу 3-5 слов. Получается что-то вроде "Поэтому, ребят, пыдумсамидачтоска..." Талантливый человек талантлив во многом.
😂
Во блин, подпапки - это сильно упрощает создание симлинков, да еще и позволяет отсортировать модели не переименовывая их. Круто!!!
Небольшой вопрос. Не подскажите как отрендарить серию картинок одной модели без изменения лица и окружения, как пример ( девушка сидит в кафе за столом, руки лежат на столе, смотрит в телефон, кружка кофе в руках) при этом кафе и окружение остается так же как и лицо девушки?
Спасибище огромное!!! Поставил и всё получается просто великолепно!
Огромное спасибо! С нетерпение жду каждый выпуск. скоро подпишусь на платное)
Спасибо! За каждое видео благодарен)
Спасибо огромное! Надеюсь, по твоим урокам изучу SD и буду спокойно владеть любой её возможностью!
Оооо! Праздник! Хачатур новый видос выложил! Спасибо!
Отличные ролики. Как раз учусь на них. Можно сказать это новое хобби. Всё очень информативно и интересно.
Очень хочется узнать про то как начать создавать собственную большую модель, какая изначальная модель лучше всего подойдёт для её обучения? А также, как улучшить чёткость и качество выдаваемых ей изображений?
Спасибо дядя! Все супер полезно!
Спасибо за видео! Каждый раз залипаю )
Огнище! Спасибо )
Как всегда всё огонь!
Оу май, как всё это возбуждающе.
я человек простой, вижу новый видос, ставлю лайк
Cat:dog прям огонь 🔥 спасибо!
Интересные видео ) спасибо )) реально все по полочкам ) все еще не осилил но обязательно посмотрю ) а можно урок по замене фона на реальной фотографии? Такое вот же возможно? Не создавать, а с загруженой делать достойные стилизации. Очень хотелось бы посмотреть 😃
спасибо за то, что делаешь!
ТВОЯ МОДЕЛЬ ПРОСТО БОМБА!
Как всегда спасибо за видео! И вопрос/идея для видоса. Сейчас весьма популярны видео со слайдами картинок из Midjourney по типу "Fallout в стиле мрачного фантастического фильма 1980-х". Очень интересно, как сделать подобное в Stable Diffusion, просто использовать такие же пропмты не получается, характерной картинки так не добьёшься.
Спасибо, кайфанул
Блин прямо дежавю) Благодаря твоим урока по C# устроился на работу 3 года назад.
И сейчас надеюсь заехать в хайповую сферу нейросетей, приобрел комп с 3070, удачи мне) и всем вам)
Спасибо вам огромное! После этого видео наконец то смог сделать оборотней как из сериала "Гримм".
Лучший обзорщик SD, респект уважуха
просто бомба!!!
Большое спасибо!
Спасибо за отличные уроки! Я вот весь день пытался получить летающий остров, а он мне все воздушные шары рисует) не так просто как я думал, но с количеством тегов вроде что-то получается.
Инфа, подача как всегда огонь! 🔥👍
На 3060Ti та же проблема с xformers, ничего не могу натрейнить :( Пару раз уже переустанавливал.
Пол часа полезного контента, спасибо 😀😀😀
Спасибо за выпуск. Ждем на бусти видео про позы
Привет Хачатур, было бы интересно послушать от тебя про лучшие расширения для SD 1111
Как всегда все по существу с примерами! Мое уважение! Но ахахахах запили 10 часовую версию ролика где ты себя перемещаешь по экрану))
лайк, репост... все дела))) Спасибо
Работают ли слова-усилители такие как "ultra, hyper, very, super,"и т.п.? Или эффективнее скобочками и циферками играться.
Работают, но не сильнее скобок. Это важнее.
Hyper и Ultra хорошо подходят для тонкой работы.
Спасибо Хачатур!
Большое спасибо за за приёмчик cat:dog! Вообще с удовольствием бы глянул видос с подобными "чит-кодами", хоть на ютубе, хоть на бусти, потому как такие вещи позволяют нереальные вещи! Взять хоть приёмчик AND, который я подчерпнул из ваших видосов
Момент с запятой - у меня получался такой результат, когда запятую случайно ставил в конце, а не в начале строки - то есть, наверно тут нет разницы.
Спасибо Хачатур за то, что обрабатываешь информацию и делаешь ролики для нас.
Заметил, что негативные запросы, работают(а иногда не работают) по разному на разных моделях. Иногда к сожалению вообще не работают, даже если сильно увеличить вес. Когда подозреваю что не работают, кидаю негативный запрос в запросы и проверяю, сгенерит или нет с запрошенной ошибкой или недостатком.
Хочется собрать базовый набор негативных запросов.
По поводу одинаковых лиц. Недавно нужно было сгенерировать группу детей, и всё время у них получались одинаковые (или почти) лица.
Супер понятно👍😁
Два дня искал Hypernetwork, Вчера наконец таки нашел! Иногда разрабы пугают с этими обновлениями. 😀
Сетку можно как то обучать локально, без приалечения сторонних онлайн сервисов? Например скормить ей нарисованное изображение, и сказать ей - "Это то, а это - это" А потом сказать "возми вот оттуда то, прибавь это, в стиле таком то, но еще с чем то другим..."
В сегодняшнем видео ответ на этот вопрос =)
*Подскажите, чем отличается Skip от Interrupt? Вроде обе операции прекращают. И ещё такой момент: обращается ли ИИ во время генерации в интернет? Он работает без интернета, но не понятно может ли он туда лезть когда интернет подключен?*
Как всегда. классно и подробно ,у меня возник странный вопрос,тринеруется ли модель когда мы просто генерируем изображения
Идея для ролика дорисовка и расширение изображения через inpainting/outpainting
Огромнейшее спасибо за информацию которую ты даёшь!
Протестил после нового видео такой запрос:
[witcher from witcher wild hunt:CJ from GTA SA: 15] и потом [Bruce Lee from Fist of Fury:Arnold Schwarzenegger from Terminator:10]
Невероятный результат! Дичайший восторг! К оценкам добавил на страничке твоей модели, глянь!
Охрененно! Правильно сделал, что сразу испытал =)
Спасибо за видео. Какие Extensions безболезненно можно устанавливать?
Те, которые устанавливаются в тестовый Stable Diffusion.
Нужно держать отдельную папку для тестов.
Здравствуйте! Возможно ли на 8 гб видеопамяти тренировать hypernetwork? Можно ли обучить нейронку на персонажа при помощи embedding, для которого открыта возможность тренироваться на 8 гб видеопамяти?
Да. Я начинал именно на RTX 2080, 8 ГБ.
Про последнею фишку отдельное спасибо, очень необычные и красивые картинки стали получаться, а если еще разобраться в них детальнее, то отрыв башни полный будет, жаль, что не получается больше 2 параметров в эти скобки закинуть, и , к сожалению, из-за моей скудной фантазии не получается сделать что-то грандиозное, спасибо за очередное полезное видео, ждем эксклюзива на бусти
[[mouse:lion:5]:dog:10]
@@RusNickel ну вроде что-то получается, спасибо
Привет Хачатур, спасибо за новые видео! Можно спросить почему поднялся уровень подписки на бусти на существующие посты? Нигде не нашел информации касательно этого
Привет 🖐
По этому поводу будет пост отдельный. И что думаешь? Он тоже будет платный и ещё дороже.
А всё потому, что слушатели за 100 рублей не услышат и Мне уже много лет понятно почему.
Поймёшь или догадаешься ли сейчас Ты? ┐('~`;)┌
@@XpucT Спасибо за ответ, хоть и абстрактный 😅На данный момент у меня только две теории это либо появилось много сливщиков либо повысилась оценка уровня труда. В любом случае желаю только хорошего, мне очень понравились стили и модель, можно получить прям разные и красивые результаты, я выкладывал на civitai свои :) Если еще можно попросить, если будут новые версии модели можно версии отдельно без VAE? Все таки для аниме стилистики больше подходит либо VAE от NovelAI либо Waifu Diffusion
@@Nonamus0 ни то, ни другое не являлось причиной.
Версия 1.0 специально не заменялась на civitai, чтобы люди могли брать и ту и другую 👍
Только подписался за 100 рублей скрепя сердцем, первый раз в жизни. И на тебе, плОти больше)
@@HAPKOMAHFACE хаха, тоже самое))
Мне стало интересно с 11.04.23 сколько я уже часов просмотрел видео в этом плейлисте🤔 И я посчитал с учетом данного видео где коммент = 19ч:37мин🤣, а сегодня 15.04.23 и еще сегодня продолжу. Хачатур, Вы лучше любого сериала нашумевшего и курсов онлайн и оффлайн, я реально год точно если не больше не был так сильно увлечен в получении знаний качественных🤩. Так держать, не останавливайтесь и продолжайте делать качественный контент🔥! Спасибо Вам!🔥
А есть вкратце инструкция как поставить Stable Diffusion. Какие версии и какие модели на текущий момент для начала работы?
Хачатур привет!!! Вопрос не по теме. Скажи, твой PotPlayer можно обновлять ?
Привет 🖐
Я бы не советовал. Я бы советовал брать тот, что Я даю на форуме.
Если не обновлял, значит не стоит обновлять.
@@XpucT Понял. А на форуме, где? Я скачал с Portable Soft. Он иногда тормозит. Комп у меня мощный.
о новый видос
Hypernetwork ставится в угловых скобках в prompt . Есть ли разница в какое место промпта его вставлять и стоит ли пробовать менять значение 1 и на что это влияет?
Подскажите пожалуйста Простые Одинарные скобки (), [] имеют приоритет над другими словами Без скобок?
И количество скобок сопостовимо с весом "(слово:1,3)" , где выше приоритет будет, у ((((нескольких скобок)))) или у (запроса:1.5) с любым числом?
круглые скобки поднимают приоритет на 0.1
То есть (((это))) и (это:1.3) одно и тоже.
Квадратные скобки понижают приоритет. Если нужна лёгкая улыбка, а не дикая лыба, то делаем так [[[[smiling]]]] или так (smiling:0.6)
@@XpucT о, спасибо большое)
Подскажите можно ли в sd 1.5 уменьшить нагрузку на видеокарту процентов на 20-30? Чтобы не на полную качегарила
Христ! Спасибо за ролики, я после каждого видео буквально получаю лучшую картинку и лучший результат по запросам! Спасибо что просвещаешь простых смертных) У меня есть ещё такой вопрос, если ли смысл подчищать папку OUTPUTS от неудачных результатов, влияет ли это как-то на то что создаётся в последствии?
Никак не влияет, считай как папка темп, если картинки не нужны можно удалять
Хачатур, скажи, пожалуйста, где можно ознакомится с твоим фотошопом? Вроде ранее ты говорил, что есть видео или ссылка на твою версию
nnmclub.to/forum/tracker.php?nm=Adobe%20XpucT
nnmclub.to/forum/tracker.php?nm=Adobe%20XpucT
@@serpotapov Огонь! Спасибо
3:07 Молодая Семенович получилась)
Ставь лайк если кайфуешь когда Хачатур двигает экран со своим лицом туда-сюда)
Отдельный лайк кто возбуждается когда Хачатур здоровается)))
=)))
Я за экран лайкнул =)
можно в дефорум анимацие переделывать стиль видео? например загрузить видео и указать стиль в который нада пепеделать
Disturbed крутой нейроклип сняли, Bad Man. Прям огонь.
Хуйня *полнейшая.* Прям точно говорю.
Добрый день. Подскажите пожалуйста, как сделать так, чтоб негативный промпт у меня был сохранен в инпуте и мне не приходило его вставлять каждый раз, когда я обновляю страницу / перезапускаю СД. В какой файл нужно добавить эту предустановку?
Добрый 🖐
Файл ui-config.json в корне Stable Diffusion.
Если надоело поправлять за разрабами то одно, то другое, можно просто забрать Мои конфиги с Boosty.
Я из обновляю ежедневно, вместе со стилями.
@@XpucT спасибо большое! Удачи вам, хороший и полезный контент делаете
А можно ли как то дорисовать изображения в stable diffusion? Просто видел где-то что так делали а сам не смог найти ,знаю лишь что в dalee так можно делать
Я на Boosty показывал как силён Inpaint.
Извиняюсь, не всегда успеваю смотреть все ролики, а где взять ваши стили,которые вы показываете в конце видео?
boosty.to/xpuct/posts/0b98e80a-147a-467f-8477-dffebbd72aa7?share=post_link
@@XpucT Спонсорство ютуб не подойдет, да?
@@lik1ns нет, потому что за весь 2022 год Я не получил ни копейки с RUclips и не получаю.
Приветствую всех)
Вопрос к будущим материалам, будет ли видос о нашумевших парсингах сайтов, как получать данные, о например погоде или курсе валют, как читать искать api сайта и все в таком духе)
Спасибо)
здравствуйте. хотелось бы от вас увидеть подробный туториал про img2img, вставка фото в нужный фон, смешивание изображений, описание настроек. или если уже есть что-то подобное, подскажите видео, не нашел у вас.
Скажу по секрету, это будет следующее видео ;)
Подскажите люди добрые, есть файл textual inversion (embeddings, .pt .chpt .bin) для SD 2.х. Как его конвертировать в 1.5 SD? нашел на civitai классный эмбединг, а он ни вкакую даже не грузится когда использую модели 1.5, мне нужно именно модель 1.5. Помогите.
Добрый день!
Где можно взять стили как у вас?
boosty.to/xpuct/posts/0b98e80a-147a-467f-8477-dffebbd72aa7?share=post_link
@XpucT , как делать аватарки в SD? Вот в MJ мы кидает одну фотку в чат , немного минем настройки MJ , пишем промт типа beautiful future style и аватарка готова . Как это же , а может и лучше делать в SD?
А делов фото своё в img2img играемся с Denoising strength + выбираем стиль аватарка готова. Особо хорошь для эго стиль painting vivid
На счёт Ламы скажу так, что её сделали для тех, кто в фотошопе не разбирается, чтобы вот просто взял кисть, зарисовал то, что тебе не нужно на картинке и оно удалится, с фотошопом же так просто не выйдет. Так что для старта на должном уровне)
@@Velanteg тут согласен, ляпнул он я аж присел.
не могу понять как вы сделали у себя поэтапный показ генерации, у меня предпросмотр появляется где то на 30-40% потом второй этап на 60 потом где то 80 и финиш
У Меня свои конфиги на Boosty, свой UI, все ништяки там.
в настройках есть вкладка Live previews
И покажи еще Riffusion модель с ее плагином (генератор спектограм (музыка))
кстати, тот билд для колаба от автоматика1111 вырубается после первого использования, об ошибке писали тут уже, а жаль. мне, счастливому обладателю радевона, пришлось онлайн сервисы пока изучать, и чтобы вы думали? на сервисе "магспейс" (там бесплатно только базовый SD 1.5 и 2.0) уже модель deliberate по подписочке. Это, я считаю, успех! Хотел скрин в телегу прислать, ан нет =)
Хотелось бы узнать как на готовое фото добавить на первый план размытого персонажа. Типа он стоит спиной в расфокусе а фокус на другом персонаже которого мы до этого сделали.
Всем привет. Подскажите пожалуйста. Скачал модель , куда теперь ее закидывать ? В папку models ? Юзаю все через гугл коллабу.
В видео про Colab показывал что и куда.
ruclips.net/p/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq
@@XpucT благодарю .)
топ контент
Хачатур, вопрос по portable automatic 1111. Ссылка для внешнего использования через gradio пашет меньше суток, вместо заявленных 72 часов. Не знаешь почему?
Из-за наплыва людей, скорее всего.
Подскажи пожалуйста, а как можно сделать морфинг из 2-х фоток. Вот если мне например нужно скрестить мою фотку с Бредом Питтом, то там легко, кидаю свою фотку в img2img, а в промпте пишу Брэд Питт, потому что СД знает кто такой Брэд Питт. Но как быть если я хочу сделать гибрид из 2-х человек, которых СД не знает. Т.е. мне нужно сделать морфинг из фото "А" и фото "Б". Да, можно натренить модель под нужного персонажа, но хочется более простой способ. Спасибо!
Круто! Людей с животным только не хочет смешивать
Моя модель может, примеры есть на civitai.
@@XpucT на ней и сижу. Пытался сделать человека-кота, максимум удалось чего добиться, это уши кошачьи. А хотелось морду человеко-кошачью. На civitai не увидел подобного
У меня почему-то через автоматик на Гугл колабе не получается подгрузить сразу две и более модели. Одну - пожалуйста. Но как только выбираю папку, где они лежат, а не конкретную модель, то не запускается SD🤷♂️
cat:dog это что за магия O_o
Подскажите, почему, когда я пытаюсь расширить картинку, он генерит, вроде как, 4 разных, но после генерации мне в результатах выдает 4 одинаковых картинки? Настройки я не менял, просто пытаюсь расширить картинку в обе стороны. Причем, еще вчера все работало хорошо.
Следующая неделя объявляется неделей мутантов, таких как: шкафопсы, машиноспички, стулокраны, кружкожабы и т.д...
я вчера пытался сделать ракодракона, добро пожаловать в мейнстрим)
Привет! Спасибо за видосики! А подскажи пожалуйста у тебя есть видео по установки SD и обучению модельки? Stable Diffusion + DreamBooth + Colab + AUTOMATIC1111
Спасибо!
Привет 🖐
ruclips.net/p/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq
Лайк не глядя. Снова сначала задаю вопрос, потом посмотрю) Пользуюсь вашей моделью через колаб. Скажите, возможно ли каким-либо образом сгенерировать пять ОДИНАКОВЫХ лиц но в разных позах, что бы натренировать уже на этом лице допчик и дальше по кодовому слову что бы всегда это лицо прикручивалось ко всем сгенерированым телам? Нет про это инфы в инете. Если у вас на канале поднимался такой вопрос, просто скажите, что было, я сам все перекопаю) Если же нет, молю, расскажите такую методику, если знаете.
Извините за мои дурацкие вопросы, просто я в дитчайшем восторге от этой игрушки!) Всё настроил, как у вас и генерирую бесконечно, экспериментирую с промптами. Даже сесть нормально все ваши видео отсмотреть нет времени)
Самый простой способ - это Inpaint. Многие что-то недооценивают его =))
М-да. Контент бомба. Спасибо вам. Есть предложение. Может конечно вы уже делали такой обзор но все же есть интерес посмотреть как можно создавать видео фрагменты и можно ли. И стоит ли вообще этим заморачиваться
Пока рано. Но думаю не больше года ждать, как получим полноценные видео 👍
Кстати, неплохо было бы отдельно гдето пояснить как правильно скинуть с колаба на комп обученную модель на своих фотках, и запустить это всё на локалке.
1е - Спасибо!
2е - Прекрати двигать себя по экрану, меня это возбуждает! ;-*
3е - Если в после генерации зафиксировать сид, и в конец промпта дописать "," ",," "d" "g" - кароче пустые запятая или символы не артикли, то будет генерить с тем же сидом меняя варианты. Хз почему, типа seed+1? Но можно получить новые ракурсы и детали сохраняя направление генерации.
4е - Есть графический интерфейс NMKD (все как в 1111) с поддержкой InstructPix2Pix, эту приблуду прикрутили к 1111 но криво пока. Очень похоже на обычный img2img, но или там пресеты встроены,или алгоритм другой, иногда дает хороший результат с сохранением исходного изображения. Подойдет для стилизации 1го изображения, без обучения. Пока сыровато, но вдруг будет интересно! (nmkd.itch.io/t2i-gui)