Кратко: Stable Diffusion/Models/ESRGAN Подробнее: корневая папка (где все папки от atomatic1111, и там же файл запуска веб интерфейса ИИ .bat) -> Models (в этой папке все модели лежат, от ControlNet, от самого StableDiffusion и т.д, апскейлер тоже является моделью) -> ESRGAN (в эту папку апскейлеры кидай)
Привет! Запиши, пожалуйста, ролик, про вставку объектов на новый фон. Особенно актуально это будет для фотографов предметной съёмки. Условно сфоткали мы наушники на белом фоне в лайтбоксе и нам нужно поместить их на фон улицы на лавку или посложнее положить их на пульт звукозаписывающей студии. Или же человек держит часы в руке и нужно поместить его на эпичный фон с эффектом фишай. Поставьте лайк, чтобы Христ увидел. Думаю это было бы действительно интересно поскольку это не просто генерация новых изображений, а именно помощь фотографам и бизнесам, которым необходим постоянный поток контента в соц сети
Вот прям пару дней назад думал, почему я не могу так сделать, идея была именно в этом, что бы через тайлинг делать фрагменты картинок, что бы разрешение в космос отправить, прошло 2 дня и тут на тебе, видос из моих грез))
@@silver046 та же фигня. Причём по началу вообще упустил этот момент про тайлинг и нихрена не понял об улучшении детализации. Апскейлил без тайлинга и получал мыло, а потом пытался исправить (понятно, что безуспешно). Боль моя была безгранична... Короче это всё оч круто и оч полезно оказалось)))
На более сложных, чем еуропиан вуман, сценариях не работает. На клозапе еще может чего то подтянуть, но на фулбоди всяких , где детализация мелкая, например всякие костюмы, не дает деталей на 4к, если следовать таким же путем. Получается плюс-минус то же самое что обычный апскейл в экстрас. Нет универсальных способов для всего, для различных случаев используются разные способы, так же как и денойзеры.
Тут наверное надо в img2img увеличивать раза в 2 и denoising ставить довольно большой, от 0.3 до 0.6, чтобы он мог детали дорисовать и мыло вытянуть и всё сразу изображение ресайзить. Ну и в img2img можно апскейлер выбрать (не в скрипте SD upscale, а именно когда генеришь с большим разрешением, по умолчанию там None) Я сам только вчера узнал. Это в settings ищется по слову upscaler, там выпадающий список.
Не работает апскейл. Фотка получается в большом разрешении, но при приближении всё замыленно как будто 1200 на 1600 приближаю. Не пойму что за фигня. Использую апскейлер как на видео и делаю те же самые настройки - не помогает
да он просто ведет себя как типичное быдло. И чем дальше тем больше кумарит. При этом строит из себя хер пойми, что. На улицах так бы быков, а не как рембо комнатное.
@@SilentPrayerCG та причем тут только это. В целом. Вечно он кого то призывает бить, плевать в лицо. Реально как типичная подворотня. Хз. Наверное его раньше вечно обижали, теперь так утверждается.
👀👀👀😳😳😲 Да это млять, просто волшебство какое то!!!! АХЕРЕНО-ОБАЛДЕННО!!!👍 З.Ы. Большое человеческое спасибо за ваш труд и проделанную работу, уважаемый Хачатур.
Привет Христ) Каждый раз, комментарий "без комментариев". Не могу представить как можно комментировать настолько подробный, ультра детализированный tutorial (!) по выбранной теме. Рад тебе, твоим выпускам. Здоровья тебе и окружающим тебя. Всех благ 🙏 Пошёл продлевать подписку на бусте )))
Господи, спасибо за то, что ты существуешь, имею в виду бог стейбла. До Вас, как и все думал что MJ лучшее что есть вообще, но нет. MJ в подметки не годится Stabl'у, подписался сразу на бусти не думая после просмотра 4х видео, это гениально просто
Странно, уже несколько часов повторяю алгоритм. У меня на третьем этапе: первый апйскел img2img в 1200px почему-то при DS: 0.2 тупо увеличивается картинка, но пиксели не пересчитываются в новую резкую картинку. Только при DS: 0.4 идёт движ, но и картинка начинает меняться. Естественно что и дальше врубать heun смысла нет -- получается размазня 3*4. 2060S 8 Гб, -xformers.
Спасибо за видео. Повторил всё с задротством 80-го уровня. ) На выходе мыльное изображение, к сожалению. Понял, что дело в самой первой генерации: lowres из DPM++ 2M изначально не такой чёткий, как у тебя. При 2х апскейле мыльность УЖЕ сохраняется, а дальше при SD upscale не пропадает. Но увеличение честное получается, ничего не теряется и не "изобретается". Только вот как первоначальную мыльность побороть - хз.
Как уже писал тут, этот способ работает только на клозап портретах, с крупными деталями и размытым фоном ну и всем остальном где нет мелкой детализации. С учетом времени на весь процесс особых плюсов по сравнению с апскейл+денойз не дает. На картинках где будет фулбоди и мелкие детали соответственно будет мыло.
Inpaint модель отлично подходит для изменения объекта, который полностью попадает в кадр. Для изменения абстрактных вещей или фона лучше подойдёт просто Deliberate.
Требую такой же подробный гайд для аниме. :-D Уверен там есть что рассказать кроме того что прогнать через аниме шарп апскейлер. :-) Да и думаю он будет покороче и попроще чем с реализмом.)
Не получается получить четкую картинку при первом увеличении, там где до 1200*1600. Увеличение Denoising strength четкости не добавляет, пока картинка не становится уже совсем другой. Т.е. это уже не увеличение, не удается сохранить и увеличить именно тот вариант что тебе понравился. Это чувство непопадания в желаемый результат прям убивает - кажется ну вот же прям близко - получается же четкая картинка похожая на первую, так чего ж ты не можешь первую дорисовать чтобы она совпала и была четкой... пытка. Короче генерю на первом увеличении сотню картинок и выбираю что больше понравилось - не имеет смысла сильно париться с исходным рисунком, он все равно изменится.
Привет Христ. В ранних видео ты говорил про Dream Textures блендеровский. Всё было бы хорошо, если бы оно работало, Cuda без памяти и т.д. Вопрос, можно ли как-то вписать аргументы по типу --medvram или xformers для ускорения работы? Ну или может есть какие-то другие способы запустить генерацию? Карта 1660ti 6гб, stable diffusion работает нормально :)
Подскажите закладка Image browser. Можно-ли увеличить количество одновременно просматриваемых картинок с 36 до 50, например. И как фотографии попадают в закладку Favorites.
я ставил на два разных компа стэйбл диффюжн и изи дифьюжн и почему то у меня сразу перестает Opera загружаться. какой-то конфликт у них со стейблом чтоли? приходится переустанавливать оперу
Мой stable diffusion скачан в конце декабря (ruclips.net/video/PveSwofCBic/видео.html), поменял deliberate (ruclips.net/video/He3x5LY-bjM/видео.html), скачал установил (4x_NMKD-Siax_200k), применил все параметры. Но, при апскейле картинка при большом разрешении не четкая, как будто просто растянула ее. вот параметры: detailed Steps: 40, Sampler: Heun, CFG scale: 5.5, Seed: 3916476746, Size: 1200x1200, Model hash: 9aba26abdf, Denoising strength: 0.08, SD upscale overlap: 64, SD upscale upscaler: 4x_NMKD-Siax_200k
там он же использует видеопамять в основном, следовательно надо видеопамяти ему выделять) может и можно как то оперативку задействовать, мне тоже интересно если реально так сделать
Не знаю почему, но у меня при аналогичной последовательности действий изображение в финальном разрешении 3600 на 4800, получается точно такое же мыльное как и в 1200 на 1600
Доброго времени суток. Попрошу некоторую подсказку, начал изучать ваш курс по С#, где вы говорите о том, что всегда стоит работать на стабильных версиях. Но курсу уже 4 года, если я не ошибаюсь. Не могли бы вы подсказать какие актуальные версии софта сейчас лучше всего использовать? Заранее благодарен.
почему то никто не спрашивал, так вот, очень важный вопрос!) если картинка взята из интернета? допустим она маленькая, 256 на 256, условно, и не находит больший размер, и хочется её увеличить, допустим она не размыта, и четко все видно, можно ли без промтов, как то её увеличить? ведь не всегда получается описать точь в точь все что на картинке, если пользоваться Extras, то получается размытое больше интерисует именно возможность увеличивать то, что не имеет промта, то, что не сгенерировано ИИ!
@@XpucT я не знаю как этим бусти пользоваться, как работает подписка, раз платишь и все, или надо заплатить, и быстро все смотреть что надо, если месячная плата, а времени за раз все посмотреть и запомнить нету( но спасибо за ответ, хоть знаю, что где то там можно найти
Добрый день, скажите какие папки нужно периодически чистить для стабильной работы SD? Появилась такая проблема генерация идет идеально в папку outputs все сохраняется а в самом редакторе картинки нет. Заранее благодарен.
О, великий Хачатур, спасибо тебе за шедевральный обзор! Если можешь наказать неверных гоев с Мидджорни и рассказать как генерировать арт (не симпатичных мадемуазелей) в Стейбл Дифьюжне пизже Мидджорни, то наше племя фанатов Deliberate будет оч радоваться и принесет в жертву одного любителя Рестор Фейс
Спасибо за видео. Скажите пожалуйста влияет ли на качество генерации параметр "Tile overlap" у скрипта "SD upscale"? По умолчанию стоит 64, что если удвоить это значение?
натренировал на своих фотках, но так как у меня фотки были только с лицом, то все изображения генерируются портретные, никакие промты не помогают - whole bode, full body. Есть ли способ сделать картинки в полный рост?
Добрый день. Установил по вашему видео Stable Diffusion Portable (AUTOMATIC1111) Становилось только 8,6. Гигабайт. Больше почему-то не скачивается, Подскажите пожалуйста. Как можно это исправить и что нужно сделать?
Не подскажите что это значит: Loading weights [9aba26abdf] from F:\stable-diffusion-webui-master\models\Stable-diffusion\deliberate_v2.safetensors Creating model from config: F:\stable-diffusion-webui-master\configs\v1-inference.yaml LatentDiffusion: Running in eps-prediction mode DiffusionWrapper has 859.52 M params. Дальше не грузится.
Доброго времени суток! Подскажите, пожалуйста: я поместил скачанный апскейлер 4x_NMKD-Siax_200k в папку WEbUI/models/Esrgan, но в списке апскейлеров Автоматика в колабе он не отображается. В чём ошибка?
Товарищи, а как заставить этот дурацкий Interrogator работать? 2/3 раз что ставил SD - он не работает, кидаешь картинку - выдает error вместо промпта, ну и в консоли пишет подробней. Вроде как там какой-то файл надо кинуть в папку(сходу не помню) но я так и не понял ге его взять что за файл и почему он не подгрузился при установке расширения.
Попробовал по рекомендациям в видео. Один и тот же промт. Один и тот же сид. Inference Steps такой же. Поменял только с DPM++ 2m (karras) на Heun - картинка совершенно другая! Далее, при увеличении Inference Steps до 40 Heun тупо валится по ошибке: Error: current_allocated_size() >= m_low_watermark_limit INTERNAL ASSERT FAILED. Версия GUI v2.5.41. может дело в ней, не знаю. Но, так и не смог сделать апскейл как это в видосе показано.
Почему у меня 8гб видюха не тянет генерацию и апскейл изображений более чем 800х800? И то только с lowvram, без которого выше 512х512 выдает out of memory. Возмжно ли это из-за того, что я что-то не правильно делаю? Или что-то не так установил?
@@serpotapov нет, у меня full hd. проблему вроде решил добавив команду --xformers, мне подсказали. Теперь генерируются изображения гораздо большего размера, но скорость всяких действий и загрузок при смене моделей значительно упала. Без понятия, что это команда делает, но вроде помогла
*Больше всех Хачатур наказывает тех, кто ставит галочку Рестор фейс в Файрфокс)))*
На 11 винде)
И на чилаут модели, она же топ 1))))
Больше всех того, кто делает все это ,сидя на принтере))
Но одобряет когда ставите галочку Файрфокс в Рестор фейсе
Я поставил галочку Рестор Фейс в Файрфокс и у меня взорвался компьютер и отформатировался диск С
Этот канал просто открытие года какое-то!!! Концентрация полезного контента зашкаливает!
Подскажите в какую папку нужно кидать тот файл с телеграмма для апскейлера?
Кратко:
Stable Diffusion/Models/ESRGAN
Подробнее:
корневая папка (где все папки от atomatic1111, и там же файл запуска веб интерфейса ИИ .bat) -> Models (в этой папке все модели лежат, от ControlNet, от самого StableDiffusion и т.д, апскейлер тоже является моделью) -> ESRGAN (в эту папку апскейлеры кидай)
Гуру нейросетей :) Что бы мы без вас делали.
❤
Привет! Запиши, пожалуйста, ролик, про вставку объектов на новый фон. Особенно актуально это будет для фотографов предметной съёмки. Условно сфоткали мы наушники на белом фоне в лайтбоксе и нам нужно поместить их на фон улицы на лавку или посложнее положить их на пульт звукозаписывающей студии. Или же человек держит часы в руке и нужно поместить его на эпичный фон с эффектом фишай.
Поставьте лайк, чтобы Христ увидел. Думаю это было бы действительно интересно поскольку это не просто генерация новых изображений, а именно помощь фотографам и бизнесам, которым необходим постоянный поток контента в соц сети
Уже есть такой ролик. Он там тумбочку в интерьер вписывает. Поищи
Есть уже такой в плейлисте, да.
блэт, кидаешь их в инпеинт, выделяешь маской и говоришь рисовать вокруг - все. Не благодари
Я просто не знаю что я бы делал без этого человека , спасибо огромное скоро иду на Буст,такого человека надо поддерживать!!!!
Класс!!!Очень подробно. Благодарю!
Вот прям пару дней назад думал, почему я не могу так сделать, идея была именно в этом, что бы через тайлинг делать фрагменты картинок, что бы разрешение в космос отправить, прошло 2 дня и тут на тебе, видос из моих грез))
@@xn4pl Ну я не миллион лет назад воткнулся в сд
@@silver046 та же фигня. Причём по началу вообще упустил этот момент про тайлинг и нихрена не понял об улучшении детализации. Апскейлил без тайлинга и получал мыло, а потом пытался исправить (понятно, что безуспешно). Боль моя была безгранична...
Короче это всё оч круто и оч полезно оказалось)))
Хачатур! Мое почтение! Не знаю почему, но видео прям можно есть, настолько оно насыщенное ))) Спасибо за работу!
🤝
огромное спасибо, очень полезный туториал!
На более сложных, чем еуропиан вуман, сценариях не работает. На клозапе еще может чего то подтянуть, но на фулбоди всяких , где детализация мелкая, например всякие костюмы, не дает деталей на 4к, если следовать таким же путем. Получается плюс-минус то же самое что обычный апскейл в экстрас. Нет универсальных способов для всего, для различных случаев используются разные способы, так же как и денойзеры.
Тут наверное надо в img2img увеличивать раза в 2 и denoising ставить довольно большой, от 0.3 до 0.6, чтобы он мог детали дорисовать и мыло вытянуть и всё сразу изображение ресайзить. Ну и в img2img можно апскейлер выбрать (не в скрипте SD upscale, а именно когда генеришь с большим разрешением, по умолчанию там None) Я сам только вчера узнал. Это в settings ищется по слову upscaler, там выпадающий список.
Не работает апскейл. Фотка получается в большом разрешении, но при приближении всё замыленно как будто 1200 на 1600 приближаю. Не пойму что за фигня. Использую апскейлер как на видео и делаю те же самые настройки - не помогает
+1
Denoising-а маловато. Ему простора фантазии не хватает чтобы мыло деталями зарисовать
Потрясный гайд. Автору поклон
ЧСВ Хачатура растёт с каждым видео : D
Он заслужил, аехеае 🎉 после таких видео ЧСВ не только допустимо, но и полезно :))
да он просто ведет себя как типичное быдло. И чем дальше тем больше кумарит. При этом строит из себя хер пойми, что. На улицах так бы быков, а не как рембо комнатное.
@@SilentPrayerCG та причем тут только это. В целом. Вечно он кого то призывает бить, плевать в лицо. Реально как типичная подворотня. Хз. Наверное его раньше вечно обижали, теперь так утверждается.
@@SVT2008SVTмне кажется, если смотреть видео внимательней, то это все началось с недообзорщиков, где не верно информацию доносят
@@6e3_qpaHTa3uu и как неверная информация других людей, заставляет быть быдлом его?
👀👀👀😳😳😲 Да это млять, просто волшебство какое то!!!! АХЕРЕНО-ОБАЛДЕННО!!!👍
З.Ы. Большое человеческое спасибо за ваш труд и проделанную работу, уважаемый Хачатур.
Красавчик, полезно, интересно, молодец!!! жду новых видео
Уважаемый,Хачатур! Благодарю за очередное полезное видео.👍
Я всё ждал видео про Апскейл и вот оно!
Спасибо!
да вы гениальный цифровой художник!
Как всегда: полезно и весело! 👍Спасибо!
Спасибо! А ведь все параметры на всех шагах стандартны, кроме маски. По идее, можно попробовать обернуть все эти шаги в автоматический скрипт.
После этого видео, хочется что бы автор раскрыл именно эту тему...
Хачатур , спасибо Тебе огромное!!! Ты просто Гений!!!! Материал как всегда представлен специалистом наивысшего профиля!!!!!!!!!
Привет Христ) Каждый раз, комментарий "без комментариев". Не могу представить как можно комментировать настолько подробный, ультра детализированный tutorial (!) по выбранной теме. Рад тебе, твоим выпускам. Здоровья тебе и окружающим тебя. Всех благ 🙏
Пошёл продлевать подписку на бусте )))
Можно пожалуйста ролик про обработку неживых предметов и модели для них? Техника, машины, архитектура и.т.д
Большая благодарность тебе Хачатур! Удачи тебе!
Утро начинается не с кофе 😄🔥
Хорошая работа, Хачатур! Продолжайте!
Дядя ты просто красавчик! Полтергейста береги!
Сейчас накажу наградой за это видео! Потому что правильно)
Подскажите пожалуйста, как использовать t2iadapter_style-fp16 в ControlNet?
Благодарю за информацию
Господи, спасибо за то, что ты существуешь, имею в виду бог стейбла. До Вас, как и все думал что MJ лучшее что есть вообще, но нет. MJ в подметки не годится Stabl'у, подписался сразу на бусти не думая после просмотра 4х видео, это гениально просто
Честно сказать - я охренел.
😊
Странно, уже несколько часов повторяю алгоритм.
У меня на третьем этапе: первый апйскел img2img в 1200px почему-то при DS: 0.2 тупо увеличивается картинка, но пиксели не пересчитываются в новую резкую картинку. Только при DS: 0.4 идёт движ, но и картинка начинает меняться. Естественно что и дальше врубать heun смысла нет -- получается размазня 3*4.
2060S 8 Гб, -xformers.
Аналогично
Вот это доброе утро 😊
Просто в ах-е. Любовь с первого видео))) спасибо.
Круть) Чувствую себя великим мастером SD, хоть и понимаю... что ничего не понимаю и благодаря кому все мои достижения)). Хачатур, спасибо❤
Спасибо за видео. Повторил всё с задротством 80-го уровня. ) На выходе мыльное изображение, к сожалению. Понял, что дело в самой первой генерации: lowres из DPM++ 2M изначально не такой чёткий, как у тебя. При 2х апскейле мыльность УЖЕ сохраняется, а дальше при SD upscale не пропадает. Но увеличение честное получается, ничего не теряется и не "изобретается". Только вот как первоначальную мыльность побороть - хз.
У меня так же
у меня то же самое
Как уже писал тут, этот способ работает только на клозап портретах, с крупными деталями и размытым фоном ну и всем остальном где нет мелкой детализации. С учетом времени на весь процесс особых плюсов по сравнению с апскейл+денойз не дает. На картинках где будет фулбоди и мелкие детали соответственно будет мыло.
@@slide3d я и делаю клозеап портрет как в видео 1в1. Все по шагам. 5 раз повторял, чтобы не наказали. Но результат = мыло.
@@Designforsales покажи из чего пытаешься вытянуть в 4к, чтобы понятно было в чем проблема может быть.
Угорел над "почему не в ютубе? - потому что не вые...етесь и просто идете в телеграм" ))
Нельзя так просто взять и сделать так, чтоб Христ тебя не наказал)))
Как всегда, по существу! Вне конкуренции! Спасибо!
Keep up the awesome work, thanks for taking the time. Your demo's are quite insightful.
А почему вы не используете модель Deliberate_inpaiting при работе с маской на вкладке Inpaint? Или для каких случаев эта модель?
Inpaint модель отлично подходит для изменения объекта, который полностью попадает в кадр. Для изменения абстрактных вещей или фона лучше подойдёт просто Deliberate.
Очень актуально. Благодарю.
Ограничения на количество текста в Stable Diffusion! Интересно от чего это зависит ? Что на это влияет? Cuda может как то на это влияет ?
? ? ?
Материал агонь, подача просто шикарна, благодарю Хачатур
Требую такой же подробный гайд для аниме. :-D Уверен там есть что рассказать кроме того что прогнать через аниме шарп апскейлер. :-) Да и думаю он будет покороче и попроще чем с реализмом.)
спасибо за гайд)
ps: установила centbrowser, спасибо за наводку
После жестов в Cent я не могу в другой браузер вернуться. ))
Не получается получить четкую картинку при первом увеличении, там где до 1200*1600. Увеличение Denoising strength четкости не добавляет, пока картинка не становится уже совсем другой. Т.е. это уже не увеличение, не удается сохранить и увеличить именно тот вариант что тебе понравился. Это чувство непопадания в желаемый результат прям убивает - кажется ну вот же прям близко - получается же четкая картинка похожая на первую, так чего ж ты не можешь первую дорисовать чтобы она совпала и была четкой... пытка.
Короче генерю на первом увеличении сотню картинок и выбираю что больше понравилось - не имеет смысла сильно париться с исходным рисунком, он все равно изменится.
Плюсую
Спасибо, не буду словоблудить, пойду на бусти.
Бедный полтергейст XD Спасибо за видео !
Привет Христ. В ранних видео ты говорил про Dream Textures блендеровский. Всё было бы хорошо, если бы оно работало, Cuda без памяти и т.д. Вопрос, можно ли как-то вписать аргументы по типу --medvram или xformers для ускорения работы? Ну или может есть какие-то другие способы запустить генерацию? Карта 1660ti 6гб, stable diffusion работает нормально :)
Спасибо Хачатур. Каждое видео шедевр. Вот теперь я знаю как сделать качественный апскейл. А то у меня все время получалась херня.
Подскажите закладка Image browser. Можно-ли увеличить количество одновременно просматриваемых картинок с 36 до 50, например. И как фотографии попадают в закладку Favorites.
я ставил на два разных компа стэйбл диффюжн и изи дифьюжн и почему то у меня сразу перестает Opera загружаться. какой-то конфликт у них со стейблом чтоли? приходится переустанавливать оперу
Браво, круто, отлично. Как уже писали в комментах, все эти шаги можно заскриптовать, кроме маскирования, насколько это уместно?
Мой stable diffusion скачан в конце декабря (ruclips.net/video/PveSwofCBic/видео.html), поменял deliberate (ruclips.net/video/He3x5LY-bjM/видео.html), скачал установил (4x_NMKD-Siax_200k), применил все параметры. Но, при апскейле картинка при большом разрешении не четкая, как будто просто растянула ее. вот параметры:
detailed
Steps: 40, Sampler: Heun, CFG scale: 5.5, Seed: 3916476746, Size: 1200x1200, Model hash: 9aba26abdf, Denoising strength: 0.08, SD upscale overlap: 64, SD upscale upscaler: 4x_NMKD-Siax_200k
У меня так же, и ещё почему-то делает разрешение 3000х4000, при том что пошагово всё делаю 1в1, в настройках не менял ничего.
@@KSDPUA у меня также только 3000х4000, все по шагам также делал 680х912 потом 1200х1600 и выходит 3000х4000
есть ли существенная разница между апскейлом этим скриптом по плиткам и апскейлом в extra тем же апскейлером?
Да, разница существенная это заметно даже на меньшем множителе апскейла. Просто попробуй и я уверен, ты заметишь.
Всем привет! Кто знает, как будет работать Stable Diffusion на Xeon 24 ядра 48 потоков и 200GB оперативки? Или без видяхи все равно не потянет?
там он же использует видеопамять в основном, следовательно надо видеопамяти ему выделять) может и можно как то оперативку задействовать, мне тоже интересно если реально так сделать
не забудьте перевести картинку из RGB в CMYK, чтоб посмотреть как примерно исказятся цвета при печати
для этого нужен соответствующий цветовой профиль
Спасибо за полезное видео! Подскажи пожалуйста не планируется ли случайно видео об Ebsynth Utility?
Спасибо за крутое видео!
Первый просмотр обычно не запоминается хорошо, теперь второй раз сейчас с текстовиком, спасибо👍
epoch: 2
Большая благодарность за вашу работу,
Большое спасибо за годноту!!!
сть разница между использованием esrgan в SD или отдельно, например, в IEU?
Здравствуйте, а как сделать такое же отображение генерируемой картинки во время генерации? Например 2:34
Добрый день 🖐
В настройках всё это есть. Либо просто возьмите Мои конфиги с Boosty.
@@XpucT спасибо
Автор Спасибо! Если у меня фото клавиатуры и немного размытые буквы как правильно апскейлить до идеального качества?
Спасибо за видео! расскажи про расширение аутпейнтинга 🙏
Не знаю почему, но у меня при аналогичной последовательности действий изображение в финальном разрешении 3600 на 4800, получается точно такое же мыльное как и в 1200 на 1600
Хоть бы одно видео, как правильно делать пейзажи в соотношении сторон 16:9.
Это очень просто делается!
@@EvgenySereda21 Ну и как?
@@dreamsaboutadream дорисовывая результат
@@dreamsaboutadream img to img скрипт outpainting mk2 только дорисовывать по одной стороне, все сразу врядли получится
Спасибо, очень полезно!
как я давно ждал этого выпуска
Доброго времени суток. Попрошу некоторую подсказку, начал изучать ваш курс по С#, где вы говорите о том, что всегда стоит работать на стабильных версиях. Но курсу уже 4 года, если я не ошибаюсь. Не могли бы вы подсказать какие актуальные версии софта сейчас лучше всего использовать? Заранее благодарен.
почему то никто не спрашивал, так вот, очень важный вопрос!)
если картинка взята из интернета? допустим она маленькая, 256 на 256, условно, и не находит больший размер, и хочется её увеличить, допустим она не размыта, и четко все видно, можно ли без промтов, как то её увеличить? ведь не всегда получается описать точь в точь все что на картинке, если пользоваться Extras, то получается размытое
больше интерисует именно возможность увеличивать то, что не имеет промта, то, что не сгенерировано ИИ!
На Boosty подробное видео есть.
Вы явно не подписаны, а зря. Фокусов море.
@@XpucT я не знаю как этим бусти пользоваться, как работает подписка, раз платишь и все, или надо заплатить, и быстро все смотреть что надо, если месячная плата, а времени за раз все посмотреть и запомнить нету(
но спасибо за ответ, хоть знаю, что где то там можно найти
Христ, нашел видеоролик новый, про модель контроля мимики, куда можно ссылку на видео скинуть?
Я в курсе без видео про это. Работает сыро и только на 2.0 и выше.
Добрый день, скажите какие папки нужно периодически чистить для стабильной работы SD? Появилась такая проблема генерация идет идеально в папку outputs все сохраняется а в самом редакторе картинки нет. Заранее благодарен.
Дядя спасибо!
Привет! У кого нибудь были проблемы со входом в группу в дискорде? Не принимается приглашение почему-то
здрастье. SD может работать на двух и более видеокартах в компьютере?
Здравствуйте, не подскажите своё железо?
Windows 10 Pro x64
ASUS ROG STRIX Z390-F GAMING
Intel Core i9-9900K CPU @ 3.60GHz
Gigabyte AORUS GeForce RTX 4080 16GB MASTER
Kingston HyperX Predator 64 GB (DDR4 3600 MHz)
Samsung SSD 970 PRO 512GB (M.2)
Samsung SSD 860 EVO 1TB
Thermaltake Toughpower DPS G RGB (850W)
LG 32GK650F-B (2560 x 1440 @ 144Hz)
при перезагрузке, Installing pywin32 почему-то установилось. Может с этим что-то не так.
Покажи несколько разных фото. Непонятно как она будет работать с объектами
О, великий Хачатур, спасибо тебе за шедевральный обзор! Если можешь наказать неверных гоев с Мидджорни и рассказать как генерировать арт (не симпатичных мадемуазелей) в Стейбл Дифьюжне пизже Мидджорни, то наше племя фанатов Deliberate будет оч радоваться и принесет в жертву одного любителя Рестор Фейс
Уважаемый, даже можно сказать дорогой, Хачатур. А какой сейчас самый крутой метод апскейла, кроме Supir, которой требует невменяемо крутую видяху?
Спасибо за видео.
Скажите пожалуйста влияет ли на качество генерации параметр "Tile overlap" у скрипта "SD upscale"?
По умолчанию стоит 64, что если удвоить это значение?
Привет 🖐
Про Tiling рассказывал на Boosty:
boosty.to/xpuct/posts/7798c4e5-2d14-47c6-a8b6-09b659863b9a?share=post_link
Братан какую видюху взять? 1660 уже не тянет норм.
Это для любых фотографий работает или только для портретов
натренировал на своих фотках, но так как у меня фотки были только с лицом, то все изображения генерируются портретные, никакие промты не помогают - whole bode, full body.
Есть ли способ сделать картинки в полный рост?
Делай любых людей и любые сценарии, потом через инпейнт маску на лицо и подкидывает лору
Добрый день. Установил по вашему видео Stable Diffusion Portable (AUTOMATIC1111) Становилось только 8,6. Гигабайт. Больше почему-то не скачивается, Подскажите пожалуйста. Как можно это исправить и что нужно сделать?
А с реальным фото так прокатит?
Не подскажите что это значит: Loading weights [9aba26abdf] from F:\stable-diffusion-webui-master\models\Stable-diffusion\deliberate_v2.safetensors
Creating model from config: F:\stable-diffusion-webui-master\configs\v1-inference.yaml
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Дальше не грузится.
Хачатур, благодарность!!!
Доброго времени суток! Подскажите, пожалуйста: я поместил скачанный апскейлер 4x_NMKD-Siax_200k в папку WEbUI/models/Esrgan, но в списке апскейлеров Автоматика в колабе он не отображается. В чём ошибка?
Добрый день.
Сделайте Reload UI.
Я всё стесняюсь спросить, а когда уже в portable появится возможность выбрать никакую hypernetwork? Пункта None только у меня нету?
Да
Товарищи, а как заставить этот дурацкий Interrogator работать? 2/3 раз что ставил SD - он не работает, кидаешь картинку - выдает error вместо промпта, ну и в консоли пишет подробней. Вроде как там какой-то файл надо кинуть в папку(сходу не помню) но я так и не понял ге его взять что за файл и почему он не подгрузился при установке расширения.
Не могу подключиться к дискорду, ссылка не работает
уроки просто бомба!! а можно побольше уроков по Easy Diffusion? КОнкретно интересует тема с апскейлом там и с артами на основе фотографий.
Попробовал по рекомендациям в видео.
Один и тот же промт. Один и тот же сид. Inference Steps такой же. Поменял только с DPM++ 2m (karras) на Heun - картинка совершенно другая!
Далее, при увеличении Inference Steps до 40 Heun тупо валится по ошибке: Error: current_allocated_size() >= m_low_watermark_limit INTERNAL ASSERT FAILED.
Версия GUI v2.5.41. может дело в ней, не знаю. Но, так и не смог сделать апскейл как это в видосе показано.
может Denoising высокий?
Почему у меня 8гб видюха не тянет генерацию и апскейл изображений более чем 800х800? И то только с lowvram, без которого выше 512х512 выдает out of memory. Возмжно ли это из-за того, что я что-то не правильно делаю? Или что-то не так установил?
Приветствую 🖐
У Вас, случаем, не 4К экран?
@@serpotapov нет, у меня full hd. проблему вроде решил добавив команду --xformers, мне подсказали. Теперь генерируются изображения гораздо большего размера, но скорость всяких действий и загрузок при смене моделей значительно упала. Без понятия, что это команда делает, но вроде помогла