Возможно не делать апскейл , а если выбрали в инпейнте область инпейнта - только маска - установить выше разрешение ширины\высоты (это не увеличит общий размер картинка, а область прорисовки инпейнта) в соотношении
видел в каком то ролике про ИнвокАИ, тоже делали ресайз части изображения для добавления мелких деталей( в том случае оленей). спасибо за видео , инфа полезная
@@cg_dist мне только оутпейнтинг понравился. по моим ощущениям работает медленней, жрет больше ресурса видео карты. наткнулся на плагин оутпейнтинг для а1111, очень похож на инвок. хочу установить потестить
Ну по сути - это их основная фишка. Если а1111 не прикрутит к себе такую - по любому в пайплайнах будут что-то подобное юзать. Фотошоповский плагин кстати не пробовал?
@@cg_dist Можно как вариант использовать "stablediffusion-infinity", по сути тот же инвок, он может не такой красивый как инвок, но работает точно так же по смыслу
@@VitVit312 Да. И его надо посмотреть... Вроде нейронки должны облегчать жизнь, а такое ощущение - что встроенной человеческой оперативки на все не хватит.))
Темы для видео роликов которые были бы интересны : 1) как обучить эту нейронку automatic1111 (вкладка Train ). Какие могут быть ошибки. Ошибка cuda. что делать при малом объёме видеопамяти (GeForce 1060 3gb). 2) Видео карта для нейроилюстратора. Рекомендуемое железа. На чём сам работаю. 4) Embedding с примером, .. Где брать например исходные картинки для обучения (варианты, фото, 3D , игры). 5 ) Обучение Hapernetwork пример с фотографиями. Как нарисовать супермена со своим лицом или Железного человека. )) Подписался, годный контент. 👏
Спасибо Вам! Было очень полезно. Так мало уроков на просторе интернета! Мне очень нужно подробней представлять/предсказывать себе результат, потому что видеокарта GT 1030 позволяет запуститься нейросети только в максимально экономном режиме(в ином случае торч и куда ругаются), а при генерации максимум могу себе позволить 4 изображения 512х512 и одно 512х768. И это всё при 20 шагах.
Я про такие не знаю.) Сейчас активно говорят про нейронку Blue Willow как бесплатную альтернативу MidJourney, может такой вариант поможет. Я понимаю - что SD вариативнее, но вдруг?
@@Димитеро вы могли "истратить" бесплатные ежедневные 2-4 часа, в какой-то день. Ну зайдите в другой день, если что-то мешает завести 2-3 гугл-аккаунта. А 3 аккаунта - это 9-12 часов. И я почему-то сомневаюсь, что вы столько времени подряд будете сидеть у компа...
@@cg_dist invokeai немного требовательнее для карт с 4 гб, и на моём ноуте 1650ti не запустился. Было бы отлично если сумеете разобрать SD без invokeai, а если и с ней, то методы запуска на слабых видеокартах. Там были разные команды как "max split size" итп.
Привет, спасибо за гайд, очень полезен! А какие настройки использовать для исправления кривых рук? Или эти же самые для лица подойдут? Так же хотел бы узнать настройки чтобы раздеть/поменять одежду. Потому что у меня постоянно получается что совершенно иное тело неподходящее к голове.
Приветствую! Можно вопрос? На 1:27 ты говоришь "подгрузить изображение в png info", но не видно что ты для этого нажимаешь. Не подскажешь как подгрузить? Или ты сохраняешь на комп и потом подгружаешь?
можно писать не зеленые глаза, а Болотного цвета. тогда они естественнее выходят, как у людей. Если это не арт, такой вариант приемлемее. как по мне !,)
Не пойму, в инпайнте выставляю Just resize - Inpaint masked - original - Only masked, и всё равно меняется всё изображение, а не только то что закрашено...😒 И по умолчанию в инпайнте отсутствует настройка "Mask source". Может в этом дело?
В любом случае для это нужно использовать инпэинт модель, но естественно не оригинальную 1.5. Можно из того же протогена сделать инпэинт модель слиянием чекпоинтов: sd v1-5-inpaint \ НУЖНАЯ МОДЕЛЬ \ sd v1.5 , чек бокс выставить на Add difference и Multiplier на 100%, можно сохранить по желанию в float16 для экономии места (разница в результате с оригиналом по качеству всего около 1%), а вот по весу в 2 раза.
Эмм... Модель можно использовать любую, здесь больше про функционал A1111. Стоковая 1.5. выдает тоже неплохие варианты. И еще я понял - что ты шаришь за слияние моделей, но в этом видео об этом речи не идет вообще.))
@@cg_dist Просто инпейнт модель намного лучше работает с ползунком Denoising strength, так как в ней есть дополнительные слои для отделения заднего фона и передачи стиля с цветом картинки. Те же глаза исправляются во много раз качественней и быстрее. Для сравнения на стандартной нужно либо очень сильно понижать Denoising strength, либо очень аккуратно маскировать глаза. И все ровно частенько стандартная модель лепит отсебядину и лишь через попыток 20 делает что то вменяемое, а инпэйнтинго с первого раза все делает правильно. + Руки исправляет на ура
@@ivanshmelev161 Тема интересная, да. Но пока я пытаюсь больше за инструментарий поговорить. Модели и слияния как грибы растут, это прям отдельная тема для разговора. Кстати - если ты настолько погружен, может сможешь помочь? Почему маска не работает на 100% при скрипте SD upscale в inpaint?
У меня просто темная тема браузера. Но на гитхабе есть приложение для настройки интерфейса. Можете здесь посмотреть - github.com/Nacurutu/Dark-Themes-SD-WebUI-Automatic1111
Хмм... Интересный интерфейс у Вашей программки. У меня Stable Diffusion почему-то открывается в браузере (через запуск bat-файла), и имеет более всратый интерфейс.
@@cg_dist Нет. У меня вообще, видимо, какая-то другая утилита. Интерфейс совершенно не похож. А в вверхнем левом углу написано "Stable Diffusion UI v2.4.24". А! Я понял. У меня даже не Automatic1111. *:D* Тогда - ладно.
Привет. Подскажи пожалуйста. Если пользоваться плагинами для фотошопа, которые работают с локальным сервером Stable diffusion, то подойдет версия от Automatic1111 или нужно чисто оригинал ставить?
@@stefan_es Про Flying Dog у них на сайте указан A1111, интересно пощупать что там у них за 55$.) А из наиболее юзабельных бесплатных сейчас - это Auto-Photoshop-StableDiffusion-Plugin, он тоже работает с A1111.
Там всего 150.) Да, я видел пару видео, где говорят о 30-40 шагах. Но я за хардкор!) А если серьезно - единожды попробовав 150 слезть на низкие значения не получается. Все субъективно, но на мой взгляд результаты круче на высоких значениях.
@@neuro_hud В продакшене, экспериментах и дома для себя - да, имеет смысл. Плюс железо экономится. Но при записи на канал хочется повыжимать максимум. Тем более я прям вижу просадки пока записываю.
@@neuro_hud Я в группу скинул таблицу со сравнением разных Sempl steps. Разница просматривается даже между 100 и 150 (особенно в детализации фона). По поводу насиловать видюху согласен но на то она и создана.)) - t.me/DISTSD
Очень полезная информация. Буду рад ещё подобным видео.
Никакой лишней воды, все по делу и понятно, класс! Продолжайте в том же духе.
Спасибо за столь полезную информацию!
Спасибо за видео. Все и правда работает.
Возможно не делать апскейл , а если выбрали в инпейнте область инпейнта - только маска - установить выше разрешение ширины\высоты (это не увеличит общий размер картинка, а область прорисовки инпейнта) в соотношении
Спасибо, тут, главное, коротко о главном, ничего лишнего.
Спасибо за гайды. Очень хорошо всё объясняешь.
Спасибо, очень понравилось! Главное понятно и доходчиво, не останавливайся на достигнутом!
Спасибо, очень полезные видосы. Подробно рассказываешь и без воды. И формат таких коротких видео очень заходит. Буду ждать новых выпусков ))
Большое спасибо, очень полезно и познавательно!
Видео хорошее, однозначно в избранное. Автору спасибо!
Отличный канал. Спасибо за твои видео, очень сильно помогли.
ничего себе! спасибо большое, отлично
молодец, доходчиво и по делу... продолжай в том же духе!
Спасибо! очень доступное объяснения. Жаль мало видеороликов.
видел в каком то ролике про ИнвокАИ, тоже делали ресайз части изображения для добавления мелких деталей( в том случае оленей). спасибо за видео , инфа полезная
ИнвокАИ - прикольная тема, никак не подберусь к ней..
@@cg_dist мне только оутпейнтинг понравился. по моим ощущениям работает медленней, жрет больше ресурса видео карты. наткнулся на плагин оутпейнтинг для а1111, очень похож на инвок. хочу установить потестить
Ну по сути - это их основная фишка. Если а1111 не прикрутит к себе такую - по любому в пайплайнах будут что-то подобное юзать. Фотошоповский плагин кстати не пробовал?
@@cg_dist Можно как вариант использовать "stablediffusion-infinity", по сути тот же инвок, он может не такой красивый как инвок, но работает точно так же по смыслу
@@VitVit312 Да. И его надо посмотреть... Вроде нейронки должны облегчать жизнь, а такое ощущение - что встроенной человеческой оперативки на все не хватит.))
Очень хочется видео по SD Upscaler по подробнее.
Продолжайте, качественный контент у вас.
Спасибо. Про SD upscaler Я говорил во втором видео на канале.
Продолжай делать обучалки. У тебя лаконично и быстро все))
спасибо)
Хм... Фишку с ресайзом интересна, надо будет попробовать.
Темы для видео роликов которые были бы интересны : 1) как обучить эту нейронку automatic1111 (вкладка Train ). Какие могут быть ошибки. Ошибка cuda. что делать при малом объёме видеопамяти (GeForce 1060 3gb). 2) Видео карта для нейроилюстратора. Рекомендуемое железа. На чём сам работаю. 4) Embedding с примером, .. Где брать например исходные картинки для обучения (варианты, фото, 3D , игры). 5 ) Обучение Hapernetwork пример с фотографиями. Как нарисовать супермена со своим лицом или Железного человека. )) Подписался, годный контент. 👏
Отличное видео, спасибо, правда. Единственное, чуть можно отодвинуть микрофон, тогда будет лучше ощущаться ваш голос :)
Жду ещё)))
Спасибо Вам! Было очень полезно. Так мало уроков на просторе интернета! Мне очень нужно подробней представлять/предсказывать себе результат, потому что видеокарта GT 1030 позволяет запуститься нейросети только в максимально экономном режиме(в ином случае торч и куда ругаются), а при генерации максимум могу себе позволить 4 изображения 512х512 и одно 512х768. И это всё при 20 шагах.
Спасибо. Может вам попробовать коллаб версию?
@@cg_dist Коллаб об гугла я уже истратил) Заходить с другого, потом опять с другого аккаунта что-то не хочу. А есть бесплатные коллабы?)
Я про такие не знаю.) Сейчас активно говорят про нейронку Blue Willow как бесплатную альтернативу MidJourney, может такой вариант поможет. Я понимаю - что SD вариативнее, но вдруг?
@@Димитеро вы могли "истратить" бесплатные ежедневные 2-4 часа, в какой-то день. Ну зайдите в другой день, если что-то мешает завести 2-3 гугл-аккаунта. А 3 аккаунта - это 9-12 часов. И я почему-то сомневаюсь, что вы столько времени подряд будете сидеть у компа...
благодарю за видео, очень хотелось бы чтобы детально разобрали скрипт outpainting mk2, буду много благодарен
Спасибо! Это в планах, может его придется в связке с Invok Ai.
@@cg_dist invokeai немного требовательнее для карт с 4 гб, и на моём ноуте 1650ti не запустился.
Было бы отлично если сумеете разобрать SD без invokeai, а если и с ней, то методы запуска на слабых видеокартах. Там были разные команды как "max split size" итп.
Привет, спасибо за гайд, очень полезен! А какие настройки использовать для исправления кривых рук? Или эти же самые для лица подойдут? Так же хотел бы узнать настройки чтобы раздеть/поменять одежду. Потому что у меня постоянно получается что совершенно иное тело неподходящее к голове.
Такая же фигня. С лицом получилось и ещё какой несложной анатомией всё +- ок, но что-то другое вообще отказывается адекватно делать
Спасибо) Рекомендовал бы дописать в название видео Inpaint. А то на ютубе искал именно это а он не показывал, а на это видео наткнулся случайно)
Приветствую! Можно вопрос? На 1:27 ты говоришь "подгрузить изображение в png info", но не видно что ты для этого нажимаешь. Не подскажешь как подгрузить? Или ты сохраняешь на комп и потом подгружаешь?
Приветствую, порекомендуете где скачать рабочую эту прогу благодарю заранее
лайк подписка крутой контент
можно писать не зеленые глаза, а Болотного цвета. тогда они естественнее выходят, как у людей. Если это не арт, такой вариант приемлемее. как по мне !,)
Хороший канал. Поддержка
Не пойму, в инпайнте выставляю Just resize - Inpaint masked - original - Only masked, и всё равно меняется всё изображение, а не только то что закрашено...😒
И по умолчанию в инпайнте отсутствует настройка "Mask source". Может в этом дело?
Автор, скинь пожалуйста свой стиль оформления меню ui, а то этот стандартный меня уже задрал.
В любом случае для это нужно использовать инпэинт модель, но естественно не оригинальную 1.5. Можно из того же протогена сделать инпэинт модель слиянием чекпоинтов: sd v1-5-inpaint \ НУЖНАЯ МОДЕЛЬ \ sd v1.5 , чек бокс выставить на Add difference и Multiplier на 100%, можно сохранить по желанию в float16 для экономии места (разница в результате с оригиналом по качеству всего около 1%), а вот по весу в 2 раза.
Эмм... Модель можно использовать любую, здесь больше про функционал A1111. Стоковая 1.5. выдает тоже неплохие варианты. И еще я понял - что ты шаришь за слияние моделей, но в этом видео об этом речи не идет вообще.))
@@cg_dist Просто инпейнт модель намного лучше работает с ползунком Denoising strength, так как в ней есть дополнительные слои для отделения заднего фона и передачи стиля с цветом картинки. Те же глаза исправляются во много раз качественней и быстрее. Для сравнения на стандартной нужно либо очень сильно понижать Denoising strength, либо очень аккуратно маскировать глаза. И все ровно частенько стандартная модель лепит отсебядину и лишь через попыток 20 делает что то вменяемое, а инпэйнтинго с первого раза все делает правильно. + Руки исправляет на ура
@@ivanshmelev161 Тема интересная, да. Но пока я пытаюсь больше за инструментарий поговорить. Модели и слияния как грибы растут, это прям отдельная тема для разговора. Кстати - если ты настолько погружен, может сможешь помочь? Почему маска не работает на 100% при скрипте SD upscale в inpaint?
Привет, подскажите, как получить такой стиль ST, а то у меня все на белом фоне, как то прям не очень
У меня просто темная тема браузера. Но на гитхабе есть приложение для настройки интерфейса. Можете здесь посмотреть - github.com/Nacurutu/Dark-Themes-SD-WebUI-Automatic1111
@@cg_dist спасибо огромное!
Хмм... Интересный интерфейс у Вашей программки.
У меня Stable Diffusion почему-то открывается в браузере (через запуск bat-файла), и имеет более всратый интерфейс.
Возможно у вас не обновляется automatic1111. Я сижу тоже через браузер, просто для записи разворачиваю страницу на весь экран.
@@cg_dist
Нет. У меня вообще, видимо, какая-то другая утилита. Интерфейс совершенно не похож. А в вверхнем левом углу написано "Stable Diffusion UI v2.4.24".
А! Я понял. У меня даже не Automatic1111. *:D* Тогда - ладно.
Подпишусь)
Используй eyeLora
Привет. Подскажи пожалуйста. Если пользоваться плагинами для фотошопа, которые работают с локальным сервером Stable diffusion, то подойдет версия от Automatic1111 или нужно чисто оригинал ставить?
Этих плагинов сейчас несколько в разработке. Большинство работает с Automatic 1111.
@@cg_dist конкретно интересует Flying Dog. А из бесплатных Stability, кажется так называется
@@stefan_es Про Flying Dog у них на сайте указан A1111, интересно пощупать что там у них за 55$.) А из наиболее юзабельных бесплатных сейчас - это Auto-Photoshop-StableDiffusion-Plugin, он тоже работает с A1111.
красивая девочка
Краткость сестра таланта
Risize конечно глаза рИзануло
незачем делать аж 1500 шагов на том семплере - максимум 30-40
Там всего 150.) Да, я видел пару видео, где говорят о 30-40 шагах. Но я за хардкор!) А если серьезно - единожды попробовав 150 слезть на низкие значения не получается. Все субъективно, но на мой взгляд результаты круче на высоких значениях.
@@cg_dist у меня 22-26, выше этих значений особой разницы нет, но зато время экономится.
@@neuro_hud В продакшене, экспериментах и дома для себя - да, имеет смысл. Плюс железо экономится. Но при записи на канал хочется повыжимать максимум. Тем более я прям вижу просадки пока записываю.
@@cg_dist дык, вроде слышал, что сам автор этого семплера признаёт, что выше 40 нет смысла крутить. Зря насилуешь видюху)
@@neuro_hud Я в группу скинул таблицу со сравнением разных Sempl steps. Разница просматривается даже между 100 и 150 (особенно в детализации фона). По поводу насиловать видюху согласен но на то она и создана.)) - t.me/DISTSD
У меня другой вопрос: как добиться некрасивых лиц. Попробуйте создать уродливую девушку и вы поймете, о чем я))
Тут вопрос, да.) Я думаю что для монстров и т.д. тоже модели будут отдельные..
И они уже есть кстати.) [LuisaP]Monster Maker например.
А где скачать эту версию SD?
Это Automatic1111. На github исходники, но почти все туторы по установке в ютубе про него.