Stable diffusion inPaint. Как добиться красивого лица и глаз?!

Поделиться
HTML-код
  • Опубликовано: 11 ноя 2024

Комментарии • 81

  • @irm_anime_irm
    @irm_anime_irm Год назад +10

    Очень полезная информация. Буду рад ещё подобным видео.

  • @nesskard88
    @nesskard88 Год назад +2

    Никакой лишней воды, все по делу и понятно, класс! Продолжайте в том же духе.

  • @Angel_Light
    @Angel_Light Год назад +3

    Спасибо за столь полезную информацию!

  • @nekonomicon8810
    @nekonomicon8810 Год назад +2

    Спасибо за видео. Все и правда работает.

  • @Петрович-ь9м
    @Петрович-ь9м Год назад +5

    Возможно не делать апскейл , а если выбрали в инпейнте область инпейнта - только маска - установить выше разрешение ширины\высоты (это не увеличит общий размер картинка, а область прорисовки инпейнта) в соотношении

  • @Джолубеб
    @Джолубеб 11 месяцев назад

    Спасибо, тут, главное, коротко о главном, ничего лишнего.

  • @exDemonius
    @exDemonius Год назад +2

    Спасибо за гайды. Очень хорошо всё объясняешь.

  • @ChaosM24
    @ChaosM24 Год назад +2

    Спасибо, очень понравилось! Главное понятно и доходчиво, не останавливайся на достигнутом!

  • @valyascherbinina6911
    @valyascherbinina6911 Год назад +2

    Спасибо, очень полезные видосы. Подробно рассказываешь и без воды. И формат таких коротких видео очень заходит. Буду ждать новых выпусков ))

  • @vensk-s
    @vensk-s Год назад +3

    Большое спасибо, очень полезно и познавательно!

  • @yagee
    @yagee Год назад +2

    Видео хорошее, однозначно в избранное. Автору спасибо!

  • @NicolasSaivery
    @NicolasSaivery Год назад

    Отличный канал. Спасибо за твои видео, очень сильно помогли.

  • @6e3_qpaHTa3uu
    @6e3_qpaHTa3uu Год назад

    ничего себе! спасибо большое, отлично

  • @creatorus
    @creatorus Год назад +2

    молодец, доходчиво и по делу... продолжай в том же духе!

  • @krio_gen
    @krio_gen Год назад +1

    Спасибо! очень доступное объяснения. Жаль мало видеороликов.

  • @BcexHaMex
    @BcexHaMex Год назад +2

    видел в каком то ролике про ИнвокАИ, тоже делали ресайз части изображения для добавления мелких деталей( в том случае оленей). спасибо за видео , инфа полезная

    • @cg_dist
      @cg_dist  Год назад

      ИнвокАИ - прикольная тема, никак не подберусь к ней..

    • @BcexHaMex
      @BcexHaMex Год назад

      @@cg_dist мне только оутпейнтинг понравился. по моим ощущениям работает медленней, жрет больше ресурса видео карты. наткнулся на плагин оутпейнтинг для а1111, очень похож на инвок. хочу установить потестить

    • @cg_dist
      @cg_dist  Год назад

      Ну по сути - это их основная фишка. Если а1111 не прикрутит к себе такую - по любому в пайплайнах будут что-то подобное юзать. Фотошоповский плагин кстати не пробовал?

    • @VitVit312
      @VitVit312 Год назад

      @@cg_dist Можно как вариант использовать "stablediffusion-infinity", по сути тот же инвок, он может не такой красивый как инвок, но работает точно так же по смыслу

    • @cg_dist
      @cg_dist  Год назад

      @@VitVit312 Да. И его надо посмотреть... Вроде нейронки должны облегчать жизнь, а такое ощущение - что встроенной человеческой оперативки на все не хватит.))

  • @EvgenySereda21
    @EvgenySereda21 Год назад +1

    Очень хочется видео по SD Upscaler по подробнее.
    Продолжайте, качественный контент у вас.

    • @cg_dist
      @cg_dist  Год назад

      Спасибо. Про SD upscaler Я говорил во втором видео на канале.

  • @sleepnow1179
    @sleepnow1179 Год назад +11

    Продолжай делать обучалки. У тебя лаконично и быстро все))

  • @makimakins4349
    @makimakins4349 Год назад +2

    спасибо)

  • @drugoj
    @drugoj Год назад +2

    Хм... Фишку с ресайзом интересна, надо будет попробовать.

  • @ivanmartyanov3256
    @ivanmartyanov3256 Год назад +4

    Темы для видео роликов которые были бы интересны : 1) как обучить эту нейронку automatic1111 (вкладка Train ). Какие могут быть ошибки. Ошибка cuda. что делать при малом объёме видеопамяти (GeForce 1060 3gb). 2) Видео карта для нейроилюстратора. Рекомендуемое железа. На чём сам работаю. 4) Embedding с примером, .. Где брать например исходные картинки для обучения (варианты, фото, 3D , игры). 5 ) Обучение Hapernetwork пример с фотографиями. Как нарисовать супермена со своим лицом или Железного человека. )) Подписался, годный контент. 👏

  • @cartes7606
    @cartes7606 Год назад +2

    Отличное видео, спасибо, правда. Единственное, чуть можно отодвинуть микрофон, тогда будет лучше ощущаться ваш голос :)

  • @ДенисКО-о8ш
    @ДенисКО-о8ш Год назад +2

    Жду ещё)))

  • @Димитеро
    @Димитеро Год назад

    Спасибо Вам! Было очень полезно. Так мало уроков на просторе интернета! Мне очень нужно подробней представлять/предсказывать себе результат, потому что видеокарта GT 1030 позволяет запуститься нейросети только в максимально экономном режиме(в ином случае торч и куда ругаются), а при генерации максимум могу себе позволить 4 изображения 512х512 и одно 512х768. И это всё при 20 шагах.

    • @cg_dist
      @cg_dist  Год назад

      Спасибо. Может вам попробовать коллаб версию?

    • @Димитеро
      @Димитеро Год назад

      @@cg_dist Коллаб об гугла я уже истратил) Заходить с другого, потом опять с другого аккаунта что-то не хочу. А есть бесплатные коллабы?)

    • @cg_dist
      @cg_dist  Год назад

      Я про такие не знаю.) Сейчас активно говорят про нейронку Blue Willow как бесплатную альтернативу MidJourney, может такой вариант поможет. Я понимаю - что SD вариативнее, но вдруг?

    • @timkoplus
      @timkoplus Год назад

      @@Димитеро вы могли "истратить" бесплатные ежедневные 2-4 часа, в какой-то день. Ну зайдите в другой день, если что-то мешает завести 2-3 гугл-аккаунта. А 3 аккаунта - это 9-12 часов. И я почему-то сомневаюсь, что вы столько времени подряд будете сидеть у компа...

  • @axibedthunder2920
    @axibedthunder2920 Год назад +2

    благодарю за видео, очень хотелось бы чтобы детально разобрали скрипт outpainting mk2, буду много благодарен

    • @cg_dist
      @cg_dist  Год назад

      Спасибо! Это в планах, может его придется в связке с Invok Ai.

    • @axibedthunder2920
      @axibedthunder2920 Год назад

      @@cg_dist invokeai немного требовательнее для карт с 4 гб, и на моём ноуте 1650ti не запустился.
      Было бы отлично если сумеете разобрать SD без invokeai, а если и с ней, то методы запуска на слабых видеокартах. Там были разные команды как "max split size" итп.

  • @Romazeo
    @Romazeo Год назад +3

    Привет, спасибо за гайд, очень полезен! А какие настройки использовать для исправления кривых рук? Или эти же самые для лица подойдут? Так же хотел бы узнать настройки чтобы раздеть/поменять одежду. Потому что у меня постоянно получается что совершенно иное тело неподходящее к голове.

    • @shvedochko
      @shvedochko 10 месяцев назад

      Такая же фигня. С лицом получилось и ещё какой несложной анатомией всё +- ок, но что-то другое вообще отказывается адекватно делать

  • @FlowerPower3000
    @FlowerPower3000 Год назад +1

    Спасибо) Рекомендовал бы дописать в название видео Inpaint. А то на ютубе искал именно это а он не показывал, а на это видео наткнулся случайно)

  • @Свежий-ъ5в
    @Свежий-ъ5в Год назад

    Приветствую! Можно вопрос? На 1:27 ты говоришь "подгрузить изображение в png info", но не видно что ты для этого нажимаешь. Не подскажешь как подгрузить? Или ты сохраняешь на комп и потом подгружаешь?

  • @lift-y7w
    @lift-y7w Год назад

    Приветствую, порекомендуете где скачать рабочую эту прогу благодарю заранее

  • @rrbb
    @rrbb Год назад +1

    лайк подписка крутой контент

  • @МарияФотосервис

    можно писать не зеленые глаза, а Болотного цвета. тогда они естественнее выходят, как у людей. Если это не арт, такой вариант приемлемее. как по мне !,)

  • @Mark_808
    @Mark_808 Год назад +1

    Хороший канал. Поддержка

  • @Сильвер-щ9ч
    @Сильвер-щ9ч Год назад

    Не пойму, в инпайнте выставляю Just resize - Inpaint masked - original - Only masked, и всё равно меняется всё изображение, а не только то что закрашено...😒
    И по умолчанию в инпайнте отсутствует настройка "Mask source". Может в этом дело?

  • @3000AlexMan
    @3000AlexMan Год назад

    Автор, скинь пожалуйста свой стиль оформления меню ui, а то этот стандартный меня уже задрал.

  • @ivanshmelev161
    @ivanshmelev161 Год назад

    В любом случае для это нужно использовать инпэинт модель, но естественно не оригинальную 1.5. Можно из того же протогена сделать инпэинт модель слиянием чекпоинтов: sd v1-5-inpaint \ НУЖНАЯ МОДЕЛЬ \ sd v1.5 , чек бокс выставить на Add difference и Multiplier на 100%, можно сохранить по желанию в float16 для экономии места (разница в результате с оригиналом по качеству всего около 1%), а вот по весу в 2 раза.

    • @cg_dist
      @cg_dist  Год назад

      Эмм... Модель можно использовать любую, здесь больше про функционал A1111. Стоковая 1.5. выдает тоже неплохие варианты. И еще я понял - что ты шаришь за слияние моделей, но в этом видео об этом речи не идет вообще.))

    • @ivanshmelev161
      @ivanshmelev161 Год назад +1

      @@cg_dist Просто инпейнт модель намного лучше работает с ползунком Denoising strength, так как в ней есть дополнительные слои для отделения заднего фона и передачи стиля с цветом картинки. Те же глаза исправляются во много раз качественней и быстрее. Для сравнения на стандартной нужно либо очень сильно понижать Denoising strength, либо очень аккуратно маскировать глаза. И все ровно частенько стандартная модель лепит отсебядину и лишь через попыток 20 делает что то вменяемое, а инпэйнтинго с первого раза все делает правильно. + Руки исправляет на ура

    • @cg_dist
      @cg_dist  Год назад +1

      @@ivanshmelev161 Тема интересная, да. Но пока я пытаюсь больше за инструментарий поговорить. Модели и слияния как грибы растут, это прям отдельная тема для разговора. Кстати - если ты настолько погружен, может сможешь помочь? Почему маска не работает на 100% при скрипте SD upscale в inpaint?

  • @pavelgorokhov1872
    @pavelgorokhov1872 Год назад

    Привет, подскажите, как получить такой стиль ST, а то у меня все на белом фоне, как то прям не очень

    • @cg_dist
      @cg_dist  Год назад +1

      У меня просто темная тема браузера. Но на гитхабе есть приложение для настройки интерфейса. Можете здесь посмотреть - github.com/Nacurutu/Dark-Themes-SD-WebUI-Automatic1111

    • @pavelgorokhov1872
      @pavelgorokhov1872 Год назад +1

      @@cg_dist спасибо огромное!

  • @evaderikmammon6344
    @evaderikmammon6344 Год назад

    Хмм... Интересный интерфейс у Вашей программки.
    У меня Stable Diffusion почему-то открывается в браузере (через запуск bat-файла), и имеет более всратый интерфейс.

    • @cg_dist
      @cg_dist  Год назад

      Возможно у вас не обновляется automatic1111. Я сижу тоже через браузер, просто для записи разворачиваю страницу на весь экран.

    • @evaderikmammon6344
      @evaderikmammon6344 Год назад

      @@cg_dist
      Нет. У меня вообще, видимо, какая-то другая утилита. Интерфейс совершенно не похож. А в вверхнем левом углу написано "Stable Diffusion UI v2.4.24".
      А! Я понял. У меня даже не Automatic1111. *:D* Тогда - ладно.

  • @ARTT0M
    @ARTT0M Год назад +1

    Подпишусь)

  • @lalayblog
    @lalayblog Год назад

    Используй eyeLora

  • @stefan_es
    @stefan_es Год назад

    Привет. Подскажи пожалуйста. Если пользоваться плагинами для фотошопа, которые работают с локальным сервером Stable diffusion, то подойдет версия от Automatic1111 или нужно чисто оригинал ставить?

    • @cg_dist
      @cg_dist  Год назад

      Этих плагинов сейчас несколько в разработке. Большинство работает с Automatic 1111.

    • @stefan_es
      @stefan_es Год назад

      @@cg_dist конкретно интересует Flying Dog. А из бесплатных Stability, кажется так называется

    • @cg_dist
      @cg_dist  Год назад

      @@stefan_es Про Flying Dog у них на сайте указан A1111, интересно пощупать что там у них за 55$.) А из наиболее юзабельных бесплатных сейчас - это Auto-Photoshop-StableDiffusion-Plugin, он тоже работает с A1111.

  • @zhanimusaev5752
    @zhanimusaev5752 Год назад

    красивая девочка

  • @bdud_
    @bdud_ Год назад +1

    Краткость сестра таланта

  • @iqubik
    @iqubik Год назад

    Risize конечно глаза рИзануло

  • @neuro_hud
    @neuro_hud Год назад +1

    незачем делать аж 1500 шагов на том семплере - максимум 30-40

    • @cg_dist
      @cg_dist  Год назад

      Там всего 150.) Да, я видел пару видео, где говорят о 30-40 шагах. Но я за хардкор!) А если серьезно - единожды попробовав 150 слезть на низкие значения не получается. Все субъективно, но на мой взгляд результаты круче на высоких значениях.

    • @neuro_hud
      @neuro_hud Год назад +1

      @@cg_dist у меня 22-26, выше этих значений особой разницы нет, но зато время экономится.

    • @cg_dist
      @cg_dist  Год назад

      @@neuro_hud В продакшене, экспериментах и дома для себя - да, имеет смысл. Плюс железо экономится. Но при записи на канал хочется повыжимать максимум. Тем более я прям вижу просадки пока записываю.

    • @neuro_hud
      @neuro_hud Год назад +1

      @@cg_dist дык, вроде слышал, что сам автор этого семплера признаёт, что выше 40 нет смысла крутить. Зря насилуешь видюху)

    • @cg_dist
      @cg_dist  Год назад +2

      @@neuro_hud Я в группу скинул таблицу со сравнением разных Sempl steps. Разница просматривается даже между 100 и 150 (особенно в детализации фона). По поводу насиловать видюху согласен но на то она и создана.)) - t.me/DISTSD

  • @johngreek8239
    @johngreek8239 Год назад

    У меня другой вопрос: как добиться некрасивых лиц. Попробуйте создать уродливую девушку и вы поймете, о чем я))

    • @cg_dist
      @cg_dist  Год назад

      Тут вопрос, да.) Я думаю что для монстров и т.д. тоже модели будут отдельные..

    • @cg_dist
      @cg_dist  Год назад +1

      И они уже есть кстати.) [LuisaP]Monster Maker например.

  • @Keiichee
    @Keiichee Год назад

    А где скачать эту версию SD?

    • @cg_dist
      @cg_dist  Год назад +1

      Это Automatic1111. На github исходники, но почти все туторы по установке в ютубе про него.