Stable Diffusion - Embedding

Поделиться
HTML-код
  • Опубликовано: 2 дек 2024

Комментарии • 275

  • @tsentsura9279
    @tsentsura9279 Год назад +55

    Христ, спасибо за работу! Вы первый встреченный на просторах Ютуба человек, который не просто показывает куда тыкать, а поясняет ЗАЧЕМ, и как это работает изнутри. Мне, как человеку, слабо дружащим с инструментами разработки, но желающим понять что и как работает, очень помогла информация из ваших видео. Поясняйте и дальше, очень ждем

    • @XpucT
      @XpucT  Год назад +13

      Поэтому и снимаю. Спасибо за тёплые слова 👏

  • @Neimar-s4b
    @Neimar-s4b 9 месяцев назад +2

    Вы - великолепны не только как профессионал, но и как крутейший педагог. Чувствую себя подобием SD при его создании - встроенная система рухнула, какие то отрывочные знания улетели в блендер, где все перемешивается. Сама же личность тихо молится в углу об избежании окончательного распада и надеется, что позже, по мере изучения материала, создастся что то новое, логично упорядоченное. Но это пока на уровне надежды. Понимаю, что ничего не знаю, не понимаю, но очень стараюсь. Поглядим однако что далее у нас...

  • @gdanvolski2818
    @gdanvolski2818 Год назад +6

    Хачатур как всегда лучше всех вникает в суть вопроса. Лайки, лайки, лайки мужики!

  • @MegaBigBright
    @MegaBigBright Год назад +26

    Блин какой ты крутой чувак ) Спасибо тебе большое ) Лучше чем все англоязычные туториалы по СД, что я видел.

  • @Oleksandr-Nikolaev
    @Oleksandr-Nikolaev Год назад +16

    Больше, больше роликов про Stable Diffusion, главное не сбавлять темп.
    Спасибо тебе Хачатур за проделанную работа, просмотр твоих роликов очень экономит время.

    • @eluiden
      @eluiden Год назад

      +++, лучший на данный момент контент по SD на русском языке. Я очень рад, что наткнулся на канал Хачатура)

    • @Oleksandr-Nikolaev
      @Oleksandr-Nikolaev Год назад +1

      @@eluiden не только по SD. Здесь есть уникальный контент.
      Раньше когда ролики выходили раз в полгода, это было прямо эпохальное событие, так как несло очень, очень практичное значение.
      Я даже не думал что Хачатур подсядет на нейронки, лично для меня это было приятным сюрпризом.

  • @scraymi
    @scraymi Год назад +9

    Привет, я не успеваю "прожевать" предыдущий ролик, а тут еще вкусняшка =)

  • @muzzlex3610
    @muzzlex3610 Год назад +2

    ну наконец то, появился человек, который подробно объясняет тренировку текстовой инверсии 🥳

  • @AlexBond_007
    @AlexBond_007 Год назад +1

    Все проверил, все работает! Стиль прекрасно передает. Делал по другим гайдам ничего не получалось, потому что мало токенов давал или же их не указывал, и Learning rate не правильный ставил. Убил часа 4 на генерации и все было впустую, а тут 10 минут и готовый результат!!! Спасибо за видео!

    • @XpucT
      @XpucT  Год назад

      Спасибо, что поделился 🙏

  • @anton-pavlov
    @anton-pavlov Год назад +4

    Как всегда, отличное видео с ворохом объяснений!) Спасибо за полезную информацию!

  • @YuSSol.3d
    @YuSSol.3d Год назад +3

    Христ - добрейшей души человек! Столько инфы, успевай только переваривать. И все это за лайк и колокольчик) Точно, бессеребреник какой-то. Некоторые только за промт стараются содрать от 20к и выше😮

  • @PhantoMNN
    @PhantoMNN Год назад +5

    Приветствую! Которую ночь не сплю из-за этих видосов, пока все не попробую никак не могу оторваться ))
    Я тут накидал несколько вопросов не по этому видео, а общих. Возможно, что-то пригодится для будущих роликов и наверняка это будет интересно и другим.
    1. Тренируется ли нейросеть на локальном ПК, когда ей пользуешься или ее навыки остаются на том же уровне независимо от кол-ва циклов работы?
    2. Совершенствуется ли Hypernetwork при её многократном использовании? Субъективно, результаты с каждом разом улучшаются...
    3. Как именно работает Restore Face и в каких случаях имеет смысл ее включать?
    4. Принципиальная разница между оболочками Invoke AI и Automatic111, что лучше?
    5. Насколько и как влияет выбранный размер картинки при генерации изображений? Что делать, если необходимо максимально высокое качество (выше 2000 px), а все модели почти тренятся на 512 px?
    6. Если трейн прогонял на одной модели (к примеру, Dreamlikediffusion), а потом захотел использовать Hypernetwork на другой, например Protogen x5.8 Rebuilt (с учетом той же версии SD в базе обеих моделей) можно так делать или надо тренировать под каждую модель отдельно и заново?
    и очередное огромное спасибо за то, что ты делаешь, пока во всем рунете более подробной, четкой и максимально полезной информации по SD я не встречал!

    • @XpucT
      @XpucT  Год назад +4

      1. На самом деле не важно, на каком ПК была тренировка. Результаты всегда будут отличаться в пределах погрешности.
      2. Увы, но нет. Однако, за 1 сеанс он делает всё лучше и лучше. Это да, это Вам не кажется =)
      3. Только для лиц крупным планом. В остальном помогает VAE. Если не помогает, включаем Restore face.
      4. Automatic1111 лучше потому что там больше. Как бы InvokeAI ни старалась быть дружелюбной, всё равно отстаёт по возможностям.
      5. highrex увы не поможет, только upscale. Подробнее про него в видео расскажу.
      6. Результат несомненно лучше будет, если Hypernetwork использовать именно на той модели, на которой она тренировалась.

    • @HarryPotterObamaSonic13
      @HarryPotterObamaSonic13 Год назад

      У меня гиперсетки на левых моделях не работают. Только на той, на которой учил.

  • @РоманСимонов-в2о
    @РоманСимонов-в2о Год назад +2

    Мужик, это МАГИЯ! Ты мой кумир. Буду лайкать все твои видео и вообще, я хочу от тебя ребенка!!! ))

  • @MrCoffeemill
    @MrCoffeemill Год назад +2

    Спасибо, круто! два вопросика возникли:
    1е - я правильно понял, что
    Эмбейдинг это в одно ключевое слово вписывается группа слов, но еще и с примером что они должны означать конкретно, а не из всего что знает сеть по этим ключевикам, но не больше чем сеть знает уже. т.е. обучить стилю можно, но только тому что уже в базе.
    Гиперсеть, это типа фильтра в инстограм, но в место цвета - признаки человека, и чем лучше объяснить/обучить, тем более похож будет результат, но в самой сети данного стиля/персонажа нет, она результат окрашивает в признаки даже которых нет в сети.
    Дримбут вписывает тренеруемые данные уже в сам ckpt, меняя весь объем данных с разной степенью воздействия и уже генерит в выдачу с учетом новых данных добавленных к ее "знаниям"?
    2й вопрос у меня вытек =) из первого, это как можно совмещать разные стили? Допустив можно слить 3-4 ckpt, данные будут не добавлены, а именно смешаны, что повлияет на результат, но можно будет генерить .. ну .. новый актер 2023 года обнимает новую актрису 2023 года которых не было известно ранее. Можно "до обучить" в ckpt несколько новых "концептов" (как они названы в дримбут), и выдавать смесь этих данных, тех же актеров или стилей новых в дизайне. А гиперсети? К ckpt добавить 1н слой гиперсети, а два? Или двух людей, или их смесь, или среднее из двух стилей которых нет в ckpt? В ckpt можно смешивать (:1.2),(:0.8),(:0.5), а сетками есть возможность?
    Спасибо за видео!

    • @XpucT
      @XpucT  Год назад +3

      1. Правильно понял. И следующий абзац и Dreambooth, всё верно.
      2. Для этого есть Checkpoint merger, про него будет отдельно 👍

  • @escesc5315
    @escesc5315 10 месяцев назад +1

    Спасибо большое за труд!

  • @deodamustv6649
    @deodamustv6649 Год назад +2

    Спасибо, Хачатур!

  • @sleepeverydayitsgreattoliv4214
    @sleepeverydayitsgreattoliv4214 11 месяцев назад +1

    Нужно больше технической информации 🎉😎🙏

  • @smartbynick1796
    @smartbynick1796 Год назад +2

    Видео уходят в сторону завлечения зрителя с разными уже казалось стандартными "блогерскими уловками" в плане монтажа и подачи. И это круто.. Как офигенно обыграл прыжок кота под музыку, это было так просто и так круто. А видео, как всегда понятным языком) спасибо!

  • @АлександрСоколов-ъ1ц

    ЧУМОВОЕ видео! Спасибо большое! Наконец-то, диск разгружу)

  • @sergant985
    @sergant985 Год назад

    Да, будь же здоров! Учи нас уму разуму в этой сложной среде.

  • @2si361
    @2si361 Год назад +2

    Вы работаете быстро, рассказываете увлеченно и интересно! Мне ооочень нравится. Огромный молодец!

  • @vepiangaming6660
    @vepiangaming6660 Год назад +2

    по поводу 75 токенов, писать можно и больше. Есть теория чанков, по которой 76 токен (1й во 2 чанке) будет иметь приоритет равный первому токену первого чанка.

  • @Cryunreal
    @Cryunreal Год назад +4

    21:40 - кот сделал прыг

  • @filatovweb
    @filatovweb Год назад +3

    Как всегда шикарно! Очень жду каждое ваше видео

  • @5hem
    @5hem Год назад +17

    В видео затронут был такой момент, что модели не понимают промты, если их не обучили им. Хотелось бы узнать, есть ли способ выпотрошить из файла модели информацию, какие промты она понимает

    • @WillFalcon
      @WillFalcon Год назад +1

      Прикинь, сколько текста влезает в 4-5 гигов информации, а именно столько средний эндпойнт вмещает. Проще методом тыка.

  • @alexrengised6072
    @alexrengised6072 Год назад +1

    спасибо за проделанную работу!

  • @НормальныйТип-д1в
    @НормальныйТип-д1в Год назад +6

    Хоть я половину слов и не понимаю, но слушать интересно) На днях 2 часа искал Фотошоп крякнутый на 32 бита. Смотрю подписанный Христ, все работает идеально)

    • @XpucT
      @XpucT  Год назад

      Ты можешь спросить, Я уточню в комментах любой аспект.

    • @НормальныйТип-д1в
      @НормальныйТип-д1в Год назад

      @@XpucT Я обязательно учту и как будут появляться вопросы буду спрашивать. Но я и так с каждым видио узнаю много нового. Заинтересовала тема с Гугл Колабом, буду разбираться.

  • @fakeaccount1180
    @fakeaccount1180 Год назад +7

    А возможно ли генерировать своего персонажа в разных позах и ситуациях?

  • @HarryPotterObamaSonic13
    @HarryPotterObamaSonic13 Год назад +2

    Спасибо огромное!

  • @leoniddzhabiev
    @leoniddzhabiev Год назад +2

    Хорошо!Ну прям очень хорошо

  • @D1MAKRAT
    @D1MAKRAT Год назад

    Спасибо большое, Хачатур!)
    55

  • @Igrom_Gamedev
    @Igrom_Gamedev Год назад +3

    Ждем еще видосы ) Кстати мне заходят по часу видосики, даже жалко людей, которые жалуются на то, что долго. Надо еще постараться поискать ,чтобы так информативно было.

    • @XpucT
      @XpucT  Год назад

      Согласен =)

    • @Igrom_Gamedev
      @Igrom_Gamedev Год назад +2

      я только после твоих гайдов начал понимать как с этими нейронками общаться. Надеюсь дойдут у тебя руки и до InvokeAI, по ней тоже кисло на русском )

  • @fishfugue
    @fishfugue Год назад +2

    Добрый день. Будет ли обзор InvokeAI?

    • @XpucT
      @XpucT  Год назад

      Приветствую 🖐
      Будет мини-отзыв.

  • @slavazemlyanik1189
    @slavazemlyanik1189 Год назад +2

    Спасибо!
    Побольше про тренировки, пожалуйста!

  • @whatevsimbulletproof
    @whatevsimbulletproof Год назад +1

    Офигенно. Пили ещё

  • @serpotapov
    @serpotapov Год назад +3

    Мощь!

  • @CAMKATIC
    @CAMKATIC Год назад +2

    спасибо тебе за такое познавательное видео, теперь я понял что этот ИИ это не просто генератор бесполезных картинок, ведь если разобраться то эта штука может расчитать все что угодно , только подставляй ей примеры учи и проси результат

  • @AntonBalazh
    @AntonBalazh Год назад +17

    Спасибо! Можно предложить тему к одному из след. видео? Как делать шаржи, карикатуры в том числе и на основе натренированных hypernetworks? Чтобы сохранялась узнаваемость черт даже в утрированном или мультяшном виде. Спсб.

    • @AntonBalazh
      @AntonBalazh Год назад +1

      От себя добавлю, что в X/Y plot в Hypernet str. играюсь настройками больше единицы (т.е. в пределах 1 - 1.4), это приближает к нужному эффекту, но на бОльших значениях появляются неприемлемые деформации. Отмечу, что в Settings - Hypernetworks Strength больше "1" выставить нельзя. Есть ли другие способы? Спсб.

  • @artistsergey
    @artistsergey Год назад +3

    Спасибо! (Знания: Ваших 4 просмотренных ролика) ВОПРОС: Мне нужно получить уникальный художественный стиль на примере конкретного художника. Он включает в себя как бы всё. Это комиксы. 1. На основе какой модели делать тренировку? Той, что Вы здесь порекомендовали? 2. Если это целый стиль и включает в себя не токмо лица, сколько нужно для такой дрессировки картинок и токенов, что бы описать весь мир этого художника? Ведь тема может быть ковбойская и космическая. И еще я не могу понять с размерами картинок. Как их получать большого разрешения, хотя бы 1200 пик. ? Если задавать такой размер, то получается в лучшем случае винегрет и бред обкуренного стафилококка. И как тренировать, сразу задавать такое разрешение? Или это не наши методы? Спасибо за разъяснение!

    • @XpucT
      @XpucT  Год назад +4

      Лучше делать тренировку на 1.5, да, потому что на её основе, как правило делаются другие модели. То есть Ваш Embedding будет с большей вероятностью совместим, если делать на 1.5. Если в художестве много элементов, то есть вообще смысл создать свою модель. Но это уже другая история. Для этого нужен Dreambooth, где от каждого изображения требуется подробное описание. Чтобы получать изображения на своих моделях в высоком разрешении, обучать нужно на высоком разрешении. Если на чужих, то просто Upscale. Никуда от этого не деться. Но сразу скажу, что оптимальнее всегда будет 512 x 512. Это разрешение выбрано неспроста. Именно на нём меньше всего встречаются неожиданные деформации.

    • @artistsergey
      @artistsergey Год назад +2

      @@XpucT Безразмерное спасибо! А вы можете направить меня ссылкой в сторону Dreambooth или можно ожидать видео по раскрытию темы? Еще раз спасибо!

  • @charlytutors
    @charlytutors Год назад +28

    Ну наконец-то! Очень ждал =) Потому что по сути, мне не интересно обучать на себе, а вот свои стили туда закинуть и сделать вариации - как раз самое то =) Большая благодарность за это видео!
    Вопрос - если пробовал Remix в Midjourney, как делать такое же в SD? =) Когда берем одну картинку, например железного человека, вторую картинку - кукурузы и оно смешивается и дает результат в виде нового концепта =)

    • @rawon504
      @rawon504 Год назад +3

      присоединяюсь к просьбе)

    • @kapitonchik
      @kapitonchik Год назад +3

      +1 было бы здорово понять как сделать такую историю в SD

    • @t0rango
      @t0rango Год назад

      "железного человека AND кукуруза" в промпте, не?

    • @charlytutors
      @charlytutors Год назад

      @@t0rango ну я ж не то имею ввиду... идея не в промте. а в смешивании картинок... промт дает не тот результат. Видимо вы не пробовали Midjourney фичу =)

    • @t0rango
      @t0rango Год назад +1

      @@charlytutors ясно. Да, фичу в MD не пробовал.

  • @user-mopVas74
    @user-mopVas74 Год назад +2

    Спасибо тебе большое .

  • @pawwithclaws2360
    @pawwithclaws2360 Год назад +1

    Здравствуйте, подскажите, пожалуйста, как через train сделать стиль рисования, к примеру, взять фото моего лица и в img2img перерисовать в стиль моего рисования, фото с моей отрисовкой могу скинуть

  • @stanislavniy8064
    @stanislavniy8064 Год назад +2

    Круть! Спасибо вам!

  • @muhitdin5590
    @muhitdin5590 Год назад

    Хачатур, недавно открыл твой канал, подача огонь🔥

  • @olgs788
    @olgs788 Год назад +3

    Спасибо 🥂 +1 000 000 подписчиков вам 💪

  • @van_k41
    @van_k41 Год назад +1

    Все таки щас соберусь и перепишу этот негатив промт
    Спасибо за видео! Лайк!

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Год назад +3

    Крутяк!
    Ну и как же hypernetwork вывести на главную страницу из настроек?)

  • @avr_stm_pro2955
    @avr_stm_pro2955 Год назад +4

    Как всегда заебок 👍

    • @XpucT
      @XpucT  Год назад +2

      Как всегда красавчик ☝
      Жду Твой заебок под каждым видео, уже традиционно =))

  • @areidj
    @areidj Год назад +2

    супер!от души! лайк есть! Вопрос почему при 512-512 у вас получаются все равно качественные изображения, а у меня не очень? Что я делаю не так?

    • @XpucT
      @XpucT  Год назад +2

      Всё от модели зависит и CFG Scale.
      Также не пропускайте видео. В одном из недавних рассказывал про VAE 👍

    • @areidj
      @areidj Год назад +1

      @@XpucT вроде все посмотрел на бусти, наверно пропустил, буду пересматривать ! Вы лучший вообще! Обнял крепко !

  • @Клоунеско
    @Клоунеско Год назад +2

    За биточки на фоне отдельные спасибы)

  • @yerysh
    @yerysh Год назад +1

    крутой чувак ) Спасибо тебе большое )

  • @WillFalcon
    @WillFalcon Год назад +4

    Бро, делай ,пожалуйста туторы FHD или HD (1920x1080) бо невыносимо без лупы этот синематик стайл смотреть на 16" ноутбука.

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Год назад +2

    Добавил символические ссылки из win10tweaker, теперь у меня 1 общая папка с моделями на 3 сборки Stable Diffusion. Теперь не надо плодить кучу копий моделей на ПК по 4гб. За эту програмулину спасибо)

    • @XpucT
      @XpucT  Год назад +2

      В следующем видео ещё один лайфхак покажу с символической ссылкой.

  • @Serhii_Hrechka
    @Serhii_Hrechka Год назад +1

    😭хр...во, что Вы только на Boosty, а Patreon под запретом, очень хотел подписку оформить, так как посмотрел, что там не просто годный контент, а о....ый🤩🤯

    • @XpucT
      @XpucT  Год назад

      Я не могу завести аккаунт на Patreon ┐('~`;)┌

    • @Serhii_Hrechka
      @Serhii_Hrechka Год назад

      @@XpucT я знаю 😢, а я не могу пользоваться такими сервисами как boosty 🤬

  • @nikocgi886
    @nikocgi886 Год назад +5

    Приветствую, очень благодарен за ваши видео по SD. Посмотрел Train, дополнение к нему, это видео и x/y plot. Появилось больше понимания. Хотелось бы узнать от вас нюансы по трейну на мультяшных и аниме моделях. Тренировал хайпер нетворк под задачу : есть лицо анимешное, нарисованное знакомым художником - хотел получать арты с этим лицом (понимаю что анимешные лица очень похожи но у этой есть свои особенности) в результате выдаёт не плохие результаты близкого шота лица с разных ракурсов если промпт простой и минимум уточнений даже особенности зубов передаёт( персонаж вампир). Но стоит ввести full body или промпты с позами и прочие промпты с костюмами окружением и тд. то начинает генерить лютую дичь времён первых нейронок))) Тренировал на Anything 3 по вашему видео, может быть к такой задаче нужен особенный подход ? Буду рад ответу, спасибо)))

  • @duckduckov4362
    @duckduckov4362 Год назад +1

    OH MY GOOOOOOOOOOD! 😆 невероятная круть. мы прям бахаем СТИЛЬ. Киберпанк, гта5, что угодно
    Я не понял, мы можем надёргать картинок из интернета в нужном стиле или нам нужны сгенерированные нейросетью изображения?
    Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki] уже яснее
    Для этого метода нужна видеокарта с 8гб+

  • @Jacob-ut4hc
    @Jacob-ut4hc Год назад +4

    Видео супер, конечно хотим еще! Было бы интересно узнать про мердж моделей, safetensors, pruned и как самому их создавать (обрезать чужие для экономии места)

  • @sector5577
    @sector5577 Год назад +1

    Ежже красавчег!

  • @vladfoton
    @vladfoton Год назад +2

    Очередной раз красавчик! Спасибо тебе

  • @wayperz
    @wayperz Год назад +13

    может сделаете рубрику , картинки от зрителей? которые вы сможете создать близко к оригиналу? будет занимательно посмотреть что и как вы делаете что бы добиться результата

  • @Dart213
    @Dart213 Год назад +1

    Что делать, если пишет
    "Training finished at 0 steps.
    Embedding saved to ... "?
    Прошу, помогите. Сделал всë, как в видео(((

  • @mikhail5402
    @mikhail5402 Год назад +1

    Здоров👋, спасибо, отличный видос, наконец избавлюсь от тонны моделей, заготовлю свои какие нужно по 70 кило и красота 🤝

  • @TovSpaskin
    @TovSpaskin Год назад +3

    А можно ли хохлому или гжель через embedding сделать? И, например, на одежду наносить потом?

  • @THORtik
    @THORtik Год назад +1

    А попробуйте ввести не блонд, а, например, "с белыми волосами", или "волосами белого цвета", или более подробной формулировкой).

  • @СергейСумишевский-ы8з

    Спасибо за видео! Но есть вопрос, подскажите пожалуйста:
    Делаю embending на модели 1-5. Ввожу все токены указанные в видео. Беру за референс картинки в стиле Samdoesart.
    Но по итогу получается так, что embendig работает и повторяет стиль исходя только из токенов. На картинки в Стиле Samdoesart из папки, на которую ссылался, вообще не похоже.
    Что мог сделать не так? Буду благодарен за ответ)

    • @AlexBond_007
      @AlexBond_007 Год назад +2

      Есть предположение что обучение ломают COMMANDLINE_ARGS --xformers или --no-half-vae в общем у меня было куча параметров и он вообще не обучался, а когда сделал на чистом запуске, то обучение заработало. Но это только предположение...

  • @michaelsoldatov2649
    @michaelsoldatov2649 Год назад +2

    Ну щё - лайк, подписка, комментарий для продвижения - пилите контент, укажаемый! Ну а если серьёзно, очень информативно, мифо-уничтожительно, по делу. Разве что негатива хотелось бы поменьше - тема новая и сложная, ажиотаж вокруг неё большой (в узких круга), не удивительно, что люди пока не понимают толком, что к чему. Результат говорит сам за себя, кому надо тот поймёт и сам сделает выводы.

    • @XpucT
      @XpucT  Год назад +2

      Негатива итак мало. Проверьте загуглить те вещи, о которых Я рассказываю.
      Сразу станет понятно 👍

  • @WillFalcon
    @WillFalcon Год назад +1

    И, кстати EyeBalls - это два токена. Можно поставить расширение (extension) которое покажет сколько токенов на каждом слове.

    • @aleksandrshchepkin
      @aleksandrshchepkin Год назад

      А как это расширение называется?

    • @WillFalcon
      @WillFalcon Год назад +2

      @@aleksandrshchepkin embedding-inspector, показывет количество токенов на запросе, вес, айдишник и тп

    • @WillFalcon
      @WillFalcon Год назад +2

      @@aleksandrshchepkin ещё есть расширение tokenizer , более компактно, раскрашивает промпт поделив на токены

  • @yiu_ai
    @yiu_ai Год назад +3

    Низкий поклон за видео!
    Возникла пара вопросов: можно ли использовать несколько embedding одновременно? А также хранить файлы embedding в одной папке, чтобы быстро переключаться между стилями? Или каждый раз вынимать из папки, где вы правой кнопкой мыши перетаскивали файл?
    Кстати, а можно ли применять embedding в img2img? Загрузил я, к примеру, фотку 512×768 пикселей и применил к ней embedding.
    Спасибо за ваши ролики😋

    • @XpucT
      @XpucT  Год назад

      Можно в папке Embeddings хранить сколько угодно файлов.pt
      Если в prompt используется имя какого-либо, то его Embedding будет использован при генерации.
      Вынимать и класть Embedding можно в реальном времени, не перезапуская сервер.
      ОДНАКО, если файл.pt именно пересоздать внутри Stable Diffusion, нажимая на Create Embedding, то Stable Diffusion не увидит подмены. Именно по этой причине говорю, что нужно вынимать файл, нажимать Generate, потом снова класть обратно файл.
      Если файлы готовые, рабочие, трогать их не нужно, валяются себе и прекрасно.
      Если в папку Embedding положить Embedding, например, _cinematic.pt_ и прописать в prompt это:
      _a car, cinematic effect, high quality_
      То генерация будет заменять слово cinematic на то, что сидит в Embedding.
      Если файл _cinematic.pt_ убрать в реальном времени из папки и снова воспроизвести тот же prompt, то он будет учитывать строго сам prompt и это можно проверить, смотря в самый низ отчёта. То есть так мы точно увидим, что система работает, как и написано в документации в реальном времени. Он как бы "отслеживает" наличие файла. ОДНАКО, повторюсь, если мы перебьём файл _cinematic.pt_ создав новый на вкладке Train, то Stable Diffusion будет не просто считать, что не было подмены, он ещё и юзать будет то, что у него в памяти (то, что было до замены новым).

  • @evgeniiatarasova9898
    @evgeniiatarasova9898 Год назад +1

    Спасибо за отличное объяснение! Подписка, лайк, звоночек! Жаль лайк только 1 ставить можно(

  • @Dmitry_Max
    @Dmitry_Max Год назад +1

    Благодарю

  • @vexrek3037
    @vexrek3037 Год назад +1

    Спасибо!!!

  • @Повелитель-п9н
    @Повелитель-п9н Год назад +1

    Спасибо

  • @silentage6310
    @silentage6310 Год назад +2

    расскажи потом как установить SD 2.x. пробовал скачать и включить, но пишет что нужен какой то config.yml

  • @vasogagnidze3325
    @vasogagnidze3325 Год назад +1

    фига еще один видос, лайк

  • @No.057
    @No.057 Год назад +2

    в каком файле ты прописал гиперсеть возле чекпоинтов?

  • @michaeldenisov4815
    @michaeldenisov4815 Год назад +3

    12:44
    По токенайзеру у тебя 25 токенов, а не 23, rutkowski и eyeballs на два токена разбиваются
    Если не изучал - посмотри расширения Tokenizer и Embedding Inspector

    • @michaeldenisov4815
      @michaeldenisov4815 Год назад +1

      зы: за видос спасибо) как всегда - уникальный контент)

    • @XpucT
      @XpucT  Год назад +1

      Да, не обращал внимания, что он занимает 2 токена 👍

  • @Oritey
    @Oritey Год назад +1

    Лучший!

  • @ИванГ-у9ь
    @ИванГ-у9ь Год назад +2

    Пожалуйста прокомментируйте: когда учишь селфи модель на своем стиле, то при добавлении разных весов в одну модель в какой то момент они начинаются смешиваться( Если добавлять в одни и те же веса много объектов, начиная с 2ого, иногда 3его объекта они начинаются смешиваться

  • @СветланаЗавьялова-ы8н

    У меня какая то ерунда получается на эмбендинге, может потому что видео карта 3000 серии или я хочу бОльшего результата от инструмента( но в результате картинки получаются какие то "психоделические" не смотря на то, что картинки примеры совсем другого характера и стиля. Очень жду видео по созданию модели, мне как художнику это важно и интересно!
    Спасибо за крутые обзоры!

  • @krivdada
    @krivdada Год назад +2

    Большое спасибо за все ролики, наиболее внятный материал по SD! Хочется еще поднять одну тему: SD умеет рисовать аниме, но оно не всегда нужно. Хочется натренировать свою модель с четким лайном и своей спецификой светотени, но при обучении стилю узнаваемости не получается, он передает чисто цвета и общие объекты. Может у таких иллюстраций есть другие методы обучения?

    • @XpucT
      @XpucT  Год назад

      Посмотрите видео LoRA:
      ruclips.net/video/A15M4cbUM5k/видео.html

  • @Vincentocavroni
    @Vincentocavroni Год назад +2

    Хачатур здравствуй, можно ли перерисовать на свой стиль фото человека, сохранив узнаваемость оригинала, без обучения и тренировок? (И без sms и регистрации)

    • @XpucT
      @XpucT  Год назад +1

      Можно. Это отдельное видео будет.

  • @drugoj
    @drugoj Год назад +2

    Друзья, вопрос немного не в тему видео, но почему, при изменении размера вывода картинки с 512х512 на какой то другой, нейросеть начинает рисовать не одного персонажа а двух трех, а то и сразу шесть? ПРичем еще недавно вроде не было такой проблемы.

    • @XpucT
      @XpucT  Год назад +1

      Попробуй удалить кэш, как показывалось в предыдущих видео.

    • @drugoj
      @drugoj Год назад

      @@XpucT я видимо пропустил этот момент, надо пересмотреть еще раз все. Спасибо.

  • @МихаилЛебедев-г7с
    @МихаилЛебедев-г7с Год назад +1

    Спасибо за видос ! Очень нужная информация!!

  • @joker__joker_why_so_seriou2520
    @joker__joker_why_so_seriou2520 Год назад +1

    🔥🔥🔥🔥🔥🔥🔥

  • @legendaclub
    @legendaclub Год назад +2

    Спасибо большое!🔥🔥🔥

  • @МихаилЛебедев-г7с
    @МихаилЛебедев-г7с Год назад +6

    Чем подробнее видео тем лучше ) мой интеллект гуманитария
    лучше воспринимает 😊

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Год назад +2

    Самый главный вопрос: как у тебя так быстро загружается модель с расширением safetensor. У меня минут по 5 грузится, а у тебя 3 секунды. ckpt где-то секунд 30 у меня.
    Это потому что у меня не SSD?

    • @XpucT
      @XpucT  Год назад +1

      Да. У Меня SSD, M.2 NVME.

  • @jmksm
    @jmksm Год назад +3

    Не совсем понимаю использования этой проги простоым обывателем. Однако подход Хачатура к какой-либо теме, впечатляет. Будь-то уроки по C#, либо эта прога. Респект за такую подачу.

  • @MsTrash666
    @MsTrash666 Год назад

    2e-5:800, 8e-6:1600, 5e-6

  • @АлександрСергеевич-с4х
    @АлександрСергеевич-с4х 9 месяцев назад +1

    Thx!

  • @borgeborg
    @borgeborg Год назад +3

    Крутой автор! Прям хочется лично пожать руку за такой труд!) Вопрос: как можно осуществить такой сценарий? "есть 10 разных промптов, на их основе сделать 10 разных картинок каждого описания и всё это поставить в очередь, а самому пойти часик погулять"

    • @XpucT
      @XpucT  Год назад +1

      Есть отличный ответ на это:
      ruclips.net/video/fTitCZUdRSI/видео.html

    • @silentage6310
      @silentage6310 Год назад +1

      я так закидываю несколько сотен запросов и оставляю на сутки :)

  • @RaduFilmStudio
    @RaduFilmStudio Год назад

    А есть ли возможность в последствии доучивать, к примеру вов торой раз на собачках, а после третий на кошечках и так далее?

  • @Nonamus0
    @Nonamus0 Год назад +6

    Ура, новое видео по SD, приятный сюрприз) Про мировое сообщество анимешников посмеялся 😂
    Очень классно узнавать что-то новое, особенно когда так хорошо всё объясняют, надеюсь дождусь как нибудь и темы Dreambooth. Спасибо за видео! (И да, я не знаю кому надо покороче, я бы хоть 4 часа смотрел подобные видео хаха)

  • @ДенисКО-о8ш
    @ДенисКО-о8ш Год назад +1

    Я тут как тут))))

  • @enotbert
    @enotbert Год назад

    Привет, спасибо за видосы. Очень емко и доходчиво.
    Вопрос про эмбеддинг. Есть задача, заэмбеддидь конкретный стиль изображений, что бы совсем любой промт в итоге выдавался в этом стиле.
    Сейчас может быть будет несколько сумбурно, прошу понять.
    Я хочу что бы СД генерировал чистый flat vector без градиентов, с хорошими осознанными формами и в разных под-стилях внутри этого стиля.
    Моя проблема в том, что "внутри" flat vector есть куча очень сильно отличающихся подстилей. А главное, что любая иллюстрация это очень сильная стилизация привычных объектов реального мира. Условно говоря холодильник не прямоугольной формы, а трапеция и т.д. Когда я собрал набор картинок который бы включал в себя хотя бы 1 изображение в интересующих меня стилях, получилось 24 картинки. Я затрейнил эмбеддинг, но получилась чушь. Если не задавать промт точно описывающи одну из картинок, результат мягко говоря плохой.
    В связи с этим вопрос, имеет ли смысл пытаться упихать все что мне нужно в один эмбеддинг или разумнее отступиться и создать под каждую уникальную реализацию стиля свой эмбеддинг?

  • @МаксимЛукьянов-э5щ

    Будет ли у нас выпуск для новой версии stable 2.4? Я установил её, а смотрю меню отличается и в настройках не вижу этих параметров, что у тебя на предыдущих и данном видео...

    • @XpucT
      @XpucT  Год назад +1

      Открой второе видео в плейлисте.

  • @interemx
    @interemx Год назад +2

    лайк. жду обзор на раздел deforum

  • @ForsakenSandpaper
    @ForsakenSandpaper Год назад

    А что если я хочу просто стиль волос потренировать, это точно также работает?

  • @georgiy0077
    @georgiy0077 Год назад

    👍Как всегда отличный видос.Но есть 1 вопрос, когда обычные смертные смогут скачать вашу сборку со всеми настройками,норм цветами интерфейса и дополнениями?

  • @-kuler882
    @-kuler882 Год назад +1

    А как сделать свою модель? Вот именно ckpt?

    • @XpucT
      @XpucT  Год назад +5

      Dreambooth. Это отдельная тема. Если будет многим интересно, сделаю обзор.

  • @mikhailkazakou1971
    @mikhailkazakou1971 Год назад

    Вы говорите что Embedding не желательно не приметь к людям, но на civitai много примеров применения к конкретным людям.

    • @XpucT
      @XpucT  Год назад

      Смотря что примерять.