Stable Diffusion - Embedding

Поделиться
HTML-код
  • Опубликовано: 8 янв 2023
  • Telegram ➜ t.me/win10tweaker
    Boosty (эксклюзив) ➜ boosty.to/xpuct
    🔥 Deliberate: huggingface.co/XpucT/Delibera...
    🔥 Reliberate: huggingface.co/XpucT/Relibera...
    🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
    Плейлист Stable Diffusion: • Stable Diffusion
    #StableDiffusion #Embedding #Hypernetwork
  • НаукаНаука

Комментарии • 268

  • @tsentsura9279
    @tsentsura9279 Год назад +53

    Христ, спасибо за работу! Вы первый встреченный на просторах Ютуба человек, который не просто показывает куда тыкать, а поясняет ЗАЧЕМ, и как это работает изнутри. Мне, как человеку, слабо дружащим с инструментами разработки, но желающим понять что и как работает, очень помогла информация из ваших видео. Поясняйте и дальше, очень ждем

    • @XpucT
      @XpucT  Год назад +12

      Поэтому и снимаю. Спасибо за тёплые слова 👏

  • @gdanvolski2818
    @gdanvolski2818 Год назад +6

    Хачатур как всегда лучше всех вникает в суть вопроса. Лайки, лайки, лайки мужики!

  • @Aleksandr-Nikolaev
    @Aleksandr-Nikolaev Год назад +16

    Больше, больше роликов про Stable Diffusion, главное не сбавлять темп.
    Спасибо тебе Хачатур за проделанную работа, просмотр твоих роликов очень экономит время.

    • @aearone
      @aearone Год назад

      +++, лучший на данный момент контент по SD на русском языке. Я очень рад, что наткнулся на канал Хачатура)

    • @Aleksandr-Nikolaev
      @Aleksandr-Nikolaev Год назад +1

      @@aearone не только по SD. Здесь есть уникальный контент.
      Раньше когда ролики выходили раз в полгода, это было прямо эпохальное событие, так как несло очень, очень практичное значение.
      Я даже не думал что Хачатур подсядет на нейронки, лично для меня это было приятным сюрпризом.

  • @MegaBigBright
    @MegaBigBright Год назад +26

    Блин какой ты крутой чувак ) Спасибо тебе большое ) Лучше чем все англоязычные туториалы по СД, что я видел.

  • @muzzlex3610
    @muzzlex3610 Год назад +2

    ну наконец то, появился человек, который подробно объясняет тренировку текстовой инверсии 🥳

  • @Cryunreal
    @Cryunreal Год назад +4

    21:40 - кот сделал прыг

  • @user-mn1wv7fg4o
    @user-mn1wv7fg4o 3 месяца назад +1

    Вы - великолепны не только как профессионал, но и как крутейший педагог. Чувствую себя подобием SD при его создании - встроенная система рухнула, какие то отрывочные знания улетели в блендер, где все перемешивается. Сама же личность тихо молится в углу об избежании окончательного распада и надеется, что позже, по мере изучения материала, создастся что то новое, логично упорядоченное. Но это пока на уровне надежды. Понимаю, что ничего не знаю, не понимаю, но очень стараюсь. Поглядим однако что далее у нас...

  • @anton-pavlov
    @anton-pavlov Год назад +4

    Как всегда, отличное видео с ворохом объяснений!) Спасибо за полезную информацию!

  • @charlytutors
    @charlytutors Год назад +28

    Ну наконец-то! Очень ждал =) Потому что по сути, мне не интересно обучать на себе, а вот свои стили туда закинуть и сделать вариации - как раз самое то =) Большая благодарность за это видео!
    Вопрос - если пробовал Remix в Midjourney, как делать такое же в SD? =) Когда берем одну картинку, например железного человека, вторую картинку - кукурузы и оно смешивается и дает результат в виде нового концепта =)

    • @rawon504
      @rawon504 Год назад +3

      присоединяюсь к просьбе)

    • @kapitonchik
      @kapitonchik Год назад +3

      +1 было бы здорово понять как сделать такую историю в SD

    • @t0rango
      @t0rango Год назад

      "железного человека AND кукуруза" в промпте, не?

    • @charlytutors
      @charlytutors Год назад

      @@t0rango ну я ж не то имею ввиду... идея не в промте. а в смешивании картинок... промт дает не тот результат. Видимо вы не пробовали Midjourney фичу =)

    • @t0rango
      @t0rango Год назад +1

      @@charlytutors ясно. Да, фичу в MD не пробовал.

  • @scraymi
    @scraymi Год назад +8

    Привет, я не успеваю "прожевать" предыдущий ролик, а тут еще вкусняшка =)

  • @user-kh1fr5xn4t
    @user-kh1fr5xn4t Год назад +2

    Христ - добрейшей души человек! Столько инфы, успевай только переваривать. И все это за лайк и колокольчик) Точно, бессеребреник какой-то. Некоторые только за промт стараются содрать от 20к и выше😮

  • @5hem
    @5hem Год назад +17

    В видео затронут был такой момент, что модели не понимают промты, если их не обучили им. Хотелось бы узнать, есть ли способ выпотрошить из файла модели информацию, какие промты она понимает

    • @WillFalcon
      @WillFalcon Год назад +1

      Прикинь, сколько текста влезает в 4-5 гигов информации, а именно столько средний эндпойнт вмещает. Проще методом тыка.

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Год назад +3

    Крутяк!
    Ну и как же hypernetwork вывести на главную страницу из настроек?)

  • @PhantoMNN
    @PhantoMNN Год назад +5

    Приветствую! Которую ночь не сплю из-за этих видосов, пока все не попробую никак не могу оторваться ))
    Я тут накидал несколько вопросов не по этому видео, а общих. Возможно, что-то пригодится для будущих роликов и наверняка это будет интересно и другим.
    1. Тренируется ли нейросеть на локальном ПК, когда ей пользуешься или ее навыки остаются на том же уровне независимо от кол-ва циклов работы?
    2. Совершенствуется ли Hypernetwork при её многократном использовании? Субъективно, результаты с каждом разом улучшаются...
    3. Как именно работает Restore Face и в каких случаях имеет смысл ее включать?
    4. Принципиальная разница между оболочками Invoke AI и Automatic111, что лучше?
    5. Насколько и как влияет выбранный размер картинки при генерации изображений? Что делать, если необходимо максимально высокое качество (выше 2000 px), а все модели почти тренятся на 512 px?
    6. Если трейн прогонял на одной модели (к примеру, Dreamlikediffusion), а потом захотел использовать Hypernetwork на другой, например Protogen x5.8 Rebuilt (с учетом той же версии SD в базе обеих моделей) можно так делать или надо тренировать под каждую модель отдельно и заново?
    и очередное огромное спасибо за то, что ты делаешь, пока во всем рунете более подробной, четкой и максимально полезной информации по SD я не встречал!

    • @XpucT
      @XpucT  Год назад +4

      1. На самом деле не важно, на каком ПК была тренировка. Результаты всегда будут отличаться в пределах погрешности.
      2. Увы, но нет. Однако, за 1 сеанс он делает всё лучше и лучше. Это да, это Вам не кажется =)
      3. Только для лиц крупным планом. В остальном помогает VAE. Если не помогает, включаем Restore face.
      4. Automatic1111 лучше потому что там больше. Как бы InvokeAI ни старалась быть дружелюбной, всё равно отстаёт по возможностям.
      5. highrex увы не поможет, только upscale. Подробнее про него в видео расскажу.
      6. Результат несомненно лучше будет, если Hypernetwork использовать именно на той модели, на которой она тренировалась.

    • @ManSpider2021
      @ManSpider2021 Год назад

      У меня гиперсетки на левых моделях не работают. Только на той, на которой учил.

  • @AntonBalazh
    @AntonBalazh Год назад +17

    Спасибо! Можно предложить тему к одному из след. видео? Как делать шаржи, карикатуры в том числе и на основе натренированных hypernetworks? Чтобы сохранялась узнаваемость черт даже в утрированном или мультяшном виде. Спсб.

    • @AntonBalazh
      @AntonBalazh Год назад +1

      От себя добавлю, что в X/Y plot в Hypernet str. играюсь настройками больше единицы (т.е. в пределах 1 - 1.4), это приближает к нужному эффекту, но на бОльших значениях появляются неприемлемые деформации. Отмечу, что в Settings - Hypernetworks Strength больше "1" выставить нельзя. Есть ли другие способы? Спсб.

  • @user-zz3yh1ko6y
    @user-zz3yh1ko6y Год назад +2

    Мужик, это МАГИЯ! Ты мой кумир. Буду лайкать все твои видео и вообще, я хочу от тебя ребенка!!! ))

  • @alexrengised6072
    @alexrengised6072 Год назад +1

    спасибо за проделанную работу!

  • @nikocgi886
    @nikocgi886 Год назад +5

    Приветствую, очень благодарен за ваши видео по SD. Посмотрел Train, дополнение к нему, это видео и x/y plot. Появилось больше понимания. Хотелось бы узнать от вас нюансы по трейну на мультяшных и аниме моделях. Тренировал хайпер нетворк под задачу : есть лицо анимешное, нарисованное знакомым художником - хотел получать арты с этим лицом (понимаю что анимешные лица очень похожи но у этой есть свои особенности) в результате выдаёт не плохие результаты близкого шота лица с разных ракурсов если промпт простой и минимум уточнений даже особенности зубов передаёт( персонаж вампир). Но стоит ввести full body или промпты с позами и прочие промпты с костюмами окружением и тд. то начинает генерить лютую дичь времён первых нейронок))) Тренировал на Anything 3 по вашему видео, может быть к такой задаче нужен особенный подход ? Буду рад ответу, спасибо)))

  • @slavazemlyanik1189
    @slavazemlyanik1189 Год назад +2

    Спасибо!
    Побольше про тренировки, пожалуйста!

  • @whatevsimbulletproof
    @whatevsimbulletproof Год назад +1

    Офигенно. Пили ещё

  • @escesc5315
    @escesc5315 5 месяцев назад +1

    Спасибо большое за труд!

  • @serpotapov
    @serpotapov Год назад +3

    Мощь!

  • @stanislavniy8064
    @stanislavniy8064 Год назад +2

    Круть! Спасибо вам!

  • @vepiangaming6660
    @vepiangaming6660 Год назад +2

    по поводу 75 токенов, писать можно и больше. Есть теория чанков, по которой 76 токен (1й во 2 чанке) будет иметь приоритет равный первому токену первого чанка.

  • @user-ul3ll3oy2y
    @user-ul3ll3oy2y Год назад

    ЧУМОВОЕ видео! Спасибо большое! Наконец-то, диск разгружу)

  • @user-nj3dn1or9q
    @user-nj3dn1or9q Год назад +6

    Хоть я половину слов и не понимаю, но слушать интересно) На днях 2 часа искал Фотошоп крякнутый на 32 бита. Смотрю подписанный Христ, все работает идеально)

    • @XpucT
      @XpucT  Год назад

      Ты можешь спросить, Я уточню в комментах любой аспект.

    • @user-nj3dn1or9q
      @user-nj3dn1or9q Год назад

      @@XpucT Я обязательно учту и как будут появляться вопросы буду спрашивать. Но я и так с каждым видио узнаю много нового. Заинтересовала тема с Гугл Колабом, буду разбираться.

  • @fakeaccount1180
    @fakeaccount1180 Год назад +6

    А возможно ли генерировать своего персонажа в разных позах и ситуациях?

  • @ManSpider2021
    @ManSpider2021 Год назад +2

    Спасибо огромное!

  • @deodamustv6649
    @deodamustv6649 Год назад +2

    Спасибо, Хачатур!

  • @2si361
    @2si361 Год назад +2

    Вы работаете быстро, рассказываете увлеченно и интересно! Мне ооочень нравится. Огромный молодец!

  • @sleepeverydayitsgreattoliv4214
    @sleepeverydayitsgreattoliv4214 5 месяцев назад

    Нужно больше технической информации 🎉😎🙏

  • @BoringType
    @BoringType Год назад +1

    Большое спасибо!

  • @sergant985
    @sergant985 Год назад

    Да, будь же здоров! Учи нас уму разуму в этой сложной среде.

  • @leoniddzhabiev
    @leoniddzhabiev Год назад +2

    Хорошо!Ну прям очень хорошо

  • @avr_stm_pro2955
    @avr_stm_pro2955 Год назад +4

    Как всегда заебок 👍

    • @XpucT
      @XpucT  Год назад +2

      Как всегда красавчик ☝
      Жду Твой заебок под каждым видео, уже традиционно =))

  • @muhitdin5590
    @muhitdin5590 9 месяцев назад

    Хачатур, недавно открыл твой канал, подача огонь🔥

  • @wayperz
    @wayperz Год назад +13

    может сделаете рубрику , картинки от зрителей? которые вы сможете создать близко к оригиналу? будет занимательно посмотреть что и как вы делаете что бы добиться результата

  • @joker__joker_why_so_seriou2520
    @joker__joker_why_so_seriou2520 Год назад +1

    🔥🔥🔥🔥🔥🔥🔥

  • @olgs788
    @olgs788 Год назад +3

    Спасибо 🥂 +1 000 000 подписчиков вам 💪

  • @MrCoffeemill
    @MrCoffeemill Год назад +2

    Спасибо, круто! два вопросика возникли:
    1е - я правильно понял, что
    Эмбейдинг это в одно ключевое слово вписывается группа слов, но еще и с примером что они должны означать конкретно, а не из всего что знает сеть по этим ключевикам, но не больше чем сеть знает уже. т.е. обучить стилю можно, но только тому что уже в базе.
    Гиперсеть, это типа фильтра в инстограм, но в место цвета - признаки человека, и чем лучше объяснить/обучить, тем более похож будет результат, но в самой сети данного стиля/персонажа нет, она результат окрашивает в признаки даже которых нет в сети.
    Дримбут вписывает тренеруемые данные уже в сам ckpt, меняя весь объем данных с разной степенью воздействия и уже генерит в выдачу с учетом новых данных добавленных к ее "знаниям"?
    2й вопрос у меня вытек =) из первого, это как можно совмещать разные стили? Допустив можно слить 3-4 ckpt, данные будут не добавлены, а именно смешаны, что повлияет на результат, но можно будет генерить .. ну .. новый актер 2023 года обнимает новую актрису 2023 года которых не было известно ранее. Можно "до обучить" в ckpt несколько новых "концептов" (как они названы в дримбут), и выдавать смесь этих данных, тех же актеров или стилей новых в дизайне. А гиперсети? К ckpt добавить 1н слой гиперсети, а два? Или двух людей, или их смесь, или среднее из двух стилей которых нет в ckpt? В ckpt можно смешивать (:1.2),(:0.8),(:0.5), а сетками есть возможность?
    Спасибо за видео!

    • @XpucT
      @XpucT  Год назад +3

      1. Правильно понял. И следующий абзац и Dreambooth, всё верно.
      2. Для этого есть Checkpoint merger, про него будет отдельно 👍

  • @AlexBond_007
    @AlexBond_007 Год назад +1

    Все проверил, все работает! Стиль прекрасно передает. Делал по другим гайдам ничего не получалось, потому что мало токенов давал или же их не указывал, и Learning rate не правильный ставил. Убил часа 4 на генерации и все было впустую, а тут 10 минут и готовый результат!!! Спасибо за видео!

    • @XpucT
      @XpucT  Год назад

      Спасибо, что поделился 🙏

  • @user-mopVas74
    @user-mopVas74 Год назад +2

    Спасибо тебе большое .

  • @smartbynick1796
    @smartbynick1796 Год назад +2

    Видео уходят в сторону завлечения зрителя с разными уже казалось стандартными "блогерскими уловками" в плане монтажа и подачи. И это круто.. Как офигенно обыграл прыжок кота под музыку, это было так просто и так круто. А видео, как всегда понятным языком) спасибо!

  • @yerysh
    @yerysh Год назад +1

    крутой чувак ) Спасибо тебе большое )

  • @WillFalcon
    @WillFalcon Год назад +4

    Бро, делай ,пожалуйста туторы FHD или HD (1920x1080) бо невыносимо без лупы этот синематик стайл смотреть на 16" ноутбука.

  • @mikhail5402
    @mikhail5402 Год назад +1

    Здоров👋, спасибо, отличный видос, наконец избавлюсь от тонны моделей, заготовлю свои какие нужно по 70 кило и красота 🤝

  • @vasogagnidze3325
    @vasogagnidze3325 Год назад +1

    фига еще один видос, лайк

  • @yiu_ai
    @yiu_ai Год назад +3

    Низкий поклон за видео!
    Возникла пара вопросов: можно ли использовать несколько embedding одновременно? А также хранить файлы embedding в одной папке, чтобы быстро переключаться между стилями? Или каждый раз вынимать из папки, где вы правой кнопкой мыши перетаскивали файл?
    Кстати, а можно ли применять embedding в img2img? Загрузил я, к примеру, фотку 512×768 пикселей и применил к ней embedding.
    Спасибо за ваши ролики😋

    • @XpucT
      @XpucT  Год назад

      Можно в папке Embeddings хранить сколько угодно файлов.pt
      Если в prompt используется имя какого-либо, то его Embedding будет использован при генерации.
      Вынимать и класть Embedding можно в реальном времени, не перезапуская сервер.
      ОДНАКО, если файл.pt именно пересоздать внутри Stable Diffusion, нажимая на Create Embedding, то Stable Diffusion не увидит подмены. Именно по этой причине говорю, что нужно вынимать файл, нажимать Generate, потом снова класть обратно файл.
      Если файлы готовые, рабочие, трогать их не нужно, валяются себе и прекрасно.
      Если в папку Embedding положить Embedding, например, _cinematic.pt_ и прописать в prompt это:
      _a car, cinematic effect, high quality_
      То генерация будет заменять слово cinematic на то, что сидит в Embedding.
      Если файл _cinematic.pt_ убрать в реальном времени из папки и снова воспроизвести тот же prompt, то он будет учитывать строго сам prompt и это можно проверить, смотря в самый низ отчёта. То есть так мы точно увидим, что система работает, как и написано в документации в реальном времени. Он как бы "отслеживает" наличие файла. ОДНАКО, повторюсь, если мы перебьём файл _cinematic.pt_ создав новый на вкладке Train, то Stable Diffusion будет не просто считать, что не было подмены, он ещё и юзать будет то, что у него в памяти (то, что было до замены новым).

  • @sector5577
    @sector5577 Год назад +1

    Ежже красавчег!

  • @user-zc5hw3jp5q
    @user-zc5hw3jp5q 4 месяца назад +1

    Thx!

  • @user-nc4oh2pz5w
    @user-nc4oh2pz5w Год назад +2

    Пожалуйста прокомментируйте: когда учишь селфи модель на своем стиле, то при добавлении разных весов в одну модель в какой то момент они начинаются смешиваться( Если добавлять в одни и те же веса много объектов, начиная с 2ого, иногда 3его объекта они начинаются смешиваться

  • @vexrek3037
    @vexrek3037 Год назад +1

    Спасибо!!!

  • @user-vp9bw8ku1k
    @user-vp9bw8ku1k Год назад +1

    Здорово. А есть аналог remix mode из midjourney? Просто из одной картинки композицию захватить, а из другой стиль

  • @user-te7cz3wk2v
    @user-te7cz3wk2v Год назад +1

    Спасибо

  • @Igrom_Gamedev
    @Igrom_Gamedev Год назад +3

    Ждем еще видосы ) Кстати мне заходят по часу видосики, даже жалко людей, которые жалуются на то, что долго. Надо еще постараться поискать ,чтобы так информативно было.

    • @XpucT
      @XpucT  Год назад

      Согласен =)

    • @Igrom_Gamedev
      @Igrom_Gamedev Год назад +2

      я только после твоих гайдов начал понимать как с этими нейронками общаться. Надеюсь дойдут у тебя руки и до InvokeAI, по ней тоже кисло на русском )

  • @duckduckov4362
    @duckduckov4362 Год назад +1

    OH MY GOOOOOOOOOOD! 😆 невероятная круть. мы прям бахаем СТИЛЬ. Киберпанк, гта5, что угодно
    Я не понял, мы можем надёргать картинок из интернета в нужном стиле или нам нужны сгенерированные нейросетью изображения?
    Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki] уже яснее
    Для этого метода нужна видеокарта с 8гб+

  • @TovSpaskin
    @TovSpaskin Год назад +3

    А можно ли хохлому или гжель через embedding сделать? И, например, на одежду наносить потом?

  • @georgiy0077
    @georgiy0077 Год назад

    👍Как всегда отличный видос.Но есть 1 вопрос, когда обычные смертные смогут скачать вашу сборку со всеми настройками,норм цветами интерфейса и дополнениями?

  • @CAMKATIC
    @CAMKATIC Год назад +2

    спасибо тебе за такое познавательное видео, теперь я понял что этот ИИ это не просто генератор бесполезных картинок, ведь если разобраться то эта штука может расчитать все что угодно , только подставляй ей примеры учи и проси результат

  • @filatovweb
    @filatovweb Год назад +3

    Как всегда шикарно! Очень жду каждое ваше видео

  • @borgeborg
    @borgeborg Год назад +3

    Крутой автор! Прям хочется лично пожать руку за такой труд!) Вопрос: как можно осуществить такой сценарий? "есть 10 разных промптов, на их основе сделать 10 разных картинок каждого описания и всё это поставить в очередь, а самому пойти часик погулять"

    • @XpucT
      @XpucT  Год назад +1

      Есть отличный ответ на это:
      ruclips.net/video/fTitCZUdRSI/видео.html

    • @silentage6310
      @silentage6310 Год назад +1

      я так закидываю несколько сотен запросов и оставляю на сутки :)

  • @Oritey
    @Oritey Год назад +1

    Лучший!

  • @Dmitry_Max
    @Dmitry_Max Год назад +1

    Благодарю

  • @No.057
    @No.057 Год назад +2

    в каком файле ты прописал гиперсеть возле чекпоинтов?

  • @user-uu1sb8fl2v
    @user-uu1sb8fl2v Год назад +1

    Спасибо за видео! Но есть вопрос, подскажите пожалуйста:
    Делаю embending на модели 1-5. Ввожу все токены указанные в видео. Беру за референс картинки в стиле Samdoesart.
    Но по итогу получается так, что embendig работает и повторяет стиль исходя только из токенов. На картинки в Стиле Samdoesart из папки, на которую ссылался, вообще не похоже.
    Что мог сделать не так? Буду благодарен за ответ)

    • @AlexBond_007
      @AlexBond_007 Год назад +2

      Есть предположение что обучение ломают COMMANDLINE_ARGS --xformers или --no-half-vae в общем у меня было куча параметров и он вообще не обучался, а когда сделал на чистом запуске, то обучение заработало. Но это только предположение...

  • @Nonamus0
    @Nonamus0 Год назад +6

    Ура, новое видео по SD, приятный сюрприз) Про мировое сообщество анимешников посмеялся 😂
    Очень классно узнавать что-то новое, особенно когда так хорошо всё объясняют, надеюсь дождусь как нибудь и темы Dreambooth. Спасибо за видео! (И да, я не знаю кому надо покороче, я бы хоть 4 часа смотрел подобные видео хаха)

  • @Serhii_Hrechka
    @Serhii_Hrechka Год назад +1

    😭хр...во, что Вы только на Boosty, а Patreon под запретом, очень хотел подписку оформить, так как посмотрел, что там не просто годный контент, а о....ый🤩🤯

    • @XpucT
      @XpucT  Год назад

      Я не могу завести аккаунт на Patreon ┐('~`;)┌

    • @Serhii_Hrechka
      @Serhii_Hrechka Год назад

      @@XpucT я знаю 😢, а я не могу пользоваться такими сервисами как boosty 🤬

  • @D1MAKRAT
    @D1MAKRAT 9 месяцев назад

    Спасибо большое, Хачатур!)
    55

  • @Jacob-ut4hc
    @Jacob-ut4hc Год назад +4

    Видео супер, конечно хотим еще! Было бы интересно узнать про мердж моделей, safetensors, pruned и как самому их создавать (обрезать чужие для экономии места)

  • @michaelsoldatov2649
    @michaelsoldatov2649 Год назад +2

    Ну щё - лайк, подписка, комментарий для продвижения - пилите контент, укажаемый! Ну а если серьёзно, очень информативно, мифо-уничтожительно, по делу. Разве что негатива хотелось бы поменьше - тема новая и сложная, ажиотаж вокруг неё большой (в узких круга), не удивительно, что люди пока не понимают толком, что к чему. Результат говорит сам за себя, кому надо тот поймёт и сам сделает выводы.

    • @XpucT
      @XpucT  Год назад +2

      Негатива итак мало. Проверьте загуглить те вещи, о которых Я рассказываю.
      Сразу станет понятно 👍

  • @enotbert
    @enotbert Год назад

    Привет, спасибо за видосы. Очень емко и доходчиво.
    Вопрос про эмбеддинг. Есть задача, заэмбеддидь конкретный стиль изображений, что бы совсем любой промт в итоге выдавался в этом стиле.
    Сейчас может быть будет несколько сумбурно, прошу понять.
    Я хочу что бы СД генерировал чистый flat vector без градиентов, с хорошими осознанными формами и в разных под-стилях внутри этого стиля.
    Моя проблема в том, что "внутри" flat vector есть куча очень сильно отличающихся подстилей. А главное, что любая иллюстрация это очень сильная стилизация привычных объектов реального мира. Условно говоря холодильник не прямоугольной формы, а трапеция и т.д. Когда я собрал набор картинок который бы включал в себя хотя бы 1 изображение в интересующих меня стилях, получилось 24 картинки. Я затрейнил эмбеддинг, но получилась чушь. Если не задавать промт точно описывающи одну из картинок, результат мягко говоря плохой.
    В связи с этим вопрос, имеет ли смысл пытаться упихать все что мне нужно в один эмбеддинг или разумнее отступиться и создать под каждую уникальную реализацию стиля свой эмбеддинг?

  • @pawwithclaws2360
    @pawwithclaws2360 Год назад +1

    Здравствуйте, подскажите, пожалуйста, как через train сделать стиль рисования, к примеру, взять фото моего лица и в img2img перерисовать в стиль моего рисования, фото с моей отрисовкой могу скинуть

  • @RaduFilmStudio
    @RaduFilmStudio Год назад

    А есть ли возможность в последствии доучивать, к примеру вов торой раз на собачках, а после третий на кошечках и так далее?

  • @Vincentocavroni
    @Vincentocavroni Год назад +2

    Хачатур здравствуй, можно ли перерисовать на свой стиль фото человека, сохранив узнаваемость оригинала, без обучения и тренировок? (И без sms и регистрации)

    • @XpucT
      @XpucT  Год назад +1

      Можно. Это отдельное видео будет.

  • @artistsergey
    @artistsergey Год назад +3

    Спасибо! (Знания: Ваших 4 просмотренных ролика) ВОПРОС: Мне нужно получить уникальный художественный стиль на примере конкретного художника. Он включает в себя как бы всё. Это комиксы. 1. На основе какой модели делать тренировку? Той, что Вы здесь порекомендовали? 2. Если это целый стиль и включает в себя не токмо лица, сколько нужно для такой дрессировки картинок и токенов, что бы описать весь мир этого художника? Ведь тема может быть ковбойская и космическая. И еще я не могу понять с размерами картинок. Как их получать большого разрешения, хотя бы 1200 пик. ? Если задавать такой размер, то получается в лучшем случае винегрет и бред обкуренного стафилококка. И как тренировать, сразу задавать такое разрешение? Или это не наши методы? Спасибо за разъяснение!

    • @XpucT
      @XpucT  Год назад +4

      Лучше делать тренировку на 1.5, да, потому что на её основе, как правило делаются другие модели. То есть Ваш Embedding будет с большей вероятностью совместим, если делать на 1.5. Если в художестве много элементов, то есть вообще смысл создать свою модель. Но это уже другая история. Для этого нужен Dreambooth, где от каждого изображения требуется подробное описание. Чтобы получать изображения на своих моделях в высоком разрешении, обучать нужно на высоком разрешении. Если на чужих, то просто Upscale. Никуда от этого не деться. Но сразу скажу, что оптимальнее всегда будет 512 x 512. Это разрешение выбрано неспроста. Именно на нём меньше всего встречаются неожиданные деформации.

    • @artistsergey
      @artistsergey Год назад +1

      @@XpucT Безразмерное спасибо! А вы можете направить меня ссылкой в сторону Dreambooth или можно ожидать видео по раскрытию темы? Еще раз спасибо!

  • @user-ij5le6vo5v
    @user-ij5le6vo5v Год назад +1

    У меня какая то ерунда получается на эмбендинге, может потому что видео карта 3000 серии или я хочу бОльшего результата от инструмента( но в результате картинки получаются какие то "психоделические" не смотря на то, что картинки примеры совсем другого характера и стиля. Очень жду видео по созданию модели, мне как художнику это важно и интересно!
    Спасибо за крутые обзоры!

  • @evgeniiatarasova9898
    @evgeniiatarasova9898 Год назад +1

    Спасибо за отличное объяснение! Подписка, лайк, звоночек! Жаль лайк только 1 ставить можно(

  • @krivdada
    @krivdada Год назад +2

    Большое спасибо за все ролики, наиболее внятный материал по SD! Хочется еще поднять одну тему: SD умеет рисовать аниме, но оно не всегда нужно. Хочется натренировать свою модель с четким лайном и своей спецификой светотени, но при обучении стилю узнаваемости не получается, он передает чисто цвета и общие объекты. Может у таких иллюстраций есть другие методы обучения?

    • @XpucT
      @XpucT  Год назад

      Посмотрите видео LoRA:
      ruclips.net/video/A15M4cbUM5k/видео.html

  • @Alexarhat2
    @Alexarhat2 Год назад

    Привет! Большое спасибо за видео). Подскажи, пожалуйста, при создании Эмбеддинга, выставляя настройку "Number of vectors per token", какие еще символы кроме запятой считаются токеном? Например слово "gray-haired" будет считаться одним токеном или тремя? Или если у нас слово с апострофом "blizzard's"?

    • @XpucT
      @XpucT  Год назад

      Привет 🖐
      Это можно посчитать в самом prompt справа вверху подсказка.

    • @Alexarhat2
      @Alexarhat2 Год назад

      @@XpucT понял, спасибо!

  • @vnk5033
    @vnk5033 Год назад +1

    Все таки щас соберусь и перепишу этот негатив промт
    Спасибо за видео! Лайк!

  • @silentage6310
    @silentage6310 Год назад +2

    расскажи потом как установить SD 2.x. пробовал скачать и включить, но пишет что нужен какой то config.yml

  • @MsTrash666
    @MsTrash666 Год назад

    2e-5:800, 8e-6:1600, 5e-6

  • @WillFalcon
    @WillFalcon Год назад +1

    И, кстати EyeBalls - это два токена. Можно поставить расширение (extension) которое покажет сколько токенов на каждом слове.

    • @aleksandrshchepkin
      @aleksandrshchepkin Год назад

      А как это расширение называется?

    • @WillFalcon
      @WillFalcon Год назад +2

      @@aleksandrshchepkin embedding-inspector, показывет количество токенов на запросе, вес, айдишник и тп

    • @WillFalcon
      @WillFalcon Год назад +2

      @@aleksandrshchepkin ещё есть расширение tokenizer , более компактно, раскрашивает промпт поделив на токены

  • @areidj
    @areidj Год назад +2

    супер!от души! лайк есть! Вопрос почему при 512-512 у вас получаются все равно качественные изображения, а у меня не очень? Что я делаю не так?

    • @XpucT
      @XpucT  Год назад +2

      Всё от модели зависит и CFG Scale.
      Также не пропускайте видео. В одном из недавних рассказывал про VAE 👍

    • @areidj
      @areidj Год назад +1

      @@XpucT вроде все посмотрел на бусти, наверно пропустил, буду пересматривать ! Вы лучший вообще! Обнял крепко !

  • @maxiimovv
    @maxiimovv Год назад

    Я так понял "Number of vectors per token" надо выставлять тот который светился при первоначальном запросе - (25/75) т.е. в примере 25 ?
    Понял что если указать меньше, то обрежет промты. А вот чем опасно ставить число побольше, скажем навалить сразу 75?

  • @user-mq8zo8ry8k
    @user-mq8zo8ry8k Год назад +1

    Я тут как тут))))

  • @THORtik
    @THORtik Год назад +1

    А попробуйте ввести не блонд, а, например, "с белыми волосами", или "волосами белого цвета", или более подробной формулировкой).

  • @fishfugue
    @fishfugue Год назад +2

    Добрый день. Будет ли обзор InvokeAI?

    • @XpucT
      @XpucT  Год назад

      Приветствую 🖐
      Будет мини-отзыв.

  • @Dustin-trustinO12
    @Dustin-trustinO12 Год назад

    А что если я хочу просто стиль волос потренировать, это точно также работает?

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Год назад +2

    Самый главный вопрос: как у тебя так быстро загружается модель с расширением safetensor. У меня минут по 5 грузится, а у тебя 3 секунды. ckpt где-то секунд 30 у меня.
    Это потому что у меня не SSD?

    • @XpucT
      @XpucT  Год назад +1

      Да. У Меня SSD, M.2 NVME.

  • @drugoj
    @drugoj Год назад +2

    Друзья, вопрос немного не в тему видео, но почему, при изменении размера вывода картинки с 512х512 на какой то другой, нейросеть начинает рисовать не одного персонажа а двух трех, а то и сразу шесть? ПРичем еще недавно вроде не было такой проблемы.

    • @XpucT
      @XpucT  Год назад +1

      Попробуй удалить кэш, как показывалось в предыдущих видео.

    • @drugoj
      @drugoj Год назад

      @@XpucT я видимо пропустил этот момент, надо пересмотреть еще раз все. Спасибо.

  • @darda3335
    @darda3335 Год назад

    А что будет если я создам несколько таких эмбендигов и подключу их, они все будут работать? Можно тренировать на другой модели не 1.5 а на делибери например?

    • @XpucT
      @XpucT  Год назад +1

      Можно и это будет работать.
      И да, сейчас лучше делать на Deliberate.

  • @user-fs6tl6og3j
    @user-fs6tl6og3j Год назад +6

    Чем подробнее видео тем лучше ) мой интеллект гуманитария
    лучше воспринимает 😊

  • @user-lf9ee3cr5l
    @user-lf9ee3cr5l Год назад +1

    Будет ли у нас выпуск для новой версии stable 2.4? Я установил её, а смотрю меню отличается и в настройках не вижу этих параметров, что у тебя на предыдущих и данном видео...

    • @XpucT
      @XpucT  Год назад +1

      Открой второе видео в плейлисте.

  • @user-kl5ze4tf2c
    @user-kl5ze4tf2c Год назад +2

    За биточки на фоне отдельные спасибы)

  • @Xandr_Nekomata
    @Xandr_Nekomata Год назад

    Привет, только пару дней у тебя на канале, и есть такой вопрос. Есть ли у тебя гайды по созданию видео AI из обычного видео ? Я гуглил какието Stable WarpFusion.. Даже развернул проект.. но все равно ничего не понимаю )))

    • @Xandr_Nekomata
      @Xandr_Nekomata Год назад

      Хотя наверное надо сначала научиться просто фото переделывать)

    • @XpucT
      @XpucT  Год назад

      Привет 🖐
      boosty.to/xpuct/posts/2e53c82b-c1dc-4baa-a0d1-6af0f41a7f41?share=post_link

  • @Dart213
    @Dart213 6 месяцев назад +1

    Что делать, если пишет
    "Training finished at 0 steps.
    Embedding saved to ... "?
    Прошу, помогите. Сделал всë, как в видео(((

  • @andreyl7290
    @andreyl7290 Год назад +1

    Спасибо за видео!
    Про модели подробнее интересно(пикл, сейфтензр…)
    Балуюсь на коллабе с нейросетью, тк своя видяха не позволяет так быстро работать.
    Обучение все же мне более всего дримбус по душе, модели(Ckpt) для тренинга тягаю с сайта в описании. Зачастую модель скачивается, но в процессе конвертации в коллабе вылазят ошибки. Известно ли вам что-то про это, если да- то пару слов? Почему одни модели нормально скармливаются, другие нет? Спасибо.

    • @XpucT
      @XpucT  Год назад

      Ошибки в Colab начались из-за того, что Google не ожидал такого наплыва.

  • @foton5033
    @foton5033 Год назад +2

    Очередной раз красавчик! Спасибо тебе

  • @user-fs6tl6og3j
    @user-fs6tl6og3j Год назад +1

    Спасибо за видос ! Очень нужная информация!!