Stable Diffusion - Embedding

Поделиться
HTML-код
  • Опубликовано: 30 сен 2024
  • Telegram ➜ t.me/win10tweaker
    Boosty (эксклюзив) ➜ boosty.to/xpuct
    🔥 Deliberate: huggingface.co...
    🔥 Reliberate: huggingface.co...
    🔥 LowRA / Lit: huggingface.co...
    Плейлист Stable Diffusion: • Stable Diffusion
    #StableDiffusion #Embedding #Hypernetwork

Комментарии • 271

  • @tsentsura9279
    @tsentsura9279 Год назад +54

    Христ, спасибо за работу! Вы первый встреченный на просторах Ютуба человек, который не просто показывает куда тыкать, а поясняет ЗАЧЕМ, и как это работает изнутри. Мне, как человеку, слабо дружащим с инструментами разработки, но желающим понять что и как работает, очень помогла информация из ваших видео. Поясняйте и дальше, очень ждем

    • @XpucT
      @XpucT  Год назад +13

      Поэтому и снимаю. Спасибо за тёплые слова 👏

  • @5hem
    @5hem Год назад +17

    В видео затронут был такой момент, что модели не понимают промты, если их не обучили им. Хотелось бы узнать, есть ли способ выпотрошить из файла модели информацию, какие промты она понимает

    • @WillFalcon
      @WillFalcon Год назад +1

      Прикинь, сколько текста влезает в 4-5 гигов информации, а именно столько средний эндпойнт вмещает. Проще методом тыка.

  • @charlytutors
    @charlytutors Год назад +28

    Ну наконец-то! Очень ждал =) Потому что по сути, мне не интересно обучать на себе, а вот свои стили туда закинуть и сделать вариации - как раз самое то =) Большая благодарность за это видео!
    Вопрос - если пробовал Remix в Midjourney, как делать такое же в SD? =) Когда берем одну картинку, например железного человека, вторую картинку - кукурузы и оно смешивается и дает результат в виде нового концепта =)

    • @rawon504
      @rawon504 Год назад +3

      присоединяюсь к просьбе)

    • @kapitonchik
      @kapitonchik Год назад +3

      +1 было бы здорово понять как сделать такую историю в SD

    • @t0rango
      @t0rango Год назад

      "железного человека AND кукуруза" в промпте, не?

    • @charlytutors
      @charlytutors Год назад

      @@t0rango ну я ж не то имею ввиду... идея не в промте. а в смешивании картинок... промт дает не тот результат. Видимо вы не пробовали Midjourney фичу =)

    • @t0rango
      @t0rango Год назад +1

      @@charlytutors ясно. Да, фичу в MD не пробовал.

  • @WillFalcon
    @WillFalcon Год назад +4

    Бро, делай ,пожалуйста туторы FHD или HD (1920x1080) бо невыносимо без лупы этот синематик стайл смотреть на 16" ноутбука.

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Год назад +3

    Крутяк!
    Ну и как же hypernetwork вывести на главную страницу из настроек?)

  • @fakeaccount1180
    @fakeaccount1180 Год назад +7

    А возможно ли генерировать своего персонажа в разных позах и ситуациях?

  • @MegaBigBright
    @MegaBigBright Год назад +26

    Блин какой ты крутой чувак ) Спасибо тебе большое ) Лучше чем все англоязычные туториалы по СД, что я видел.

  • @AntonBalazh
    @AntonBalazh Год назад +17

    Спасибо! Можно предложить тему к одному из след. видео? Как делать шаржи, карикатуры в том числе и на основе натренированных hypernetworks? Чтобы сохранялась узнаваемость черт даже в утрированном или мультяшном виде. Спсб.

    • @AntonBalazh
      @AntonBalazh Год назад +1

      От себя добавлю, что в X/Y plot в Hypernet str. играюсь настройками больше единицы (т.е. в пределах 1 - 1.4), это приближает к нужному эффекту, но на бОльших значениях появляются неприемлемые деформации. Отмечу, что в Settings - Hypernetworks Strength больше "1" выставить нельзя. Есть ли другие способы? Спсб.

  • @PhantoMNN
    @PhantoMNN Год назад +5

    Приветствую! Которую ночь не сплю из-за этих видосов, пока все не попробую никак не могу оторваться ))
    Я тут накидал несколько вопросов не по этому видео, а общих. Возможно, что-то пригодится для будущих роликов и наверняка это будет интересно и другим.
    1. Тренируется ли нейросеть на локальном ПК, когда ей пользуешься или ее навыки остаются на том же уровне независимо от кол-ва циклов работы?
    2. Совершенствуется ли Hypernetwork при её многократном использовании? Субъективно, результаты с каждом разом улучшаются...
    3. Как именно работает Restore Face и в каких случаях имеет смысл ее включать?
    4. Принципиальная разница между оболочками Invoke AI и Automatic111, что лучше?
    5. Насколько и как влияет выбранный размер картинки при генерации изображений? Что делать, если необходимо максимально высокое качество (выше 2000 px), а все модели почти тренятся на 512 px?
    6. Если трейн прогонял на одной модели (к примеру, Dreamlikediffusion), а потом захотел использовать Hypernetwork на другой, например Protogen x5.8 Rebuilt (с учетом той же версии SD в базе обеих моделей) можно так делать или надо тренировать под каждую модель отдельно и заново?
    и очередное огромное спасибо за то, что ты делаешь, пока во всем рунете более подробной, четкой и максимально полезной информации по SD я не встречал!

    • @XpucT
      @XpucT  Год назад +4

      1. На самом деле не важно, на каком ПК была тренировка. Результаты всегда будут отличаться в пределах погрешности.
      2. Увы, но нет. Однако, за 1 сеанс он делает всё лучше и лучше. Это да, это Вам не кажется =)
      3. Только для лиц крупным планом. В остальном помогает VAE. Если не помогает, включаем Restore face.
      4. Automatic1111 лучше потому что там больше. Как бы InvokeAI ни старалась быть дружелюбной, всё равно отстаёт по возможностям.
      5. highrex увы не поможет, только upscale. Подробнее про него в видео расскажу.
      6. Результат несомненно лучше будет, если Hypernetwork использовать именно на той модели, на которой она тренировалась.

    • @HarryPotterObamaSonic13
      @HarryPotterObamaSonic13 Год назад

      У меня гиперсетки на левых моделях не работают. Только на той, на которой учил.

  • @Oleksandr-Nikolaev
    @Oleksandr-Nikolaev Год назад +16

    Больше, больше роликов про Stable Diffusion, главное не сбавлять темп.
    Спасибо тебе Хачатур за проделанную работа, просмотр твоих роликов очень экономит время.

    • @eluiden
      @eluiden Год назад

      +++, лучший на данный момент контент по SD на русском языке. Я очень рад, что наткнулся на канал Хачатура)

    • @Oleksandr-Nikolaev
      @Oleksandr-Nikolaev Год назад +1

      @@eluiden не только по SD. Здесь есть уникальный контент.
      Раньше когда ролики выходили раз в полгода, это было прямо эпохальное событие, так как несло очень, очень практичное значение.
      Я даже не думал что Хачатур подсядет на нейронки, лично для меня это было приятным сюрпризом.

  • @silentage6310
    @silentage6310 Год назад +2

    расскажи потом как установить SD 2.x. пробовал скачать и включить, но пишет что нужен какой то config.yml

  • @scraymi
    @scraymi Год назад +9

    Привет, я не успеваю "прожевать" предыдущий ролик, а тут еще вкусняшка =)

  • @wayperz
    @wayperz Год назад +13

    может сделаете рубрику , картинки от зрителей? которые вы сможете создать близко к оригиналу? будет занимательно посмотреть что и как вы делаете что бы добиться результата

  • @nikocgi886
    @nikocgi886 Год назад +5

    Приветствую, очень благодарен за ваши видео по SD. Посмотрел Train, дополнение к нему, это видео и x/y plot. Появилось больше понимания. Хотелось бы узнать от вас нюансы по трейну на мультяшных и аниме моделях. Тренировал хайпер нетворк под задачу : есть лицо анимешное, нарисованное знакомым художником - хотел получать арты с этим лицом (понимаю что анимешные лица очень похожи но у этой есть свои особенности) в результате выдаёт не плохие результаты близкого шота лица с разных ракурсов если промпт простой и минимум уточнений даже особенности зубов передаёт( персонаж вампир). Но стоит ввести full body или промпты с позами и прочие промпты с костюмами окружением и тд. то начинает генерить лютую дичь времён первых нейронок))) Тренировал на Anything 3 по вашему видео, может быть к такой задаче нужен особенный подход ? Буду рад ответу, спасибо)))

  • @НормальныйТип-д1в
    @НормальныйТип-д1в Год назад +6

    Хоть я половину слов и не понимаю, но слушать интересно) На днях 2 часа искал Фотошоп крякнутый на 32 бита. Смотрю подписанный Христ, все работает идеально)

    • @XpucT
      @XpucT  Год назад

      Ты можешь спросить, Я уточню в комментах любой аспект.

    • @НормальныйТип-д1в
      @НормальныйТип-д1в Год назад

      @@XpucT Я обязательно учту и как будут появляться вопросы буду спрашивать. Но я и так с каждым видио узнаю много нового. Заинтересовала тема с Гугл Колабом, буду разбираться.

  • @TovSpaskin
    @TovSpaskin Год назад +3

    А можно ли хохлому или гжель через embedding сделать? И, например, на одежду наносить потом?

  • @Dart213
    @Dart213 9 месяцев назад +1

    Что делать, если пишет
    "Training finished at 0 steps.
    Embedding saved to ... "?
    Прошу, помогите. Сделал всë, как в видео(((

  • @vepiangaming6660
    @vepiangaming6660 Год назад +2

    по поводу 75 токенов, писать можно и больше. Есть теория чанков, по которой 76 токен (1й во 2 чанке) будет иметь приоритет равный первому токену первого чанка.

  • @gdanvolski2818
    @gdanvolski2818 Год назад +6

    Хачатур как всегда лучше всех вникает в суть вопроса. Лайки, лайки, лайки мужики!

  • @duckduckov4362
    @duckduckov4362 Год назад +1

    OH MY GOOOOOOOOOOD! 😆 невероятная круть. мы прям бахаем СТИЛЬ. Киберпанк, гта5, что угодно
    Я не понял, мы можем надёргать картинок из интернета в нужном стиле или нам нужны сгенерированные нейросетью изображения?
    Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki] уже яснее
    Для этого метода нужна видеокарта с 8гб+

  • @No.057
    @No.057 Год назад +2

    в каком файле ты прописал гиперсеть возле чекпоинтов?

  • @YuSSol.3d
    @YuSSol.3d Год назад +3

    Христ - добрейшей души человек! Столько инфы, успевай только переваривать. И все это за лайк и колокольчик) Точно, бессеребреник какой-то. Некоторые только за промт стараются содрать от 20к и выше😮

  • @soldat675
    @soldat675 Год назад +2

    зачем тогда civitai так много чекпоинтов по 4-10 гигов создают, а не embedding?

    • @XpucT
      @XpucT  Год назад

      Затем, что до сегодняшнего дня не было туториала, по которому можно было так делать.
      На huggingface и civitai много мусора, увы.

    • @soldat675
      @soldat675 Год назад +1

      @@XpucT когда нибудь буду заливать крутые embeddings и подписываться как "фанат Хачатура" :)
      чтобы другие тоже учились у тебя

  • @Neimar-s4b
    @Neimar-s4b 7 месяцев назад +2

    Вы - великолепны не только как профессионал, но и как крутейший педагог. Чувствую себя подобием SD при его создании - встроенная система рухнула, какие то отрывочные знания улетели в блендер, где все перемешивается. Сама же личность тихо молится в углу об избежании окончательного распада и надеется, что позже, по мере изучения материала, создастся что то новое, логично упорядоченное. Но это пока на уровне надежды. Понимаю, что ничего не знаю, не понимаю, но очень стараюсь. Поглядим однако что далее у нас...

  • @fishfugue
    @fishfugue Год назад +2

    Добрый день. Будет ли обзор InvokeAI?

    • @XpucT
      @XpucT  Год назад

      Приветствую 🖐
      Будет мини-отзыв.

  • @yiu_ai
    @yiu_ai Год назад +3

    Низкий поклон за видео!
    Возникла пара вопросов: можно ли использовать несколько embedding одновременно? А также хранить файлы embedding в одной папке, чтобы быстро переключаться между стилями? Или каждый раз вынимать из папки, где вы правой кнопкой мыши перетаскивали файл?
    Кстати, а можно ли применять embedding в img2img? Загрузил я, к примеру, фотку 512×768 пикселей и применил к ней embedding.
    Спасибо за ваши ролики😋

    • @XpucT
      @XpucT  Год назад

      Можно в папке Embeddings хранить сколько угодно файлов.pt
      Если в prompt используется имя какого-либо, то его Embedding будет использован при генерации.
      Вынимать и класть Embedding можно в реальном времени, не перезапуская сервер.
      ОДНАКО, если файл.pt именно пересоздать внутри Stable Diffusion, нажимая на Create Embedding, то Stable Diffusion не увидит подмены. Именно по этой причине говорю, что нужно вынимать файл, нажимать Generate, потом снова класть обратно файл.
      Если файлы готовые, рабочие, трогать их не нужно, валяются себе и прекрасно.
      Если в папку Embedding положить Embedding, например, _cinematic.pt_ и прописать в prompt это:
      _a car, cinematic effect, high quality_
      То генерация будет заменять слово cinematic на то, что сидит в Embedding.
      Если файл _cinematic.pt_ убрать в реальном времени из папки и снова воспроизвести тот же prompt, то он будет учитывать строго сам prompt и это можно проверить, смотря в самый низ отчёта. То есть так мы точно увидим, что система работает, как и написано в документации в реальном времени. Он как бы "отслеживает" наличие файла. ОДНАКО, повторюсь, если мы перебьём файл _cinematic.pt_ создав новый на вкладке Train, то Stable Diffusion будет не просто считать, что не было подмены, он ещё и юзать будет то, что у него в памяти (то, что было до замены новым).

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Год назад +2

    Самый главный вопрос: как у тебя так быстро загружается модель с расширением safetensor. У меня минут по 5 грузится, а у тебя 3 секунды. ckpt где-то секунд 30 у меня.
    Это потому что у меня не SSD?

    • @XpucT
      @XpucT  Год назад +1

      Да. У Меня SSD, M.2 NVME.

  • @CAMKATIC
    @CAMKATIC Год назад +2

    спасибо тебе за такое познавательное видео, теперь я понял что этот ИИ это не просто генератор бесполезных картинок, ведь если разобраться то эта штука может расчитать все что угодно , только подставляй ей примеры учи и проси результат

  • @Vincentocavroni
    @Vincentocavroni Год назад +2

    Хачатур здравствуй, можно ли перерисовать на свой стиль фото человека, сохранив узнаваемость оригинала, без обучения и тренировок? (И без sms и регистрации)

    • @XpucT
      @XpucT  Год назад +1

      Можно. Это отдельное видео будет.

  • @Cryunreal
    @Cryunreal Год назад +4

    21:40 - кот сделал прыг

  • @zbdwind
    @zbdwind Год назад +1

    какая то слабая разница между промтами, стилями и ембендингами... Вроде как одно и тоже, просто применяется разными путями, зато все больше и больше вероятности что миджорни это стайбл диффюшн, с такими вот приколами...

  • @interemx
    @interemx Год назад +2

    лайк. жду обзор на раздел deforum

  • @СергейСумишевский-ы8з

    Спасибо за видео! Но есть вопрос, подскажите пожалуйста:
    Делаю embending на модели 1-5. Ввожу все токены указанные в видео. Беру за референс картинки в стиле Samdoesart.
    Но по итогу получается так, что embendig работает и повторяет стиль исходя только из токенов. На картинки в Стиле Samdoesart из папки, на которую ссылался, вообще не похоже.
    Что мог сделать не так? Буду благодарен за ответ)

    • @AlexBond_007
      @AlexBond_007 Год назад +2

      Есть предположение что обучение ломают COMMANDLINE_ARGS --xformers или --no-half-vae в общем у меня было куча параметров и он вообще не обучался, а когда сделал на чистом запуске, то обучение заработало. Но это только предположение...

  • @anton-pavlov
    @anton-pavlov Год назад +4

    Как всегда, отличное видео с ворохом объяснений!) Спасибо за полезную информацию!

  • @РоманСимонов-в2о
    @РоманСимонов-в2о Год назад +2

    Мужик, это МАГИЯ! Ты мой кумир. Буду лайкать все твои видео и вообще, я хочу от тебя ребенка!!! ))

  • @brxsgr2024
    @brxsgr2024 Год назад +2

    спасибо, расскажи своё мнение о invokeai

    • @XpucT
      @XpucT  Год назад +1

      В следующем видео 👍

  • @СветланаЗавьялова-ы8н

    У меня какая то ерунда получается на эмбендинге, может потому что видео карта 3000 серии или я хочу бОльшего результата от инструмента( но в результате картинки получаются какие то "психоделические" не смотря на то, что картинки примеры совсем другого характера и стиля. Очень жду видео по созданию модели, мне как художнику это важно и интересно!
    Спасибо за крутые обзоры!

  • @michaeldenisov4815
    @michaeldenisov4815 Год назад +3

    12:44
    По токенайзеру у тебя 25 токенов, а не 23, rutkowski и eyeballs на два токена разбиваются
    Если не изучал - посмотри расширения Tokenizer и Embedding Inspector

    • @michaeldenisov4815
      @michaeldenisov4815 Год назад +1

      зы: за видос спасибо) как всегда - уникальный контент)

    • @XpucT
      @XpucT  Год назад +1

      Да, не обращал внимания, что он занимает 2 токена 👍

  • @areidj
    @areidj Год назад +2

    супер!от души! лайк есть! Вопрос почему при 512-512 у вас получаются все равно качественные изображения, а у меня не очень? Что я делаю не так?

    • @XpucT
      @XpucT  Год назад +2

      Всё от модели зависит и CFG Scale.
      Также не пропускайте видео. В одном из недавних рассказывал про VAE 👍

    • @areidj
      @areidj Год назад +1

      @@XpucT вроде все посмотрел на бусти, наверно пропустил, буду пересматривать ! Вы лучший вообще! Обнял крепко !

  • @CkeLeT2323
    @CkeLeT2323 Год назад +1

    Может я в глаза долблюсь, но не вижу поля где можно скормить свой hypernetwork (уже обученный по фоткам из прошлого видео). Ни в настройках, ни в других вкладках, уже всё обыскал. В x\y\z plot тоже нет такого пункта.(

    • @XpucT
      @XpucT  Год назад +1

      Пункт перебрался. Всё быстро меняется. Смотрите большое видео про вопросы и ответы. То, которое последнее.

  • @sleepeverydayitsgreattoliv4214
    @sleepeverydayitsgreattoliv4214 9 месяцев назад +1

    Нужно больше технической информации 🎉😎🙏

  • @artistsergey
    @artistsergey Год назад +3

    Спасибо! (Знания: Ваших 4 просмотренных ролика) ВОПРОС: Мне нужно получить уникальный художественный стиль на примере конкретного художника. Он включает в себя как бы всё. Это комиксы. 1. На основе какой модели делать тренировку? Той, что Вы здесь порекомендовали? 2. Если это целый стиль и включает в себя не токмо лица, сколько нужно для такой дрессировки картинок и токенов, что бы описать весь мир этого художника? Ведь тема может быть ковбойская и космическая. И еще я не могу понять с размерами картинок. Как их получать большого разрешения, хотя бы 1200 пик. ? Если задавать такой размер, то получается в лучшем случае винегрет и бред обкуренного стафилококка. И как тренировать, сразу задавать такое разрешение? Или это не наши методы? Спасибо за разъяснение!

    • @XpucT
      @XpucT  Год назад +4

      Лучше делать тренировку на 1.5, да, потому что на её основе, как правило делаются другие модели. То есть Ваш Embedding будет с большей вероятностью совместим, если делать на 1.5. Если в художестве много элементов, то есть вообще смысл создать свою модель. Но это уже другая история. Для этого нужен Dreambooth, где от каждого изображения требуется подробное описание. Чтобы получать изображения на своих моделях в высоком разрешении, обучать нужно на высоком разрешении. Если на чужих, то просто Upscale. Никуда от этого не деться. Но сразу скажу, что оптимальнее всегда будет 512 x 512. Это разрешение выбрано неспроста. Именно на нём меньше всего встречаются неожиданные деформации.

    • @artistsergey
      @artistsergey Год назад +2

      @@XpucT Безразмерное спасибо! А вы можете направить меня ссылкой в сторону Dreambooth или можно ожидать видео по раскрытию темы? Еще раз спасибо!

  • @evgeniiatarasova9898
    @evgeniiatarasova9898 Год назад +1

    Спасибо за отличное объяснение! Подписка, лайк, звоночек! Жаль лайк только 1 ставить можно(

  • @michaelsoldatov2649
    @michaelsoldatov2649 Год назад +2

    Ну щё - лайк, подписка, комментарий для продвижения - пилите контент, укажаемый! Ну а если серьёзно, очень информативно, мифо-уничтожительно, по делу. Разве что негатива хотелось бы поменьше - тема новая и сложная, ажиотаж вокруг неё большой (в узких круга), не удивительно, что люди пока не понимают толком, что к чему. Результат говорит сам за себя, кому надо тот поймёт и сам сделает выводы.

    • @XpucT
      @XpucT  Год назад +2

      Негатива итак мало. Проверьте загуглить те вещи, о которых Я рассказываю.
      Сразу станет понятно 👍

  • @avr_stm_pro2955
    @avr_stm_pro2955 Год назад +4

    Как всегда заебок 👍

    • @XpucT
      @XpucT  Год назад +2

      Как всегда красавчик ☝
      Жду Твой заебок под каждым видео, уже традиционно =))

  • @ИванГ-у9ь
    @ИванГ-у9ь Год назад +2

    Пожалуйста прокомментируйте: когда учишь селфи модель на своем стиле, то при добавлении разных весов в одну модель в какой то момент они начинаются смешиваться( Если добавлять в одни и те же веса много объектов, начиная с 2ого, иногда 3его объекта они начинаются смешиваться

  • @krivdada
    @krivdada Год назад +2

    Большое спасибо за все ролики, наиболее внятный материал по SD! Хочется еще поднять одну тему: SD умеет рисовать аниме, но оно не всегда нужно. Хочется натренировать свою модель с четким лайном и своей спецификой светотени, но при обучении стилю узнаваемости не получается, он передает чисто цвета и общие объекты. Может у таких иллюстраций есть другие методы обучения?

    • @XpucT
      @XpucT  Год назад

      Посмотрите видео LoRA:
      ruclips.net/video/A15M4cbUM5k/видео.html

  • @soldat675
    @soldat675 Год назад +1

    разве скобки и веса через ":1.0" не одно и тоже?
    как я понимаю 1.1 - 110%
    а одинарные скобки - 110%

    • @XpucT
      @XpucT  Год назад +1

      Нет, не одно и то же. Скобки слабее. Можно проверить на hypernework. Но если слово идёт вначале, то сильнее.

  • @МихаилЛебедев-г7с
    @МихаилЛебедев-г7с Год назад +6

    Чем подробнее видео тем лучше ) мой интеллект гуманитария
    лучше воспринимает 😊

  • @drugoj
    @drugoj Год назад +2

    Друзья, вопрос немного не в тему видео, но почему, при изменении размера вывода картинки с 512х512 на какой то другой, нейросеть начинает рисовать не одного персонажа а двух трех, а то и сразу шесть? ПРичем еще недавно вроде не было такой проблемы.

    • @XpucT
      @XpucT  Год назад +1

      Попробуй удалить кэш, как показывалось в предыдущих видео.

    • @drugoj
      @drugoj Год назад

      @@XpucT я видимо пропустил этот момент, надо пересмотреть еще раз все. Спасибо.

  • @Igrom_Gamedev
    @Igrom_Gamedev Год назад +3

    Ждем еще видосы ) Кстати мне заходят по часу видосики, даже жалко людей, которые жалуются на то, что долго. Надо еще постараться поискать ,чтобы так информативно было.

    • @XpucT
      @XpucT  Год назад

      Согласен =)

    • @Igrom_Gamedev
      @Igrom_Gamedev Год назад +2

      я только после твоих гайдов начал понимать как с этими нейронками общаться. Надеюсь дойдут у тебя руки и до InvokeAI, по ней тоже кисло на русском )

  • @leoniddzhabiev
    @leoniddzhabiev Год назад +2

    Хорошо!Ну прям очень хорошо

  • @serpotapov
    @serpotapov Год назад +3

    Мощь!

  • @MrCoffeemill
    @MrCoffeemill Год назад +2

    Спасибо, круто! два вопросика возникли:
    1е - я правильно понял, что
    Эмбейдинг это в одно ключевое слово вписывается группа слов, но еще и с примером что они должны означать конкретно, а не из всего что знает сеть по этим ключевикам, но не больше чем сеть знает уже. т.е. обучить стилю можно, но только тому что уже в базе.
    Гиперсеть, это типа фильтра в инстограм, но в место цвета - признаки человека, и чем лучше объяснить/обучить, тем более похож будет результат, но в самой сети данного стиля/персонажа нет, она результат окрашивает в признаки даже которых нет в сети.
    Дримбут вписывает тренеруемые данные уже в сам ckpt, меняя весь объем данных с разной степенью воздействия и уже генерит в выдачу с учетом новых данных добавленных к ее "знаниям"?
    2й вопрос у меня вытек =) из первого, это как можно совмещать разные стили? Допустив можно слить 3-4 ckpt, данные будут не добавлены, а именно смешаны, что повлияет на результат, но можно будет генерить .. ну .. новый актер 2023 года обнимает новую актрису 2023 года которых не было известно ранее. Можно "до обучить" в ckpt несколько новых "концептов" (как они названы в дримбут), и выдавать смесь этих данных, тех же актеров или стилей новых в дизайне. А гиперсети? К ckpt добавить 1н слой гиперсети, а два? Или двух людей, или их смесь, или среднее из двух стилей которых нет в ckpt? В ckpt можно смешивать (:1.2),(:0.8),(:0.5), а сетками есть возможность?
    Спасибо за видео!

    • @XpucT
      @XpucT  Год назад +3

      1. Правильно понял. И следующий абзац и Dreambooth, всё верно.
      2. Для этого есть Checkpoint merger, про него будет отдельно 👍

  • @olgs788
    @olgs788 Год назад +3

    Спасибо 🥂 +1 000 000 подписчиков вам 💪

  • @Frissq
    @Frissq Год назад +2

    Привет, а где можно скачать новую версию?

    • @XpucT
      @XpucT  Год назад

      Привет 🖐
      Новую версию чего? =)

    • @Frissq
      @Frissq Год назад +1

      @@XpucT Stable diffusion.

  • @borgeborg
    @borgeborg Год назад +3

    Крутой автор! Прям хочется лично пожать руку за такой труд!) Вопрос: как можно осуществить такой сценарий? "есть 10 разных промптов, на их основе сделать 10 разных картинок каждого описания и всё это поставить в очередь, а самому пойти часик погулять"

    • @XpucT
      @XpucT  Год назад +1

      Есть отличный ответ на это:
      ruclips.net/video/fTitCZUdRSI/видео.html

    • @silentage6310
      @silentage6310 Год назад +1

      я так закидываю несколько сотен запросов и оставляю на сутки :)

  • @ДенисКО-о8ш
    @ДенисКО-о8ш Год назад +1

    raise Exception('Invalid learning rate schedule. It should be a number or, for example, like "0.001:100, 0.00001:1000, 1e-5:10000" to have lr of 0.001 until step 100, 0.00001 until 1000, and 1e-5 until 10000.')
    Exception: Invalid learning rate schedule. It should be a number or, for example, like "0.001:100, 0.00001:1000, 1e-5:10000" to have lr of 0.001 until step 100, 0.00001 until 1000, and 1e-5 until 10000.
    не пойму че такое не как с формулой не запускается 2е-5:800. 8e-6:1600. 5e-6

    • @XpucT
      @XpucT  Год назад

      Во-первых: после Моего алгоритма Вам не нужны другие ресурсы, потому что все поголовно пишут чушь.
      Во-вторых: Мой алгоритм пишется не через точку, как Вы написали, а через запятые.
      Точка делит целые числа, а запятая отделяет сценарии. Конкретно этот сценарий (2e-5:800, 8e-6:1600, 5e-6) нужно именно для Hypernetwork, а не для Embedding.

    • @ДенисКО-о8ш
      @ДенисКО-о8ш Год назад

      @@XpucT Да конечно я понял что он для Hypernetwork,просто не работает, а почему....?

    • @breakbro9124
      @breakbro9124 Год назад

      @@ДенисКО-о8ш у тебя точки, а нужны запятые :)

    • @ДенисКО-о8ш
      @ДенисКО-о8ш Год назад

      @@breakbro9124 так с запятыми тоже самое , это я здесь прописал с точками в проге запятые но ошибка таже

    • @ДенисКО-о8ш
      @ДенисКО-о8ш Год назад

      @@XpucT Наконец то догнал, что формулу надо прописывать в файле настроек, а не в самой проге как пытался я)))))

  • @slavazemlyanik1189
    @slavazemlyanik1189 Год назад +2

    Спасибо!
    Побольше про тренировки, пожалуйста!

  • @muzzlex3610
    @muzzlex3610 Год назад +2

    ну наконец то, появился человек, который подробно объясняет тренировку текстовой инверсии 🥳

  • @АлександрСергеевич-с4х
    @АлександрСергеевич-с4х 7 месяцев назад +1

    Thx!

  • @user-mopVas74
    @user-mopVas74 Год назад +2

    Спасибо тебе большое .

  • @Aimkrad
    @Aimkrad 10 месяцев назад

    Я так и не понял, в чем суть видео. Для чего эта тренировка, если есть готовые модели под нужны задачу?

  • @-kuler882
    @-kuler882 Год назад +1

    А как сделать свою модель? Вот именно ckpt?

    • @XpucT
      @XpucT  Год назад +5

      Dreambooth. Это отдельная тема. Если будет многим интересно, сделаю обзор.

  • @pawwithclaws2360
    @pawwithclaws2360 Год назад +1

    Здравствуйте, подскажите, пожалуйста, как через train сделать стиль рисования, к примеру, взять фото моего лица и в img2img перерисовать в стиль моего рисования, фото с моей отрисовкой могу скинуть

  • @HarryPotterObamaSonic13
    @HarryPotterObamaSonic13 Год назад +2

    Спасибо огромное!

  • @AlexStranic
    @AlexStranic Год назад +1

    Какая у вас видеокарта? RTX4090?

    • @XpucT
      @XpucT  Год назад

      4080 AORUS

  • @stanislavniy8064
    @stanislavniy8064 Год назад +2

    Круть! Спасибо вам!

  • @craftshow3477
    @craftshow3477 10 месяцев назад

    Кто нибудь знает как люди создают собственные модели для SD? Подскажите пожалуйста

  • @Повелитель-п9н
    @Повелитель-п9н Год назад +1

    Спасибо

  • @THORtik
    @THORtik Год назад +1

    А попробуйте ввести не блонд, а, например, "с белыми волосами", или "волосами белого цвета", или более подробной формулировкой).

  • @joker__joker_why_so_seriou2520
    @joker__joker_why_so_seriou2520 Год назад +1

    🔥🔥🔥🔥🔥🔥🔥

  • @Nonamus0
    @Nonamus0 Год назад +6

    Ура, новое видео по SD, приятный сюрприз) Про мировое сообщество анимешников посмеялся 😂
    Очень классно узнавать что-то новое, особенно когда так хорошо всё объясняют, надеюсь дождусь как нибудь и темы Dreambooth. Спасибо за видео! (И да, я не знаю кому надо покороче, я бы хоть 4 часа смотрел подобные видео хаха)

  • @vexrek3037
    @vexrek3037 Год назад +1

    Спасибо!!!

  • @van_k41
    @van_k41 Год назад +1

    Все таки щас соберусь и перепишу этот негатив промт
    Спасибо за видео! Лайк!

  • @mikhail5402
    @mikhail5402 Год назад +1

    Здоров👋, спасибо, отличный видос, наконец избавлюсь от тонны моделей, заготовлю свои какие нужно по 70 кило и красота 🤝

  • @mr.komprado3857
    @mr.komprado3857 Год назад +1

    С gtx 1080 можно юзать этот ИИ?

    • @XpucT
      @XpucT  Год назад

      Да, отличная карта.

  • @deodamustv6649
    @deodamustv6649 Год назад +2

    Спасибо, Хачатур!

  • @soulice9351
    @soulice9351 Год назад +1

    Здраствуйте, хорошего дня).И так у меня у одного не работает сеть в win 10 tweaker???(с впн работает но включать по кд бесит) Я в Украине или что-то у меня с пк (в Украине все рус сайты заблокированы. Сайт оф твикера работает без впн) лицензию я могу активировать на своём ноутбуке, и пк вместе? (на старых ноутах програмка даёт вторую жизнь) (Спасибо за новогоднюю скидку♥)УДАЧИ

    • @XpucT
      @XpucT  Год назад

      Добрый вечер 🖐
      По доступу, тут всё написано: win10tweaker.ru/forum/topic/ошибки-доступа-связанные-с-сетью
      По активациям? тут всё написано: win10tweaker.ru/proqa

    • @soulice9351
      @soulice9351 Год назад

      @@XpucT Как я понял. я могу скачать, активировать, сделать твики, и перенести на основной пк pro и всё (спасибо♥)

    • @XpucT
      @XpucT  Год назад

      @@soulice9351 Pro версию нельзя гонять по разным ПК, так вы рискуете лишиться бесплатной переактивации в будущем.

    • @soulice9351
      @soulice9351 Год назад

      @@XpucT понял, спасибо, да я просто всё сделал, и вернул, не то матереальное положение что-бы купить 2 раза програму мб в будущем

  • @escesc5315
    @escesc5315 8 месяцев назад +1

    Спасибо большое за труд!

  • @jmksm
    @jmksm Год назад +3

    Не совсем понимаю использования этой проги простоым обывателем. Однако подход Хачатура к какой-либо теме, впечатляет. Будь-то уроки по C#, либо эта прога. Респект за такую подачу.

  • @ДенисКО-о8ш
    @ДенисКО-о8ш Год назад +1

    Я тут как тут))))

  • @BoringType
    @BoringType Год назад +1

    Большое спасибо!

  • @WillFalcon
    @WillFalcon Год назад +1

    И, кстати EyeBalls - это два токена. Можно поставить расширение (extension) которое покажет сколько токенов на каждом слове.

    • @aleksandrshchepkin
      @aleksandrshchepkin Год назад

      А как это расширение называется?

    • @WillFalcon
      @WillFalcon Год назад +2

      @@aleksandrshchepkin embedding-inspector, показывет количество токенов на запросе, вес, айдишник и тп

    • @WillFalcon
      @WillFalcon Год назад +2

      @@aleksandrshchepkin ещё есть расширение tokenizer , более компактно, раскрашивает промпт поделив на токены

  • @ForsakenSandpaper
    @ForsakenSandpaper Год назад

    А что если я хочу просто стиль волос потренировать, это точно также работает?

  • @ip8858
    @ip8858 Год назад

    Чем ембединг отличается от чекпоинта?

  • @yerysh
    @yerysh Год назад +1

    крутой чувак ) Спасибо тебе большое )

  • @CosmoDzen
    @CosmoDzen Год назад +1

    Очень путано... При всем уважении к вам. Постарайтесь не прыгать с мысли на мысль, а делать какую-то одну, тяжело очень понимать когда одновременно про 10 вещей пытаетесь говорить

    • @XpucT
      @XpucT  Год назад +2

      Тренируйте мозг. Без обид. Я Вас услышал без упрёка и также без упрёка говорю, что видео сделано так, как нужно.
      Я ни в одном месте не перепрыгнул, чтобы мысль не ушла от слушателя. Да, иногда сумбур наступает, но нельзя как раз идти дальше порой, не раскрыв полностью тему. Просто доверьтесь =)

  • @AlexBond_007
    @AlexBond_007 Год назад +1

    Все проверил, все работает! Стиль прекрасно передает. Делал по другим гайдам ничего не получалось, потому что мало токенов давал или же их не указывал, и Learning rate не правильный ставил. Убил часа 4 на генерации и все было впустую, а тут 10 минут и готовый результат!!! Спасибо за видео!

    • @XpucT
      @XpucT  Год назад

      Спасибо, что поделился 🙏

  • @D1MAKRAT
    @D1MAKRAT Год назад

    Спасибо большое, Хачатур!)
    55

  • @alexrengised6072
    @alexrengised6072 Год назад +1

    спасибо за проделанную работу!

  • @МаксимЛукьянов-э5щ

    Будет ли у нас выпуск для новой версии stable 2.4? Я установил её, а смотрю меню отличается и в настройках не вижу этих параметров, что у тебя на предыдущих и данном видео...

    • @XpucT
      @XpucT  Год назад +1

      Открой второе видео в плейлисте.

  • @fluck8086
    @fluck8086 Год назад +1

    жду видео по гайду на анимацию :)

  • @valideliyev8243
    @valideliyev8243 4 месяца назад

    Как написать промпт: кот-человеческий, не на четырех лапах, а на двух ногах. Когда я пишу "cat humanoid", "human cat", это не работает, он все равно даёт изображение кота на четырех лапах.

    • @Fietla
      @Fietla Месяц назад

      Попробуйте anthropomorphic

  • @mikhailkazakou1971
    @mikhailkazakou1971 Год назад

    Вы говорите что Embedding не желательно не приметь к людям, но на civitai много примеров применения к конкретным людям.

    • @XpucT
      @XpucT  Год назад

      Смотря что примерять.

  • @Jacob-ut4hc
    @Jacob-ut4hc Год назад +4

    Видео супер, конечно хотим еще! Было бы интересно узнать про мердж моделей, safetensors, pruned и как самому их создавать (обрезать чужие для экономии места)

  • @masta8278
    @masta8278 Год назад +1

    а что за модель он хвалил в предыдущих выпусках?, у него названа вроде как ffff

  • @vasogagnidze3325
    @vasogagnidze3325 Год назад +1

    фига еще один видос, лайк

  • @saberfighterlwing
    @saberfighterlwing 3 месяца назад

    Не понятно два момента.
    Если мы считаем 23 токена, почему в промпте было посчитано как 25/75?
    Почему, если sdarts уже содержит a girl в промпт вместе с ним мы все-равно пишем a girl? По логике получается, что a girl у нас два раза

    • @XpucT
      @XpucT  3 месяца назад

      Ниже в комментах обсуждали.

    • @saberfighterlwing
      @saberfighterlwing 3 месяца назад

      @@XpucT ох... недолистала с первой попытки. Про количество токенов в комментариях нашла. Получается, что надо на посчитанное prompt ориентироваться.
      Про sdarts a girl - не нашла ((((

  • @darda3335
    @darda3335 Год назад

    А что будет если я создам несколько таких эмбендигов и подключу их, они все будут работать? Можно тренировать на другой модели не 1.5 а на делибери например?

    • @XpucT
      @XpucT  Год назад +1

      Можно и это будет работать.
      И да, сейчас лучше делать на Deliberate.