Stable Diffusion - LoRA

Поделиться
HTML-код
  • Опубликовано: 16 мар 2023
  • Portable LoRA ➜ github.com/serpotapov/Kohya_s...
    ► Boosty (эксклюзив) ➜ boosty.to/xpuct
    ► Telegram ➜ t.me/win10tweaker
    ► Discord ➜ / discord
    🔥 Deliberate: deliberate.pro
    🔥 Reliberate: huggingface.co/XpucT/Relibera...
    🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
    Плейлист Stable Diffusion: • Stable Diffusion
    МОЯ ВЕРСИЯ Stable Diffusion: • Stable Diffusion Porta...
    #StableDiffusion #LoRA #kohya_ss
  • НаукаНаука

Комментарии • 1,1 тыс.

  • @XpucT
    @XpucT  17 дней назад +3

    *✓ НАИБОЛЕЕ АКТУАЛЬНАЯ ИНФОРМАЦИЯ ПО LORA СЕГОДНЯ В ЭТОМ ВИДЕО:*
    boosty.to/lergeyseonov/posts/c29517db-ce64-4f3f-8144-8d70961e642e?share=post_link

  • @WarstarPr
    @WarstarPr Год назад +103

    Ну, пора разводить девушек на 15-30 фото лица, а не эти ваши "нюдцы"

  • @Zenobeus
    @Zenobeus Год назад +6

    Thanks for taking the time, I'll eventually get through the whole thing, but at the moment, this has been a helpful perspective of what a LoRA is.

  • @boi6514
    @boi6514 10 месяцев назад +17

    Абсолютное уважение за это видео. И за portable версию. Всё работает просто как часы, что для open source вообще и для экосистемы A1111 в особенности просто фантастика. Мало кто понимает, какой труд был проделан автором, чтобы все могли это поделать у себя дома.

  • @nkoffski
    @nkoffski Год назад +48

    Просмотрел все видео на х2, голова кажется нагрелась и сейчас начну стрелять лазерами из глаз. Зарядился зарядом Хачатура. И кажется люди теперь медленно разговаривают. Но реально круто, инфа топ, спасибо! 🎉

    • @user-gl3ou4jg3u
      @user-gl3ou4jg3u 6 месяцев назад +1

      Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))

    • @fox082
      @fox082 4 месяца назад

      Видео записано для коренных москвичей. Чтобы успевали понимать что к чему. Уральцы, например, сами по себе разговаривают и понимают быстро, примерно в 2 раза быстрее, чем обычно подбешивают москвичей. Уральцам лучше смотреть на скорости х2

  • @defensez0ne
    @defensez0ne Год назад +3

    Самое лучшее видео про обучение модели! Благодарю 🙏

  • @Delorean_ARS
    @Delorean_ARS Год назад +4

    Вот и я добрался с работы до видосика!!! Ты как всегда Зажег!))))

  • @IIaIIaI1Ia
    @IIaIIaI1Ia 4 месяца назад +2

    Огромнейшая благодарность за такой туториал. Всё получается на ура!)

  • @evgenys4942
    @evgenys4942 Год назад +6

    Мега лайк! Спасибо большущее, за труды!

  • @grxxndxxm
    @grxxndxxm Год назад +7

    "...эпох, эпок - должно быть 1, иначе у вас будет ПОЛНЫЙ ЕПОК, если Вы выберете число больше..." 🤣спасибо за видео, на одном дыхании

  • @vladimirvova
    @vladimirvova Год назад +6

    Шикарно. Благодарю вас

  • @protommo
    @protommo 11 месяцев назад +1

    Респект и уважуха! Спасибо за детальное описание! Очень круто! Это просто магия.

  • @andypodvalic9245
    @andypodvalic9245 Год назад +2

    Ахаха, обожаю эти вставки с дисторшном
    контент как всегда невероятно полезный, спасибо!

  • @aearone
    @aearone Год назад +4

    Наконец-то дождались, инструкция по LoRA! Спасибо что прислушиваешься к просьбам подписчиков, это неоценимо)

  • @IceShtopor
    @IceShtopor Год назад +2

    Дождался LORA. Услышал все что хотел. Спасибо.

  • @romzes96
    @romzes96 10 месяцев назад +1

    Божественный видос! Спасибо большое! Очень интересно побежал фоткать себя и друзей) Очень информативно и на самом деле коротко) Я смотрел на 1.5 всё очень понятно от и до конца. Спасибо!

  • @morzellen
    @morzellen Год назад +6

    Каждый раз, когда вижу новое видео Хачатура, радуюсь как ребёнок новому мультику)

  • @aartees11
    @aartees11 Год назад +107

    Прошло уже больше 8-ми месяцев с угроз блокировки ютуба, что ещё сильнее подтверждает слухи, что ютуб не блокируют, только потому что ждут выхода нового ролика от Хачатура 👍

  • @user-oj4bb7ne3v
    @user-oj4bb7ne3v Год назад +1

    Наконец-то !!!! Только сейчас смотреть начинаю, надеюсь поможешь как всегда, спасибо !!!)

  • @BredEbanyiTV
    @BredEbanyiTV Год назад +2

    ура ура новое видео, вечер пройдет восхитительно 😘👍

  • @albertoflacoa
    @albertoflacoa Год назад +4

    Круто. Ждал ваш ролик по этой теме. Хотелось ясной-ясности, а то есть там всякие..☺️

  • @valthrudnir
    @valthrudnir Год назад +15

    Tremendous video, I love the cut through the BS style. I learned a tremendous amount from this video and in general all your videos. I need to translate and subtitle them but that even gives me more in depth information as I have the transcript as well :) Cheers XpucT!

    • @muhitdin5590
      @muhitdin5590 8 месяцев назад +1

      Half of the translation will be just curses and butthurt 😂😂

    • @VitalikMc5
      @VitalikMc5 7 месяцев назад

      It's boring to live on earth without knowing Russian language.😆

  • @user-gl3ou4jg3u
    @user-gl3ou4jg3u 6 месяцев назад

    Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))

  • @inspector7099
    @inspector7099 Год назад

    Спасибо! учусь пользоваться SD по Вашим роликам, и только по Вашим рекомендациям! все четко и понятно, доходит быстро)))

  • @artkirius
    @artkirius Год назад +4

    Превью суперское 🔥🔥🔥

  • @MOLOKOmilk
    @MOLOKOmilk Год назад +4

    Титанический труд, шикарный контент. Этот час пролетел на одном дыхании. Количество полезной информации прямо запредельное. Спасибо!!

  • @nevervhood
    @nevervhood Год назад +2

    Просто- ОГОНЬ! Хачатур- это "делай как я". И это правильно. Молодца.

  • @user-it2zf6pd8d
    @user-it2zf6pd8d Год назад +1

    Хачатур, большое спасибо! Есть что проверить и попробовать)))

  • @user-qu4dz5of2l
    @user-qu4dz5of2l Год назад +8

    Спасибо, за ролик, как всегда всё чётко и по делу в отличии от многих остальных блогеров! Очень жду роликов по коллабу, т.к лучше тебя никто не объяснит.))

    • @XpucT
      @XpucT  Год назад

      Привет 🖐 Уже:
      boosty.to/xpuct/posts/987f6426-909a-4066-8429-8fd4f377728e?share=post_link

  • @albertoflacoa
    @albertoflacoa Год назад +32

    Досмотрел. Кайф (со вставок - тащусь от души).
    Для любителей «шоб с картинкою», типа меня, есть
    2 способа (простой и совсем простой) добавить обложку для Lora:
    1. Рядом с файлом, где находится тётя «Лора», кладете любую png картинку с таким же именем.
    Пример: iloveYourmomyLora.png
    2. Генерируете картинку, открываете вкладку с «Лорами» в UI. и наводите курсор на название «Лоры». Над ним появится надпись «replace preview”. Вот на нее и кликайте.

  • @le6681
    @le6681 Год назад +10

    Огнище!!! Хачатур и Сергей - мега спасибо! Лора - круть!

  • @h8edgetv
    @h8edgetv Год назад +1

    Спасибо за видеоуроки, пользуюсь SD очень давно, в том числе и Deliberate, но только недавно узнал, что у тебя есть канал, где я почерпнул много интересного, тк самоучка.
    Кстати, по моему опыту обучения лоры (после твоего видео пробовал разные способы), наилучший результат выходит при хороших качественных фото 512x768.
    И, если обучать с однотипных селфи, то кидать более 15-20 фото действительно будут лишним, но если обучать по разнообразным фото (разные прически, эмоции, одежда) + если у человека разные образы (например, фотомодель), то в этом случае допустимо и 35-40 фото, так даже результат будет лучше, наиболее близок к оригиналу. Но важно, чтобы выражения лица должны быть разные, плюс нейросеть копирует одежду, фигуру (что важно, если делаешь девушку) и разные причёски, что тоже потом даёт лучший результат.

  • @emrita4827
    @emrita4827 Год назад +12

    Жаль нельзя два лайка поставить, спасибо за сборку и видео!
    У кого не работает и ругается на [CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.14 GiB already allocated; ] (как было у меня , видяха 1080 GTX) предлагаю сделать так:
    1) протереть глаза и запускать трейн на вкладке Dreambooth LoRA =)
    2) поставить Mixed/Saved precision : fp16/fp16,
    3) optimizer на ADAMW,
    4)лайк подписка Хачатуру

    • @vicdun12.21
      @vicdun12.21 10 месяцев назад +1

      тоже на адам8 ошибку выдавало((( 1080Ti

    • @user-kc2lk2ub7v
      @user-kc2lk2ub7v 8 месяцев назад +1

      такая же фигня на 1080ТI, поддерживаю на таких настройках работает

    • @orgax
      @orgax 6 месяцев назад

      Ошибка на 3070 была. Теперь виснет на 0% на 1 шаге, если это типа такая скорость то тренировка 30 картинок будет буквально полгода длиться, не понимаю что не так настроено

    • @joniharon511
      @joniharon511 6 месяцев назад

      ​@@orgax у меня вовсе даже тренить не начинает, пишет что не найден xformers.

    • @Demonfrompripyat
      @Demonfrompripyat 2 месяца назад

      это всё понятно, но он сказал, что будет всё говно и оно так и есть. тоже 1080ti

  • @niktosss666
    @niktosss666 Год назад +11

    Для тех кто будет искать - куда кидать LoRA.json 7:30 минута. Мало-ли.
    Так-то на видео виден путь. Но так будет полезней.

  • @matthewr1926
    @matthewr1926 Год назад +5

    Хачатур, большое спасибо тебе за твой НЕВЪЕБЕННЫЙ контент
    И Cереге лютый респект за лору
    Салют из Торонто

  • @panbacchus9657
    @panbacchus9657 Год назад +2

    Вот это сейчас реально неожиданно было) не за горами анимация походу😅

  • @SergeyCG
    @SergeyCG Год назад +2

    Хачатура, спасибо за твои работы!
    Лайвхак ребята - Если у вас выдает ошибку - это значит вы не успеваете удалить папку sample, ее надо моментально как появилось удалять, тогда всё работает!

  • @alexp2179
    @alexp2179 Год назад +17

    Если кто не понял что за папка такая "samples", которую типа надо удалять - не указывайте входную папку и выходную в одно и то же место и никакие samples удалять не придется. Ошибка из за того что во входной папке должны быть только папки для обучения, у которых в имени задано количество шагов, а в имени папке samples нет никакой цифры, отсюда ошибка. Если выходная папка будет другой то и samples будет создаваться там и не будет мешать обучению.

    • @SimonsCatSE
      @SimonsCatSE 9 месяцев назад

      Спасибо, начало хоть что-то делать, но теперь ошибку CUDA out of memory даёт, не знаю почему, видюха 8гб

    • @alexp2179
      @alexp2179 9 месяцев назад

      @@SimonsCatSE для начала нужно оставить только изображения 512*512, только batch size=1 и взять невысокий network rank типа 32 или меньше и Alpha (они вроде тоже влияют на память)

    • @SimonsCatSE
      @SimonsCatSE 9 месяцев назад

      @@alexp2179 спасибо, буду пробовать

  • @ne-sci
    @ne-sci Год назад +4

    Ну неплохой гайд. Только есть один момент вы пошли по долгому пути. Там ечть вкладка tool. В которой просто также вставляете папки, папку с проектом и каличество проходов. Нажимаете сгенерировать папки и вторая серая кнопка отправить папки. И он распределит и создвст все как нужно.

  • @user-jd2uw2iz5m
    @user-jd2uw2iz5m Год назад

    Спасибо, за "приветы")) Всё по делу👍

  • @multogen
    @multogen Год назад +1

    Огромное спасибо! Лучший ролик по теме

  • @araders5852
    @araders5852 Год назад +5

    Существует ли связь между количеством материала для тренировки LoRA и ее итоговым качеством?

  • @ComplexTagret
    @ComplexTagret Год назад +4

    Вопрос: если тренировать на основе растений, нужно ли напротив этих 30 фотографий в текстовых файлах детально указывать, что на фото? Или СД сам разберет, где какой стебелек и листочек? Думаю, лучше спросить, чем делать большой, но, возможно, бесполезный кусок работы.

  • @NikitaBirukovich
    @NikitaBirukovich Год назад +1

    Спасибо за качественный контент!

  • @Dusterlog
    @Dusterlog 8 месяцев назад +1

    Очень крутые гайды и все же есть вопрос смотреть каждый часовой ролик в поисках конкретной части долго. Однако вот есть вопрос у меня есть модель которая была тренирована на основе другой модели и я нашел более крутую модель на которой хочу переучить текущую. Есть ли у вас где то гайд или ролик где эта тема затрагивается. Спасибо большое.

  • @user-zy9ov2vm8q
    @user-zy9ov2vm8q 6 месяцев назад +14

    Про Эпоки зря так. Штука крайне полезная, и позволяет сравнить этапы обучения и выбрать наиболее удачный. (я обучал стилизованных персонажей. По достижению определенного количество шагов, трейн начинал становится хуже, и тут сильно помогла выборка разных эпох). Кроме того, это позволяет создавать некие точки сохранения, что в случае форс мажора можно будет начать именно с них, а не с нуля. Насчет размера, тут возможно уже претензия скорее не совсем актуальна, так как видео было сделано относительно давно, и модели обучаются на более высоком разрешении. Тут нужно уже смотреть на саму модель и информацию, на каком разрешении она обучалась. Но подъем до 640 уже разительно увеличивает качество последующих генераций. Ну и ещё, стоило уточнить почему (Папку нужно указывать где лежит папка с фотографиями) - это позволяет Лору обучить сразу на нескольких объектов. Т.е. по факту в один файл лора мы можем на обучении поместить, к примеру, сразу нескольких людей. Название же папки с фотографиями определяет тригерное слово обучаемого объекта.
    Возможность дообучить модель тоже крайне полезная и нужна не только когда (вы дурак и прервали обучения).
    Нужно к примеру, если вы делайте огромную модель, и используйте больше 100 изображений. Как если делайте определенный стиль или обучайте лору нескольким персонажам.
    И если у вас трейн прошел не совсем удачно и какие то моменты она подтянула плохо. (имеет смысл собрать ещё материалов с более наглядным внешним видом тех частей объекта, что нейронка не совсем корректно поняла). Я так поступил с лорой персонажа, которая нейронка съела вместе с одеждой и стала считать что одежда часть её тела. Я закинул в неё три удачные генерации оголенные модели, но с её анатомией и пропорциями. И после такого дообучения, лора стала более гибкая в подборе одежде к необходимому персонажу.

    • @dianaorion2
      @dianaorion2 3 месяца назад

      Уважаемый юзер. А вы не скажете, где можно узнать, КАК продолжить обучать лору или модель, если пришлось трейнинг остановить? То есть я не знаю, какие файлы куда ставить, чтобы продолжить. Где-то есть инфа по этому поводу? (огромное спасибо, если ответите)

    • @user-zy9ov2vm8q
      @user-zy9ov2vm8q 3 месяца назад

      @@dianaorion2 Заходите в раздел "Parameters" и ищите раздел "LoRA network weights", там кнопка в виде файла будет. В открывшимся окне выбирайте последний сохраненный сейфтензер с лорой. По факту, таким образом можно дообучать даже скаченные с интернета чужие файлы LORA. Только важно, чтобы параметры Network Rank совпадали.

    • @kail1672
      @kail1672 14 дней назад

      Если вы разрабатывали определённые стили, то можете пожалуйста поделиться своим опытом или дать ссылки на полезные руководства/справочники, так как сам хочу обучить модель конкретному стилю рисования. Буду очень вам благодарен.

  • @user-jc9wt2yr4b
    @user-jc9wt2yr4b Год назад +119

    Спасибо огромное за portable Lora, а то с обычной установкой парился 2 часа, в итоге забил. А тут клик, клик и усе в ажуре. И как всегда крутая подача видео, для нормальных и тупых))). Живот болит от ржачки)) Все очень понятно, и результаты шикарные!!! Спасибо, от души!!

    • @K-A_Z_A-K_S_URALA
      @K-A_Z_A-K_S_URALA Год назад +6

      приветствую слушай я вот все делаю по видео ...загружаю светлую модель голубоглазую..а выходят китаянки темные ..что делаю не так подскажешь?..уже 3 раза тренировал..и 16 фото добавлял и 20 и 30))не пойму(((

    • @ketrinkate
      @ketrinkate 8 месяцев назад +1

      @@K-A_Z_A-K_S_URALA та же история. уже несколько раз делаю и все бесполезно(

    • @Sekeluhaa
      @Sekeluhaa 3 месяца назад

      @@K-A_Z_A-K_S_URALA ​ @ketrinkate попробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат

    • @Sekeluhaa
      @Sekeluhaa 3 месяца назад

      ​@@ketrinkateпопробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат

    • @K-A_Z_A-K_S_URALA
      @K-A_Z_A-K_S_URALA 3 месяца назад +1

      хорошо благодарю@@Sekeluhaa

  • @tomk-ot4ju
    @tomk-ot4ju 11 месяцев назад +1

    Хачатур, премного тебе благодарен
    понятно, просто, качественно, смешно, классно. учиться довольно приятно благодаря тебе

  • @user-rw5gn6st7e
    @user-rw5gn6st7e Год назад +1

    Спасибо было очень интересно !!!!

  • @roman.bulando
    @roman.bulando Год назад +43

    Спасибо за видео! Ждал от тебя эту тему)
    И по поводу имени японца (осторожно, японист в чате): если это именно японец и у него так и написано Kohya, то он будет по-русски записываться как «Коя». Там в чём фишка: буква h используется для показания долгого звука. По-японски транскрибироваться азбукой будет こうや, на транслите kouya, но по факту типа «кооя» с долгой о. Но суть в том, что в именах собственных приняли систему, где это длинное о будет удлиняться через h, как в междометии «oh». Но у нас по-русски при написании иногда удвоение опускают, а так Коя или Кооя будут одинаково правильными. А так обычно видят Х и говорят Кохя или Кохья без понимания этих нюансов. Решил об этом написать отдельно, раз ты поднял эту тему в видео. Очень ценю, что ты так внимательно к именам относишься!

    • @XpucT
      @XpucT  Год назад +13

      ☝ Красавчик

    • @Reality-Games
      @Reality-Games Год назад +1

      я его вообще костей называю) ему все равно а мне проще)

    • @morskoyzmey
      @morskoyzmey 10 месяцев назад

      @@Reality-Games а Коля еще проще

    • @user-ss9ey9gh2v
      @user-ss9ey9gh2v 10 месяцев назад +1

      Выучить кану быстрее, чем эти тупорылые правила транслитерации. Видимо сидели проффесора и за гранты думали, чтобы ещё такое напридумать чтобы наукообразнее выглядело

  • @avaro7655
    @avaro7655 Год назад +25

    Такой вопрос, а если нужно обучить лору на длинных фото (512х768), то насколько испортиться результат если изменить размер в настройках? Или в таких случаях нужно расстягивать каждое изображения в граф. редакторе до размеров 512х512?

    • @XpucT
      @XpucT  Год назад +35

      Если весь сет будет из 512x768 и в дальнейшем генерация будет точно в таком же 512x768, то смело пишем в LoRA 512x768 - это то исключение, которое допустимо. Спасибо за вопрос.

    • @EZHEVNKA
      @EZHEVNKA 9 месяцев назад

      @@XpucT правильно же, что если лора обучена на 512х512 то при генерации артов 512х768 с использованием этой лоры, качество лоры будет не таким? или вообще лучше генерить без нее и потом в инпеинте подставлять?

  • @borgeborg
    @borgeborg Год назад +2

    Лайк и респект, не глядя!)

  • @yaroslavdmitriev3028
    @yaroslavdmitriev3028 Год назад +1

    Ну наконец-то новое видео!

  • @Araxiscool
    @Araxiscool 10 месяцев назад +3

    "От эффекта ДаблЁбл никто не застрахован" просто вынесло
    Бля лучший учитель

  • @user-id5vg2fp1s
    @user-id5vg2fp1s Год назад +5

    Как всегда прекрасен!
    Спасибо за проделанную работу! Смотрел видео от Оливио и других и вообще не вдуплил, как работает Лора. А тут прям в сердечко)

  • @5hem
    @5hem Год назад +1

    спасибо, долго ждал

  • @stas_lu
    @stas_lu Год назад +1

    тутор на час, все как мы любим))

  • @user-tj6xm1rz4e
    @user-tj6xm1rz4e Год назад +3

    Мастеру Хачатуру большое спасибо!

  • @MrDoomsday
    @MrDoomsday Год назад +7

    Спасибо за видео, я устанавливал руками все это раньше, вроде беспроблемно, был до 20 минуты вопрос установлен ли cudn для 30 и 40 серии, но молодцы добавили и это, снимаю шляпу)
    Про BF16 не знал, использовал с FP16 на своей 4070ti
    Данный способ был проще и быстрее для меня, чем прошлое ваше видео про Train
    Спасибо что тратите время как разработчик и разбираете то, чем мы пользуемся, обычный человек никогда бы не разобрался в некоторых моментов.
    Продолжайте дальше в том же духе! Для видео надо уже добавлять дисклеймер что любые перемотки вы совершаете на свой страх и риск, потому что каждая секунда видео на вес золота)
    Ваша подача и сам контент на 200% окупает мою подписку на бусти
    Всех благ, Хачатур!

  • @ClipfilmRu1
    @ClipfilmRu1 Год назад +1

    Крутяк, как появится время попробую

  • @RomanBrickson
    @RomanBrickson Год назад +1

    Спасибо большое за видео !

  • @TimGood4
    @TimGood4 Месяц назад +3

    Привет, я так понимаю программа обновилась и этот гайд бпольше не актуален?)

  • @user-tn5dq8yn6q
    @user-tn5dq8yn6q Год назад +16

    Подача шикарна, как и материал....Ты сделал мой день, настроение супер

  • @luisferia5779
    @luisferia5779 Год назад +1

    проверил связку, хорошо работает спасибо

  • @user-tm3bh7mm5x
    @user-tm3bh7mm5x 3 месяца назад +1

    огромное спасибо за ваше потраченное время👍👍👍

  • @dedhatab4423
    @dedhatab4423 Год назад +6

    Огромное спасибо за видео! Очень подробно и понятно объясняется.
    А как происходит обучение сеток на основе визуального стиля художника? Когда полностью рисуются персонажи и окружение в этом стиле? т.е. с лицами понятно - нашёл 15-30 лиц персонажа и будет этот персонаж, но есть же сетки на основе работ комиксистов, например, и там любые персонажи и любое окружение в этом стиле.

  • @user-cd6px4lm3m
    @user-cd6px4lm3m Год назад +4

    Могла бы подписалась три раза. Я так хотела портативную Лору. Потому что все что в интернетах, это не для обычного обывателя. И когда я почти дозрела до установки всей этой страшной фигни, такая радость.

  • @_bulat
    @_bulat 8 месяцев назад

    Огромное спасибо за ролик. У меня один вопрос, на который нигде не смог найти ответа. Есть рендеры меча в разных ракурсах. Реально ли как-то обучить LoRA, чтобы сгенерированные персонажи держали этот или похожий меч в руках?

  • @serpotapov
    @serpotapov Год назад +1

    Ура! Новый видос!

  • @MrCoffeemill
    @MrCoffeemill Год назад +3

    Тоже мне разраб, не может написать приблуду для автоматического увеличиения размера камеры при повышении градуса пердакагорения, все руками крутит 🥴
    Шикарны видос, спасибо! 🥳

  • @DedBruzon
    @DedBruzon Год назад +3

    Хачатур, спасибо! Ты для меня новую вселенную открыл)) До этого я и в Миджорней баловался, зарегался в бета-тесте Леонардо, а тут оказывается эвона чо! Делиберейт + SD = потрясающая связка! Не смотря на то, что я актёр дубляжа, уже три дня сижу и генерирую, как дэбик картинку за картинкой и не могу остановиться. А теперь еще и Лариса подъехала (то бишь, Лора) Продолжай в том же духе, очень с юморком, грамотно и интересно рассказываешь, а главное - суть без воды. Суть от разраба, а не от неофитов.

  • @user-sv4le7rz6e
    @user-sv4le7rz6e Год назад +1

    Лучший, спасибо большое)

  • @ShadowPulseVibes
    @ShadowPulseVibes Год назад +2

    более доступного, с такой подачей материала я еще не встречал, огромное пасибо за материалы)))

  • @mdleo80
    @mdleo80 Год назад +4

    Премного благодарен! Отдельный респект за терпение и подробное разжёвывание для неспешных пацанов)

  • @TheRomixERR
    @TheRomixERR Год назад +3

    Ну ты неимоверно крутой человечище! Особенно нравится подача и со знанием дела. Я сам тоже люблю закапываться в самые недра! Спасибо!

  • @luciferixplay
    @luciferixplay Год назад

    Нужен совет по теме. Есть задача, сравнить несколько однотипных Lora между собой и проверить качество. С одинаковыми Seed изображения получаются качественные, но немного разные, т.к. использовались разные наборы фото. Как понять, какая из этих Lora более стабильная? Генерировать пакеты изображений по каждой с одним и тем же Seed и смотреть по кол-ву тех, что вышли лучше или есть другие методы?

  • @DonSalgerd
    @DonSalgerd Год назад +1

    Спасибо, просто топ.

  • @RelaxVolia
    @RelaxVolia Год назад +3

    Пожалуйста, подскажите, как сделать режим использования видеопамяти более щадящим?
    Не хватает памяти, пишет. В видеокарте установлено 4Гб (понятно, что маловато)
    RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:81] data. DefaultCPUAllocator: not enough memory: you tried to allocate 1638400 bytes...

  • @kinoman6469
    @kinoman6469 Год назад +4

    Добрый день! Спасибо за видео! Не могли бы вы пройтись по теме ошибок, в частности как решить проблему с ошибкой нехватки памяти: allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF. Сколько ковырялся с этой ошибкой и лазил по форумам, заметил что возникает она и на слабых вилюхах и на RTX последних поколений и не важно какой объем памяти. Реально большая проблема. Буду очень признателен.

  • @user-il1ik4hs4x
    @user-il1ik4hs4x 6 месяцев назад

    Спасибо вам. Материал агнище

  • @sergeys4949
    @sergeys4949 8 месяцев назад

    На карте 1060 6gb почему-то не хочет тренироваться - не хватает памяти. В конце видео вы сказали, что запишете видос про Коллаб для тренировки. Посмотрел все видео на канале - такого не было. Может хоть ссылку дадите на безглючный рабочий коллаб для тренировки?

  • @neuromaker
    @neuromaker Год назад +4

    Не, ну это 10 епоков из 10👍

  • @andrruta868
    @andrruta868 7 месяцев назад +9

    Устанавливал строго по инструкции. В интерфейсе отсутствует вкладка "dreambooth Lora". Пробовал запустить training во вкладках "dreambooth" и "Lora" - процесс всегда прерывается ошибкой "returned non-zero exit status 1" . Перепробовал все способы и опции, указанные здесь в комментариях и на других форумах - ничего не помогло. Если кто знает решение - напишите, буду благодарен.

    • @titaniMOZG
      @titaniMOZG 3 месяца назад

      Так же фигня. Читал, что в память упирается, но у меня 3070 и в диспетчере не вижу, чтобы память вообще как-то расходовалась активно.

    • @studiotrip9859
      @studiotrip9859 3 месяца назад

      в "Pretrained model name or path" укажи свой путь к .safetensors (у меня при открытии папки с моделями .safetensors файлов небыло и я просто дописал его название) файлам, ибо у меня по умолчанию стояло вообще E:/... хотя у меня даже диска E нет. Надеюсь вам поможет

    • @pgwglassmail707
      @pgwglassmail707 2 месяца назад

      Закройте консоль SD. Она занимает память. Одновременно две консоли SD и лора не должны работать.

    • @user-wl6ut6uy2c
      @user-wl6ut6uy2c Месяц назад

      Нужно в параметрах Optimizer поставить на AdamW, и Mixed precision на fp16, это более щадящие настройки для компа (для более слабых видюх), мб ты еще что-то неправильно поставил, но у меня были эти ошибки

  • @armanpoghosyan3400
    @armanpoghosyan3400 4 месяца назад

    shnorhakalutyan ahagain ognecir inch asem
    maladec

  • @escesc5315
    @escesc5315 4 месяца назад +1

    Спасибо большое, очень полезная информация для новичков!

  • @user-lu1bd7hj6l
    @user-lu1bd7hj6l Год назад +7

    хотелось бы видеть для расширения собственного кругозора: 1) результаты работы ресторфейса 2) признаки перетренерованности нейросети

  • @trendgiver
    @trendgiver Год назад +4

    Интересное дополнение, сначала я кропнул лицо или тело на исходных фотках дабы избавиться от лишних предметов, потом перевёл в формат 512,512 ,отключил бакетинг, все сеттинги как описано Хачатуром. Получилось неплохо, но потом в качестве эксперимента я настал их переводить в 512,512, а оставил в высоком разрешении и включил бакетинг, модель оказалась в разы лучше! По времени тренинга практически одинаково.

    • @smiledurb
      @smiledurb 10 месяцев назад

      Подскажи пожалуйста, а в настройках менял разрешение или использовал конфиг файл от Хруста без изменений?

    • @trendgiver
      @trendgiver 10 месяцев назад +1

      @@smiledurb В настройках у меня было стандартное 512 х 512. Я в последнее время вообще перешёл на lycoris, очень советую поэкспериментировать, там результаты порой получаются круче. Плюс я также заметил, что captioning, тоже играет немаловажную роль. И ещё, как и в случае нормальной лоры, если много картинок, то можно сократить колличество эпох.

  • @romanovru7080
    @romanovru7080 7 месяцев назад

    очень здорово , у тебя есть терпение для своей страсти 🫡
    успех

  • @user-wv8ww9zj4b
    @user-wv8ww9zj4b Год назад

    Шикарный мужчина, шикарно всё объясняет

  • @charleskraffty9034
    @charleskraffty9034 4 месяца назад +4

    Пришел к блогеру за учением, а получил пиздюлей))) спасибо за видео!

  • @8Fynjy
    @8Fynjy Год назад +9

    Ждём такой же подробный разбор как обучить чекпоинт

  • @BreadMur
    @BreadMur 5 месяцев назад +2

    Как же нравится бомбёж, Бальзас на душу.

  • @makimakins4349
    @makimakins4349 Год назад +1

    спасибо ты лучший учитель)

  • @itzpaco5539
    @itzpaco5539 Год назад +3

    I watch you alote and I really dont understand what are you saying in Russia, but understand the process, i only watch the mouse haha ty bro

    • @eyoo369
      @eyoo369 Год назад

      Same here, English subs would've been greatly appreciated

  • @user-jn1wm1lf2v
    @user-jn1wm1lf2v Год назад +3

    Всем привет!! ну вроде бы все сделал как на видео ..после удаления папки sample вылетает prepare tokenizer и процесс останавливается...Кто знает подскажите что это))))))

  • @Arnien77
    @Arnien77 Год назад

    Привет, спасибо за работу. Подскажите пжлс, как настроить скрипт x-z plot. чтобы сравнить результат с разными значениями лоры? от 0.1 - 1.0 к примеру

  • @ulyssesdonquijotelol
    @ulyssesdonquijotelol Год назад +1

    Спасибо! Для колаба обязательно запишите!

    • @XpucT
      @XpucT  Год назад +1

      Готовченко 👏
      boosty.to/xpuct/posts/987f6426-909a-4066-8429-8fd4f377728e?share=post_link

  • @candirsky
    @candirsky Год назад +6

    Вопрос: после нажатия Train Model процесс бесконечно зависает на этапе "prepare tokenizer". Все настройки сделаны по руководству. Mixed precision и Save precision - bf16, т.к. видеокарта 2070 Super. WIN 10. В чем может быть ошибка?

    • @user-mo8ng7gq6n
      @user-mo8ng7gq6n Год назад +3

      такая же проблема( Если получится выяснить как решить - напишите пожалуйста

    • @Viktor_Brig
      @Viktor_Brig Год назад +4

      То же самое, только скачал, поставил как сказано, сверяясь с каждым шагом и зависает процесс . Возможно это свежий баг, до этого скачанная неделю назад версия работала, только результат фиговый получался, нерабочие модели получались, в то же время модели лоры на колабе все норм. Решил снести и поставить свежую портайбл версию и такая засада.

    • @Viktor_Brig
      @Viktor_Brig Год назад

      Отключение брандмауэра и антивируса так ничего не дало, думал может виснет от того, что не может до этого токенайзера достучаться из--за ограничения сети, но похоже дело не в этом.
      Да, при закрытии выдает на несколько секунд инфу, ютуб все комментарии трет, при малейшем подозрении на ссылку, поэтому попробую текстом прописать:
      prepare tokenizer
      Traceback (most recent call last):
      File "путь к ranpy точка ру ", line 196, in _run_module_as_main
      return _run_code(code, main_globals, None,
      File "путь к ranpy точка ру", line 86, in _run_code

    • @konstantintokar8085
      @konstantintokar8085 Год назад

      Попробуйте поставить версию с гитхаба. Сейчас это сильно проще чем портабельная версия. Вообще SD так быстро развивается что такого рода проблемы выскакивают постоянно.

  • @CosmoDzen
    @CosmoDzen 3 месяца назад +3

    у меня работало нормально , но потом стало почемуто ошибка "A matching Triton is not available, some optimizations will not be enabled.
    Error caught was: No module named 'triton'" и время генерации на часы уходит
    помогите плиз.
    Короче, я выяснил в чем дело. Если запускать файл webui_Lora_only.cmd то тритон подключается и обучение сети идет быстро. если через вебуи.кмд - то время пипец какое большое и ошибка тритона.

    • @Kibermozgai
      @Kibermozgai 3 месяца назад

      Да, Хачатур этот момент не указал в видосе. Действительно разница огромная. Спасибо за то что написал в чём было дело

  • @yukanda1776
    @yukanda1776 9 месяцев назад

    Очень интересное и полезное видео, спасибо автору! Сделала все по пунктам из видео, все настройки как показано, но результат очень далек от того, что у автора. Очень сломанные лица, глаза плывут, голова не совпадает с телом( Может кто-то знает, где посмотреть как поправить или что может быть не так?