Stable Diffusion - Train
HTML-код
- Опубликовано: 23 дек 2022
- Угадайка:
win10tweaker.ru/forum/topic/s...
Telegram: t.me/win10tweaker
Boosty (эксклюзив) ➜ boosty.to/xpuct
Где брать модели:
🔥 Deliberate: deliberate.pro
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Stable Diffusion плейлист: • Stable Diffusion
#StableDiffusion #Train #Art - Наука
На данный момент это видео является хорошей базой для понимания, однако, на данный момент мы полностью перешли на LoRA: ruclips.net/video/A15M4cbUM5k/видео.html
спасибо!
Благодарю за видео! Hypernetwork не могу найти кнопку, уже вроде все обновил и конфиги твои с бусти поставил, все равно там под кнопкой Generate у меня 5 иконок и одна кнопка (styles)
@@MAX.VERAGO под кнопкой generate средняя иконка show extra networks и слева при нажатии появится несколько вкладок. Вторая и есть hypernetworks.
Выдаёт ошибку при Preprocess, какие есть варианты решения ?
SD через Googl Colab (AUTOMATIC1111),
Путь к папке указываю на ноуте ( на Google Disk тоже указывал и тоже ошибка)
Ошибка выглядит вот так :
FileNotFoundError: [Errno 2] No such file or directory: '/content/gdrive/MyDrive/sd/stable-diffusion-webui/E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1'
а в полном виде вот так:
Error completing request
Arguments: ('task(b3e667en3wvtjil)', 'E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1', 'E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1\\trumpet1png', 1200, 512, 'ignore', False, False, False, False, 0.5, 0.2, False, 0.9, 0.15, 0.5, False, False, 384, 768, 4096, 409600, 'Maximize area', 0.1) {}
Traceback (most recent call last):
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/call_queue.py", line 56, in f
res = list(func(*args, **kwargs))
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/call_queue.py", line 37, in f
res = func(*args, **kwargs)
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/ui.py", line 19, in preprocess
modules.textual_inversion.preprocess.preprocess(*args)
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 22, in preprocess
preprocess_work(process_src, process_dst, process_width, process_height, preprocess_txt_action, process_flip, process_split, process_caption, process_caption_deepbooru, split_threshold, overlap_ratio, process_focal_crop, process_focal_crop_face_weight, process_focal_crop_entropy_weight, process_focal_crop_edges_weight, process_focal_crop_debug, process_multicrop, process_multicrop_mindim, process_multicrop_maxdim, process_multicrop_minarea, process_multicrop_maxarea, process_multicrop_objective, process_multicrop_threshold)
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 146, in preprocess_work
files = listfiles(src)
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 34, in listfiles
return os.listdir(dirname)
FileNotFoundError: [Errno 2] No such file or directory: '/content/gdrive/MyDrive/sd/stable-diffusion-webui/E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1'
Сломал stable diffusion, переустановил, час по новой надо галочки расставлять и все такое, сделал памятку)
5:48 модель
5:52 отключить HN
6:27 saves optimizer
21:09 все галочки Modules
22:46 название
23:04 overwrite на всякий случай
23:14 Create HN
23:26 Preprocess галочки не нужны для человека
31:06 Train Hypernetwork Learning rate 2e-5:800, 8e-6:1600, 5e-6
32:12 редактирование py.ui
37:02 max steps 3200-10000, количество фото 12-38
41:11 read parameters поставить галку
43:15 выбрать свой HN
43:35 папка с фото для обучения PNG
43:42 содержание файла custom
46:27 нажимаем Train
custom.txt
a photo of a [filewords]
a cropped photo of the [filewords]
the photo of a [filewords]
a photo of my [filewords]
a close-up photo of a [filewords]
a close up photo of a [filewords]
a bright photo of the [filewords]
a cropped photo of a [filewords]
a photo of the [filewords]
a good photo of the [filewords]
a photo of one [filewords]
a close-up photo of the [filewords]
a good photo of a [filewords]
legendary
святой
у меня тоже SD сломалась после тренирвки( Ты не понял из-за чего? И как ее переустановить? Просто снести всю папку и установить снова?
@@MrZuzlik я обычно так делаю, да. Удаляю папку и по новой) А ломается когда как профессионал начинаешь в настройках копаться, вписывать всякие аргументы в батник и т.д.)
23:34 указываем папки
Вот это да. Если ты продолжишь пилить такой годный контент по нейросетям, ты будешь самым крутым ютубером по теме, как минимум в РУ-сегменте. Мое почтение! Как же ты хорошо разобрался во всех деталях, во всех галочках. Круто что ты разбираешься сам во всем, а не тупо пересказываешь чужие туториалы. Короче ты крутой чувак.
Запретят в снг. Власти сказали что дипфейки и такие картинки противоречат партии
@@Ruinskiy лучше такую власть запретить.
@@Ruinskiy эм.. если я не ошибаюсь то нельзя такое делать без разрешения посторонних людей... Себя для личного пользования и друзей для их личного пользования вполне норм. Да и пока ты не меняешь лица на порноактерах думаю всем пофигу на эти дипфейки.
да, очень круто, а теперь по этому гайду, расскажи, что такое batch size, gradient accumulation steps, latent sampling methods =) Не получится, потому, что он половину всего упустил, много воды и сумбура, мало структуры, можно было бы сделать лаконично, по сценарию, с разбором важных вещей и без воды и без метаний то туда, то сюда. Мне, например, много вещей не понятно, от просмотра часового лайв монолога понятнее не стало. Прошу не расценивать меня как хейтера, просто отзыв человека, который на начальном этапе в разборе темы обучения нейронок, но немного понимает как работает обучение реальное. Исходить нужно всегда из задачи. прим. хочу обучить нейросеть на выдачу результатов в моем стиле. прим. Хочу ввести: Дуэйн джонсон на пляже играет в теннис в стиле 'мой_стиль'. Для этого нужно обучить нейросеть. Для начала нужно ознакомить с базовыми понятиями и терминами, объяснить что такое обучение гиперсети, как оно работает и т.д. (в кратце) дальше показать пример, есть вот обученная гиперсеть, заходим в текст2имг, пишем: Дуэйн джонсон на пляже играет в теннис в стиле 'мой_стиль' или Джеймс Кэмерон на марсе ездит на велосипеде в стиле 'мой_стиль'. Теперь приступим к обучению, хаходим во вкладку трэйн... далее все четко и по пунктам. Это так в моем представлении называется хороший гайд. А куча сумбура, пусть и с полезной информацией - это "крутой чувак", "вау", "ну ты шаришь", но никак не отличный гайд. Еще раз прошу прощения если слишком резко. Это я к тому, что не всегда восторженные возгласы толпы - показатель качественного обучения. Мб чувак не шарит в аннгглийском, пытался смотреть англ гайды нифига не понимая, а тут наткнулся на первое видео на русском и у него от этого факта восторг и хорошие отзывы, хотя он даже еще SD не установил.
Вроде бы видео сделаны просто и без монтажа, но при этом приятные и полезные. Спасибо!
Без монтажа снимают только профи которые знают тему от и до)) им подписота просто до задницы, их распирает, от инфы))
2e-5:800,8e-6:1600,5e-6
Хачатур, спасибо, что делитесь с нами результатами своих исследований!
Очень информативно, очень ёмко, максимально разжевано.
Честно говоря кайфую от подачи материала - приятный, хорошо поставленный голос, расслабляющий музон на фоне, капелька юмора, можно слушать часами :)
Многих спикеров приходилось слушать и хороших в том числе, но автор твердо обосновался на верхней строчке моего топа :)
❤❤❤
Мужик, ты просто ГЕНИЙ! Спасибо большое за твою работу! Колокольчик подписка однозначно) Ждем следующих видосов!
Потрясающие видео, очень понятно и очень помогает освоить эту тему. Спасибо!
Огромное спасибо!!!! Пару дней мучался. Все никак получалось, чтобы нейронка так похоже начала рисовать. Благодаря золотой пропорции в настройках , которые вы указали , все отлично получилось!
Подскажите, пожалуйста, почему после Train не появляется Hipernetwork в меню: Script\ X/Y/Z plot ? Использую Google Colab. Может надо руками перенести созданные файлы?
Вчера только посмотрел выпуск про скрипты и уж не надеялся, что так скоро выйдет видео по train и вот тебе Серёжа... Спасибо Хачатур!
Спасибо за подробное видео. С радостью слежу за новыми выпусками)
Большое спасибо за информацию, обязательно буду пробовать. Буду ждать следующие видео.
Ставлю лайк не глядя) Все просили и все получили) Спасибо!🙏
Спасибо за проделанную работу! 👍
Хорош! Спасибо что делаешь мир лучше!
Так это повод зайти в магазин, взять чаёк и печеньки. Вечер не пройдёт напрасно.
Крутой фотоальбом у тебя. Видео топ, про аи рассказываешь идеально!
Спасибо 👏 наверное за полгода первый ролик, который смотрел на Ютубе на нормальной скорости х1)) годнота👍 интересно как далеко шагнут нейросети лет через 5-10, может новые профессии появятся, промптеры по нейросетям, например))
Я тут в Германии уже серьёзно видел объявление "Ищем Промптера для GPT-3". :)
@@vadimkrs вот вот👍
Обалденное видео! Благодарю!!!! Так и знал, что опять всю ночь спать не буду :))
Спасибо за контент. Делал подборку что посмотреть для начала внучке, что бы самому всё не обяснять)) По поводу Указания возраста. Хотя вариант не абсолютное решение, но с указанием возраста я тоже намучался)) Моё решение, использовать при указании только подсказку пола и возроста. Вместо woman или girl, двадцатилетняя она))) - (she_20yo) или ((cute_she_20yo)) и т.д. Как правило получается наиболее близко к желаймому. Правда иногда приходится усиливать скобками, поскольку давит остальная подсказка, как правило подтягивая к некому среднему возрасту. Чем сложнее подсказка или отрицательная подсказка, тем сильнее нужно напрпвить внимание сети на возраст модели скобками.
Вы в видео несколько раз упомянули (например на 19:55 ), что файлы с описанием не нужны если обучаете предмет, но нужны когда обучаете людей, но потом так и не используете их, говоря, что достаточно "a man" прописать и не указывать, чтобы итог был гибким и мог делать любую одежду и внешность. В итоге они нужны или совсем нет? :-) И какой разброс допуска внешности фотографий? Лицо анфас и чуть вбок это точно, очков или каких-то посторонних предметов быть не должно, свет и цвет должны быть нормальными и примерно одинаковыми везде (чтобы не было какой-нибудь фотки из клуба с красным неоном на лице), нужно как клоузап лицо так и несколько (1,2, сколько?) фотографий ниже груди, нужен разнообразный фон (или лучше везде сделать белый как на паспорт?). Дальше уже вопросы, нужно ли обязательно разную одежду? И можно ли? Должна ли быть одна и та же прическа или стрижка? Должен ли быть открыт или закрыт рот? Нужны ли фото в полный рост? Всё это поломает трейн или наборот разнообразит его? Было бы здорово точно так же как Вы всегда делаете математически рассчитать и сказать что именно должно входить в идеальный батч для обучения, допустим, из 20 фото: 10 анфас как на паспорт с одинаковой прической как база, 3 фото анфас по грудь для гибкости, 3 фото с чуть повернутой головой, 2 фото с другой прической, 2 фото с улыбкой с зубами, 1 фото пьяного и спящего уткнувшись в подушку. :-D Чтобы чётко понимать какая должна быть идеальная подборка, чтобы получилось качественно, не считая мелких дефектов о которых Вы упоминали наподобие родинки-второго кадыка и вмятинах на черепе. :-) Я просто тоже люблю не наобум делать, тем более что у меня карта слабая (1060 6гигов) и у меня цена ошибки при трейне это целая ночь потраченная впустую, а мб и ночь + половина дня. Как обычно, это не какое-то требование, а пожелание, чтобы раз и навсегда все (как минимум мои) вопросы по изображениям для трейна закрыть. Есть ещё вопрос трейна определённого предмета, например огнестрельного или холодного оружия, или инструмента по типу топора лесоруба. Там все такие же правила или нет? Здесь или на Бусти.
согласен с тобой, интересно было бы узнать ответы на эти вопросы. Как обучать нейросеть на другие предметы, например одежду, интерьер, экстерьер. Должен быть один и тот же человек под разными ракурсами сфотографированный в одной и той же одежде, либо можно использовать разных людей, но в одной и той же одежде?
Спасибо за вашу работу!
Ждемс следующего видео!
Спасибо за очередной видос по нейросетям, не смотря на то что все кажется разжованным, пока смог только генерить нечто похожее на себя, а как сделать из себя вот этого злодея как на заставке так и не понял, как только добавляю что то в запрос уже становлюсь не похож на себя )) И все еще хотелось бы подобное видео по арту, например игровые мечи, автоматы или танки.... что бы можно было сгенерировать нечто новое... Но в любом случае спасибо за труд, тут один раз тренировал сеть 2 часа и то устал ))
boosty.to/xpuct/posts/203b79e7-a98d-4b1f-a6d2-c80b52d904a7
Супер, спасибо большое❤️
Если сделаете видеоурок по тому, каким образом можно создавать концептуальные арты с одними и теми же персонажами в духе комиксов, это вообще взорвёт сеть, поскольку такого инструмента ждёт множество людей, которым хочется рассказывать свои истории, а учиться рисовать, осваивая новую профессию с нуля - уже практически нереально!
к сожалению, а может и к счастью) это пока не возможно.
Большое спасибо. Очень хотелось бы все же услышать как тренировать LORA. А еще о разнице между hypernetwork, VAE и обученными моделями формата ckpt.
В одном видео человек говорил что лору лучше не тренировать. оно того не стоит, но решать конечно же вам)
Блин так круто. Я обучал ( пытался обучать и получается ну мягко говоря не очень) а тут все по полкам разложили. Вы сударь ВСЕОТЕЦ !!!! Респект. Было бы круто посмотреть как можно сделать видео ( нарывался на ютубе что делают типа клипы даже)
Эпичный прыжок кота :) Смотрю дальше, лайк уже поставил!
Боже, чувак спасибо. Ты и есть боженька, так что дважды спасибо
Сергей! Реально все круто!!!) НО! Блин! Понимаю, что трудно обо всем рассказать. Очень важно осмыслить результат того, что в итоге получается, а вы так быстро перепрыгиваете с одного на другое, что не успеваешь понять и осознать что из этого вышло). Хотя заметил все программисты такие)))
Огромное вам спасибо! Единственный канал с годным контентом по этой нейросетке! В дополнение к уже отснятым роликам, я безумно хотел бы чтоб вы сняли тутор по созданию анимации, по типу "нейросеть показала историю мира" где поочередно сменяются картинки плавно перетекая из одной в другую, начиная от динозавров заканчивая цивилизациями будущего.. Как делать подобные шедевры? Лично я всегда поражаюсь, когда вижу такие ролики, думаю куча народу как и я ждут подобный тутор от Вас!
Взял на заметку 👍
@@XpucT Подскажите пожалуйста, а возможен ли рендер на нескольких видеокартах одновременно? Например на майнинг ферме
@@user-hp5qh9gy2i не проверял ┐('~`;)┌
Кот так прыгнул, я думал сейчас Хачатура опрокинет вместе со стулом😂
Сначала подумал, что будет какой-то шляпный видос полный воды на целый час, но по факту очень хороший, подробный и полезный гайд, один из лучших наверное по stable diffusion и вдвойне приятнее, что он на родном языке :)
Автору точно респект
Жалко ПК слабый, но лучший сериал по Stable Diffusion продолжаю смотреть)
Благодарю за инфу по параметрам обучения! Особенно за 12 портретов! Мои опыты показали, что этого достаточно для создания персонажа. Можно продолжать обучение удачными образцами из её же выдачи. Могу только добавить, что пара фоток не совсем анфас(15-45 градусов поворота головы) в этих портретах будет очень полезна.
А можно ли при обучении добавлять в теги картинки конструкции типа "it is wooden" или "it is plastic"? И ещё - какие есть инструменты для массового добавления тегов? Мне ещё надо бы массовое извлечение в один файл, чтобы понимать в целом, какие конструкции она сама предпочитает использовать для пометок.
Угарные теги она она иногда выдаёт, надо сказать.
И euler - это Эйлер🙂
Большое вам спасибо!!!
Христ, спасибо за шикарнейшие видосы! Вопрос: в видосе использовали модель f222_v1, вчера качнул и использую deliberate_v2, можно ли обучать на deliberate_v2. Это первый вопрос. Еще один: можно ли отдельно обучить руки (фоткаем руки) и лица (соответственно лицо крупным планом). Ну и финальный: проходят ли встречи в мск, с удовольствием бы встретился и посидел)
Привет, 👋
Как раз перед сном гляну =), будет круто, спасибо.
Ляяяя - мне нужно следующее видео!
Хачатур привет
на 11-й минуте, где ты показываешь свои фотки, там тебя не узнать прям.
Как всегда ролик крутой, респект.
Хачатур, спасибо за видео. Супер информативно! Но есть вопрос. Не совсем понятно, как после тренировки генерить картинки с лицом натренированной модели. Может расскажешь нам, своим ученикам. Было бы круто!
Здравствуйте, уважаемый Аванесян! Хотел выразить Вам огромную благодарность за Вашу инструкцию с подробной настройкой и акцентированием на всех важных мелочах! Мне по работе нужно было научиться обучать Stable Diffusion, я потратил более 8 часов на различные туториалы, как зарубежные так и на русском языке. Столько сил и нервов было убито в попытках заставить работать Dreambooth, её настройке и попытках разобраться во всём, столько переустановок SD и всё бестолку. У меня то выскакивала ошибка о недостаточной видеопамяти, то генерация начиналась, но была настолько медленной, что смысла не имела от слова совсем. Особенно если учесть, что последняя версия Dreambooth переработала интерфейс и доступыне параметры настроек, гайдов по которым ещё ни у кого нет. Да и не имеет смысла, так как на гитхабе жалуются что программа больше не работает на картах от 8 гб, даже с костылями по оптимизации (я пробовал всё). Я уже отчаялся и думал забить на всё, но тут случайно наткнулся на ваше видео... Вы дали ясность во многих моментах, которые я до этого не понимал, что оказывается всё намного проще чем я думал. Я сделал всё по вашей инструкции и о чудо, всё заработало! Генерация на 3200 шагов прошла за 30 минут, после чего никаких ошибок программа не выдала. Так как изображения я подготовил правильные и отредактировал по вашей рекомендации (убрал фон, отобрал правильные положения лица), итоговый результат потрясает! Это именно то, чего я хотел! По этому я хотел бы отблагодарить Вас донатом на Boosty. Спасибо ещё раз!
Спасибо большое! Это очень приятно ♥
Привет! У тебя судя по всему видеокарта 8 Гб?
@@umanskir.2 Именно так, 3060 ti
@@aearone спасибо за ответ. Думаю, с моей 1060 6 Gb, всё-таки лучше работать с колабом.)
так он же говорил не надо убирать фон. Или убирать? Или размыть? Я чето запутался уже
Здравствуй!
Я понимаю, что моя просьба не имеет отношения к теме видео - но всё-же хотел попросить кое-о чём:
Я думаю было бы полезно снять видео про флаги у Enum'ов (аттрибут [Flags]), которое было бы в плейлисте с уроками по C#, так как я заметил что некоторые люди создают куча полей типа bool, когда можно элегентно обойтись одной переменной с этими самыми флагами!
У меня получилось, правда со второго раза :) пересматривала видео два раза, вникала и пошагово выполняла. Просто хотела поделиться и оставить комментарий в поддержку канала.
Не могли бы вы рассказать про морфинг между между своими моделями в качестве видео. например из Светы в рыбу), через трансформацию форм. Если это возможно. Есть дополнение Deforum, но там очень тяжело контролировать данные и можно ли делать переходы между моделями. Спасибо!
круто , спасибо ,понравилось
А у меня в настройках нет Hypernetwork, чтобы снять галочку...
Спасибо за труды!!! Я даже Win 10 Tweaker купил. )))
☝ Красавчик
Спасибо за полноценный гайд, очень помог, результаты кстати на самом деле выглядят лучше по сравнению с dreambooth
Хотелось бы посмотреть ещё про твои настройки внутри всех вот этих файлов программы и про стили
Низкий поклон тебе Боярин !
Возможно, вопрос к последующим видео. Как научить нейронку рисовать двух разных персонажей в одном изображении , не используя dreambooth ?
Да чтож такое, я лпять иду домой. А тут такая радость.
Благодарю!
интересно очень!
Как всегда потрясающе. Посмотрел три видео на одном дыхании. Жаль только нет времени пробовать. Даже послушал некоторые комментарии. В частности очень полезный от Denis Evdokimov . Правда жалею что не делал скриншоты. Что теперь делать пересматривать заново, но уже на первой скорости И походу ставить все галочки? Нет какой-то возможности повторить всё одним махом? Может какой-то экспорт настроек от метро - Хачатура, или кого-нибудь другого. Чтобы нигде не ошибиться и по 100 раз не переделывать, а просто вставить свои фотографии и нажать старт.
Спасибо огромное
Было бы круто увидеть гайд на обучение для моделей на основе sd 2.1 х768)
Лучший!
большое спасибо за вашу работу, комментарий в поддержку автора
Спасибо 🙏
Респект за крутейший гайд!
Вопрос:
- Если я в очках, и хочу что бы я генерировался хорошо именно в моих очках... Датасет лучше готовить с фото где я исключительно в очках, или можно миксовать? или ваще лучше без очков?
Я пробую по разному, но это мои первые модельки, и пока всё хреново получается )))))
Привет, потыкал дримбуф с твоей моделью работает хорошо, довели до ума наконец. Только одна проблемка. Нет туториалов нигде, каждый тыкает вслепую. Хачатур спасай интернет, ты нам нужен
Большое спасибо за уроки! У меня вопрос, как мне при последующей генерации сохранить телосложение человека? Если на всех фото для тренировки есть только лицо но нет фигура, как нейросеть сможет ее определить? Стоит ли грузить в папку для тренировки фотографии в полный рост?
Это надо же было так все запутать, кто захочет повторить хрен разберется :) Написал в prompt template - [filewords], а тренировал в папке без описаний, только с картинками
как всегда круто
23:06 Я заметил, что галка перезаписывает только .pt файл с самой гиперсетью, а прилагаемый к ней optim-файл (если он создан во время обучения) не перезаписывает. Если его не удалить вручную, то обучение новой гиперсети начнётся с шага, записанного в optim-файле.
Блин, ссылку на артстейшн походу обрезало... Посмотри пожалуйста в комментариях на проверке =) Просто чтобы понимал, о чем я говорю. В общем =) Пишу еще раз, но без ссылки... Во-первых, большая благодарность за то, что записал такое подробное видео, а во-вторых - вопрос =) Если у меня есть 3D-модель, моя работа в полный рост, потом closeup и прочие. Как правильно тренить? Сразу кидать все ракурсы или отдельно - лицо, отдельно - туловище и отдельно - closeup глаз там, носа и так далее? Подскажи пожалуйста. Я сейчас кинул на 10 000 шагов и все ракурсы. посмотрю, что получается.. но мало ли =) на всякий спросил =) Хорошего дня и настроения!
во вкладке Train, отсутствует вкладка "Preprocess images" Можно узнать, почему?
Еще вопросик, если можно? Google Colab часто вылетает и прерывает тренировку молели, приходится все перезапускать. Можно ли дотренировать модель, например, с 4500 шагов, которые он успел сделать, до заявленных 10000 и закончить тренировку?
Здравствуйте. А на train можно тренировать только людей, или подойдут фоны без персонажей в простом мультяшном стиле тоже? Как я понял, create hypernetwork - как раз для меня подходит, то есть Train во вкладке train не нужен?
Applying xformers cross attention optimization после окончания обучения уже больше 5 часов, интерфейс не запускается. Тренировал через гугл colab. Когда оптимизирует и стоит ли вообще ждать? Вообще когда тренированая модель считается законченной и можно отрубать скрипт, перезапускать и начинать пользоваться натренированной моделью?
Так и не нашел где проверить или выключить Hypernetwork... Под кнопкой Generate нажал Shov extra а там во вкладке Hypernetworks: "Nothing here. Add some content to the following directories:
C:\stable-diffusion-portable-main\models\hypernetworks"
Вроде все скачал как было в видео. Куда дальше двигаться, как бороться? Спасибо за ответ :)
Актуально ли сейчас смотреть это видео, или дальше будут более новые и иные способны трейна?
спасибо большое за видео, не получается сделать обучение, запускается и пишет Training finished at 0 steps.
AssertionError: Training models with lowvram is not possible
можете посоветовать, пожалуйста? Что делать
Гений нашего времени!
повторно смотрю и хочу еще раз поблагодарить за видео) сначала делала на своем компе - не вывез😵💫 в гугл коллабе все получилось.
Скажите, пожалуйста, а у вас не было проблем с появлением hipernetwork в меню Scripts\ X/Y/Z plot после обучения? В папке на гугл диске результат убучения есть, но как подключить к обработке - не пойму!
Приветствую. Пользуюсь portable версией с Вашего канала. Два дня назад отлично получилось натренировать модель через hypernetwork по видео. Однако вчера хотел попробовать потренировать на другом человеке, но обнаружил, что из вкладки "Settings" пропали настройки hypernetwork и возможность его выбора. Также в script-> X/Y plot исчез пункт hypernetwork. С чем это может быть связано?
Перенесли, одна из мелких кнопок рядом с generate
Какая актуальная модель для обучения на данный момент? Deliberate 2.0 подходит?
А если я использую sd через google colab, в нем можно так же обучать свою модель? Если да, то как загрузить фотки? Через данный способ не получается 😒
Спасибо за видео . Вопрос, почему при припроцессе происходит бесконечное ожидание процесса ?
Воооо, круто! Подписался
Спасибо за видео! А как сохранить свои настройки train ? Каждый раз приходится ручками расставлять (при перезагрузке ui или перезапуске sd), сорри за глупый вопрос.
Ещё раз уж пошла речь про обучение, как я понял Textual Inversion это единственная нужная штука для обучения, что Лора и остально это костыли. Но их прям повально сейчас на всё учат, чем они отличаются от обычного TI в техническом плане? Кроме процесса обучения. Мне тоже казалось, что они работают лучше и стабильнее чем TI которые я тестил. Так же одно из расширений для А1111 имело какой-то доп. параметр с весами "Separate UNet/Text Encoder weights". Он разделял Лору на "UNet Weight" и "TEnc Weight" и я играясь с ползунками этих весов получал результат более стабильный нежели просто давал вес Лоре. Можете как-то это объяснить? Здесь или на Бусти.
У меня что то ни так ставлю Read parameters (prompt, etc...) from txt2img tab when making previews он останавливается ровно на том СТЕП где нужно показать картинку ( Значение 100 - save an image to log directory every N steps, 0 to disable) на 99 он пишет что тренировка окончена.
Привет! Я опытным путем выяснил, что тренировать имеет смысл разными пачками кейвордов последовательно, чтобы отсеять и по форме, и по содержанию шум качественно
В последний версии hypernetwork вызывается через поле с Promtp-ами. А вы говорили о переобучении на основе старого фильтра hypernetwork, после обновления в ui так делать невозможно?
Уже нет.
Хачатур, привет.
Тестил OpenAi? Что думаешь по поводу него? Настолько ли прекрасен рай, как его рисуют? :)
Привет 🖐
Если Ты про ChatGPT, то на Boosty выкладывал. Посмотри. Ссылка под видео 👍
Круто! Запустил обучение. Находил гайд через дримбут, но получилось плохо. Поглядим, что будет в результате этого урока. Но судя по картинкам уже сейчас выходит намного круче )
Напиши о результатах 👍
@@XpucT результат офигенный! Я поражен насколько классно получается )
@@Igrom_Gamedev
Сижу как ребенок и жду полный разбор промтов диффузии.Вопросов на самом деле много по ней.
Как менять или генерить нужное освещение?Как заставить сгенерить только одного персонажа бегущего и смотрящего вправо(в профиль так сказать)Как поставить нужный объект по центру?
И кто то ещё сомневается кто круче всех в этой теме??Я снимаю шляпу перед автором,моё почтение,материал подаётся настолько подробно что сами разрабы SD наверное столько не знают),плюс один поклонник,очень жду новых видосов по данной теме.
Решил натренировать SD на своих фото и поискав в облаке за несколько лет, нашёл подходящих штук 10.
Было принято решение нащёлкать себя прямо здесь и сейчас. С футболками не заморачивался, поэтому сделал 30 фото топлес с разных ракурсов на однородном фоне...
Через пару часов на отчётных картинках (которые генерировала нейронка каждые 100 кадров) смотрел проно с собственным участием.. в перемешку со шкафами и табуретками. Не все, но штук 10 попалось.
И что интересно, в генерации txt2img выдавало неплохие результаты. Тот же джокер как на превью.
🤟
Я тут подсчитал примерно, если я поставил 3200 шагов то он у меня будет тренироваться примерно 17 часов. Можно ли ускорить процесс? Видеокарта у меня вроде не слабая GTX 1660 на 14 гб оперативной памяти 🤔
Интересно это обучение глобальное ,то есть если я буду повторять и писать именно что вы ,он выдаст тот же предмет (глиняная игрушка) или это локально?!
Привет! Большое спасибо за видео. Есть такой вопрос. Видео было записано еще до релиза модели Deliberate, и hypernetwork тренирует на модели f222. Имеет ли смысл при создании hypernetwork сейчас использовать уже Deliberate?
Привет 🖐
На данный момент людей и персонажей лучше делать в LORA.
Посмотрите видео: ruclips.net/p/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq
Оно так и называется LoRA. На превью традиционно Я в роли Джокера.
@@XpucT спасибо!
Подскажите кто нибудь. Я натренировал модель на себе. Всё сохранилось в hypernrtwork и как теперь теперь её использовать для генерации своих изображений?
Кто-нибудь подскажите пожалуйста, а как на предметы натренировать? Чтоб он моделировал отдельно детали интерьера, чайники, микроволновки, ложки и пр.?
Спасибо за видео. Но у моей видеокарты не хватает мощей(( Сделайте пожалуйста обучалку для Гугл Колаб, понятно что на своем пк лучше без посредников так сказать и т.д., но тут выбор либо вообще не как либо колаб! Думаю не только я буду вам признателен в этом!