Христ, спасибо за работу! Вы первый встреченный на просторах Ютуба человек, который не просто показывает куда тыкать, а поясняет ЗАЧЕМ, и как это работает изнутри. Мне, как человеку, слабо дружащим с инструментами разработки, но желающим понять что и как работает, очень помогла информация из ваших видео. Поясняйте и дальше, очень ждем
Вы - великолепны не только как профессионал, но и как крутейший педагог. Чувствую себя подобием SD при его создании - встроенная система рухнула, какие то отрывочные знания улетели в блендер, где все перемешивается. Сама же личность тихо молится в углу об избежании окончательного распада и надеется, что позже, по мере изучения материала, создастся что то новое, логично упорядоченное. Но это пока на уровне надежды. Понимаю, что ничего не знаю, не понимаю, но очень стараюсь. Поглядим однако что далее у нас...
Больше, больше роликов про Stable Diffusion, главное не сбавлять темп. Спасибо тебе Хачатур за проделанную работа, просмотр твоих роликов очень экономит время.
@@eluiden не только по SD. Здесь есть уникальный контент. Раньше когда ролики выходили раз в полгода, это было прямо эпохальное событие, так как несло очень, очень практичное значение. Я даже не думал что Хачатур подсядет на нейронки, лично для меня это было приятным сюрпризом.
Все проверил, все работает! Стиль прекрасно передает. Делал по другим гайдам ничего не получалось, потому что мало токенов давал или же их не указывал, и Learning rate не правильный ставил. Убил часа 4 на генерации и все было впустую, а тут 10 минут и готовый результат!!! Спасибо за видео!
Христ - добрейшей души человек! Столько инфы, успевай только переваривать. И все это за лайк и колокольчик) Точно, бессеребреник какой-то. Некоторые только за промт стараются содрать от 20к и выше😮
Приветствую! Которую ночь не сплю из-за этих видосов, пока все не попробую никак не могу оторваться )) Я тут накидал несколько вопросов не по этому видео, а общих. Возможно, что-то пригодится для будущих роликов и наверняка это будет интересно и другим. 1. Тренируется ли нейросеть на локальном ПК, когда ей пользуешься или ее навыки остаются на том же уровне независимо от кол-ва циклов работы? 2. Совершенствуется ли Hypernetwork при её многократном использовании? Субъективно, результаты с каждом разом улучшаются... 3. Как именно работает Restore Face и в каких случаях имеет смысл ее включать? 4. Принципиальная разница между оболочками Invoke AI и Automatic111, что лучше? 5. Насколько и как влияет выбранный размер картинки при генерации изображений? Что делать, если необходимо максимально высокое качество (выше 2000 px), а все модели почти тренятся на 512 px? 6. Если трейн прогонял на одной модели (к примеру, Dreamlikediffusion), а потом захотел использовать Hypernetwork на другой, например Protogen x5.8 Rebuilt (с учетом той же версии SD в базе обеих моделей) можно так делать или надо тренировать под каждую модель отдельно и заново? и очередное огромное спасибо за то, что ты делаешь, пока во всем рунете более подробной, четкой и максимально полезной информации по SD я не встречал!
1. На самом деле не важно, на каком ПК была тренировка. Результаты всегда будут отличаться в пределах погрешности. 2. Увы, но нет. Однако, за 1 сеанс он делает всё лучше и лучше. Это да, это Вам не кажется =) 3. Только для лиц крупным планом. В остальном помогает VAE. Если не помогает, включаем Restore face. 4. Automatic1111 лучше потому что там больше. Как бы InvokeAI ни старалась быть дружелюбной, всё равно отстаёт по возможностям. 5. highrex увы не поможет, только upscale. Подробнее про него в видео расскажу. 6. Результат несомненно лучше будет, если Hypernetwork использовать именно на той модели, на которой она тренировалась.
Спасибо, круто! два вопросика возникли: 1е - я правильно понял, что Эмбейдинг это в одно ключевое слово вписывается группа слов, но еще и с примером что они должны означать конкретно, а не из всего что знает сеть по этим ключевикам, но не больше чем сеть знает уже. т.е. обучить стилю можно, но только тому что уже в базе. Гиперсеть, это типа фильтра в инстограм, но в место цвета - признаки человека, и чем лучше объяснить/обучить, тем более похож будет результат, но в самой сети данного стиля/персонажа нет, она результат окрашивает в признаки даже которых нет в сети. Дримбут вписывает тренеруемые данные уже в сам ckpt, меняя весь объем данных с разной степенью воздействия и уже генерит в выдачу с учетом новых данных добавленных к ее "знаниям"? 2й вопрос у меня вытек =) из первого, это как можно совмещать разные стили? Допустив можно слить 3-4 ckpt, данные будут не добавлены, а именно смешаны, что повлияет на результат, но можно будет генерить .. ну .. новый актер 2023 года обнимает новую актрису 2023 года которых не было известно ранее. Можно "до обучить" в ckpt несколько новых "концептов" (как они названы в дримбут), и выдавать смесь этих данных, тех же актеров или стилей новых в дизайне. А гиперсети? К ckpt добавить 1н слой гиперсети, а два? Или двух людей, или их смесь, или среднее из двух стилей которых нет в ckpt? В ckpt можно смешивать (:1.2),(:0.8),(:0.5), а сетками есть возможность? Спасибо за видео!
Видео уходят в сторону завлечения зрителя с разными уже казалось стандартными "блогерскими уловками" в плане монтажа и подачи. И это круто.. Как офигенно обыграл прыжок кота под музыку, это было так просто и так круто. А видео, как всегда понятным языком) спасибо!
по поводу 75 токенов, писать можно и больше. Есть теория чанков, по которой 76 токен (1й во 2 чанке) будет иметь приоритет равный первому токену первого чанка.
В видео затронут был такой момент, что модели не понимают промты, если их не обучили им. Хотелось бы узнать, есть ли способ выпотрошить из файла модели информацию, какие промты она понимает
Хоть я половину слов и не понимаю, но слушать интересно) На днях 2 часа искал Фотошоп крякнутый на 32 бита. Смотрю подписанный Христ, все работает идеально)
@@XpucT Я обязательно учту и как будут появляться вопросы буду спрашивать. Но я и так с каждым видио узнаю много нового. Заинтересовала тема с Гугл Колабом, буду разбираться.
Ждем еще видосы ) Кстати мне заходят по часу видосики, даже жалко людей, которые жалуются на то, что долго. Надо еще постараться поискать ,чтобы так информативно было.
спасибо тебе за такое познавательное видео, теперь я понял что этот ИИ это не просто генератор бесполезных картинок, ведь если разобраться то эта штука может расчитать все что угодно , только подставляй ей примеры учи и проси результат
Спасибо! Можно предложить тему к одному из след. видео? Как делать шаржи, карикатуры в том числе и на основе натренированных hypernetworks? Чтобы сохранялась узнаваемость черт даже в утрированном или мультяшном виде. Спсб.
От себя добавлю, что в X/Y plot в Hypernet str. играюсь настройками больше единицы (т.е. в пределах 1 - 1.4), это приближает к нужному эффекту, но на бОльших значениях появляются неприемлемые деформации. Отмечу, что в Settings - Hypernetworks Strength больше "1" выставить нельзя. Есть ли другие способы? Спсб.
Спасибо! (Знания: Ваших 4 просмотренных ролика) ВОПРОС: Мне нужно получить уникальный художественный стиль на примере конкретного художника. Он включает в себя как бы всё. Это комиксы. 1. На основе какой модели делать тренировку? Той, что Вы здесь порекомендовали? 2. Если это целый стиль и включает в себя не токмо лица, сколько нужно для такой дрессировки картинок и токенов, что бы описать весь мир этого художника? Ведь тема может быть ковбойская и космическая. И еще я не могу понять с размерами картинок. Как их получать большого разрешения, хотя бы 1200 пик. ? Если задавать такой размер, то получается в лучшем случае винегрет и бред обкуренного стафилококка. И как тренировать, сразу задавать такое разрешение? Или это не наши методы? Спасибо за разъяснение!
Лучше делать тренировку на 1.5, да, потому что на её основе, как правило делаются другие модели. То есть Ваш Embedding будет с большей вероятностью совместим, если делать на 1.5. Если в художестве много элементов, то есть вообще смысл создать свою модель. Но это уже другая история. Для этого нужен Dreambooth, где от каждого изображения требуется подробное описание. Чтобы получать изображения на своих моделях в высоком разрешении, обучать нужно на высоком разрешении. Если на чужих, то просто Upscale. Никуда от этого не деться. Но сразу скажу, что оптимальнее всегда будет 512 x 512. Это разрешение выбрано неспроста. Именно на нём меньше всего встречаются неожиданные деформации.
Ну наконец-то! Очень ждал =) Потому что по сути, мне не интересно обучать на себе, а вот свои стили туда закинуть и сделать вариации - как раз самое то =) Большая благодарность за это видео! Вопрос - если пробовал Remix в Midjourney, как делать такое же в SD? =) Когда берем одну картинку, например железного человека, вторую картинку - кукурузы и оно смешивается и дает результат в виде нового концепта =)
@@t0rango ну я ж не то имею ввиду... идея не в промте. а в смешивании картинок... промт дает не тот результат. Видимо вы не пробовали Midjourney фичу =)
Здравствуйте, подскажите, пожалуйста, как через train сделать стиль рисования, к примеру, взять фото моего лица и в img2img перерисовать в стиль моего рисования, фото с моей отрисовкой могу скинуть
Добавил символические ссылки из win10tweaker, теперь у меня 1 общая папка с моделями на 3 сборки Stable Diffusion. Теперь не надо плодить кучу копий моделей на ПК по 4гб. За эту програмулину спасибо)
😭хр...во, что Вы только на Boosty, а Patreon под запретом, очень хотел подписку оформить, так как посмотрел, что там не просто годный контент, а о....ый🤩🤯
Приветствую, очень благодарен за ваши видео по SD. Посмотрел Train, дополнение к нему, это видео и x/y plot. Появилось больше понимания. Хотелось бы узнать от вас нюансы по трейну на мультяшных и аниме моделях. Тренировал хайпер нетворк под задачу : есть лицо анимешное, нарисованное знакомым художником - хотел получать арты с этим лицом (понимаю что анимешные лица очень похожи но у этой есть свои особенности) в результате выдаёт не плохие результаты близкого шота лица с разных ракурсов если промпт простой и минимум уточнений даже особенности зубов передаёт( персонаж вампир). Но стоит ввести full body или промпты с позами и прочие промпты с костюмами окружением и тд. то начинает генерить лютую дичь времён первых нейронок))) Тренировал на Anything 3 по вашему видео, может быть к такой задаче нужен особенный подход ? Буду рад ответу, спасибо)))
OH MY GOOOOOOOOOOD! 😆 невероятная круть. мы прям бахаем СТИЛЬ. Киберпанк, гта5, что угодно Я не понял, мы можем надёргать картинок из интернета в нужном стиле или нам нужны сгенерированные нейросетью изображения? Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki] уже яснее Для этого метода нужна видеокарта с 8гб+
Видео супер, конечно хотим еще! Было бы интересно узнать про мердж моделей, safetensors, pruned и как самому их создавать (обрезать чужие для экономии места)
может сделаете рубрику , картинки от зрителей? которые вы сможете создать близко к оригиналу? будет занимательно посмотреть что и как вы делаете что бы добиться результата
Спасибо за видео! Но есть вопрос, подскажите пожалуйста: Делаю embending на модели 1-5. Ввожу все токены указанные в видео. Беру за референс картинки в стиле Samdoesart. Но по итогу получается так, что embendig работает и повторяет стиль исходя только из токенов. На картинки в Стиле Samdoesart из папки, на которую ссылался, вообще не похоже. Что мог сделать не так? Буду благодарен за ответ)
Есть предположение что обучение ломают COMMANDLINE_ARGS --xformers или --no-half-vae в общем у меня было куча параметров и он вообще не обучался, а когда сделал на чистом запуске, то обучение заработало. Но это только предположение...
Ну щё - лайк, подписка, комментарий для продвижения - пилите контент, укажаемый! Ну а если серьёзно, очень информативно, мифо-уничтожительно, по делу. Разве что негатива хотелось бы поменьше - тема новая и сложная, ажиотаж вокруг неё большой (в узких круга), не удивительно, что люди пока не понимают толком, что к чему. Результат говорит сам за себя, кому надо тот поймёт и сам сделает выводы.
Низкий поклон за видео! Возникла пара вопросов: можно ли использовать несколько embedding одновременно? А также хранить файлы embedding в одной папке, чтобы быстро переключаться между стилями? Или каждый раз вынимать из папки, где вы правой кнопкой мыши перетаскивали файл? Кстати, а можно ли применять embedding в img2img? Загрузил я, к примеру, фотку 512×768 пикселей и применил к ней embedding. Спасибо за ваши ролики😋
Можно в папке Embeddings хранить сколько угодно файлов.pt Если в prompt используется имя какого-либо, то его Embedding будет использован при генерации. Вынимать и класть Embedding можно в реальном времени, не перезапуская сервер. ОДНАКО, если файл.pt именно пересоздать внутри Stable Diffusion, нажимая на Create Embedding, то Stable Diffusion не увидит подмены. Именно по этой причине говорю, что нужно вынимать файл, нажимать Generate, потом снова класть обратно файл. Если файлы готовые, рабочие, трогать их не нужно, валяются себе и прекрасно. Если в папку Embedding положить Embedding, например, _cinematic.pt_ и прописать в prompt это: _a car, cinematic effect, high quality_ То генерация будет заменять слово cinematic на то, что сидит в Embedding. Если файл _cinematic.pt_ убрать в реальном времени из папки и снова воспроизвести тот же prompt, то он будет учитывать строго сам prompt и это можно проверить, смотря в самый низ отчёта. То есть так мы точно увидим, что система работает, как и написано в документации в реальном времени. Он как бы "отслеживает" наличие файла. ОДНАКО, повторюсь, если мы перебьём файл _cinematic.pt_ создав новый на вкладке Train, то Stable Diffusion будет не просто считать, что не было подмены, он ещё и юзать будет то, что у него в памяти (то, что было до замены новым).
12:44 По токенайзеру у тебя 25 токенов, а не 23, rutkowski и eyeballs на два токена разбиваются Если не изучал - посмотри расширения Tokenizer и Embedding Inspector
Пожалуйста прокомментируйте: когда учишь селфи модель на своем стиле, то при добавлении разных весов в одну модель в какой то момент они начинаются смешиваться( Если добавлять в одни и те же веса много объектов, начиная с 2ого, иногда 3его объекта они начинаются смешиваться
У меня какая то ерунда получается на эмбендинге, может потому что видео карта 3000 серии или я хочу бОльшего результата от инструмента( но в результате картинки получаются какие то "психоделические" не смотря на то, что картинки примеры совсем другого характера и стиля. Очень жду видео по созданию модели, мне как художнику это важно и интересно! Спасибо за крутые обзоры!
Большое спасибо за все ролики, наиболее внятный материал по SD! Хочется еще поднять одну тему: SD умеет рисовать аниме, но оно не всегда нужно. Хочется натренировать свою модель с четким лайном и своей спецификой светотени, но при обучении стилю узнаваемости не получается, он передает чисто цвета и общие объекты. Может у таких иллюстраций есть другие методы обучения?
Хачатур здравствуй, можно ли перерисовать на свой стиль фото человека, сохранив узнаваемость оригинала, без обучения и тренировок? (И без sms и регистрации)
Друзья, вопрос немного не в тему видео, но почему, при изменении размера вывода картинки с 512х512 на какой то другой, нейросеть начинает рисовать не одного персонажа а двух трех, а то и сразу шесть? ПРичем еще недавно вроде не было такой проблемы.
Самый главный вопрос: как у тебя так быстро загружается модель с расширением safetensor. У меня минут по 5 грузится, а у тебя 3 секунды. ckpt где-то секунд 30 у меня. Это потому что у меня не SSD?
Не совсем понимаю использования этой проги простоым обывателем. Однако подход Хачатура к какой-либо теме, впечатляет. Будь-то уроки по C#, либо эта прога. Респект за такую подачу.
Крутой автор! Прям хочется лично пожать руку за такой труд!) Вопрос: как можно осуществить такой сценарий? "есть 10 разных промптов, на их основе сделать 10 разных картинок каждого описания и всё это поставить в очередь, а самому пойти часик погулять"
Ура, новое видео по SD, приятный сюрприз) Про мировое сообщество анимешников посмеялся 😂 Очень классно узнавать что-то новое, особенно когда так хорошо всё объясняют, надеюсь дождусь как нибудь и темы Dreambooth. Спасибо за видео! (И да, я не знаю кому надо покороче, я бы хоть 4 часа смотрел подобные видео хаха)
Привет, спасибо за видосы. Очень емко и доходчиво. Вопрос про эмбеддинг. Есть задача, заэмбеддидь конкретный стиль изображений, что бы совсем любой промт в итоге выдавался в этом стиле. Сейчас может быть будет несколько сумбурно, прошу понять. Я хочу что бы СД генерировал чистый flat vector без градиентов, с хорошими осознанными формами и в разных под-стилях внутри этого стиля. Моя проблема в том, что "внутри" flat vector есть куча очень сильно отличающихся подстилей. А главное, что любая иллюстрация это очень сильная стилизация привычных объектов реального мира. Условно говоря холодильник не прямоугольной формы, а трапеция и т.д. Когда я собрал набор картинок который бы включал в себя хотя бы 1 изображение в интересующих меня стилях, получилось 24 картинки. Я затрейнил эмбеддинг, но получилась чушь. Если не задавать промт точно описывающи одну из картинок, результат мягко говоря плохой. В связи с этим вопрос, имеет ли смысл пытаться упихать все что мне нужно в один эмбеддинг или разумнее отступиться и создать под каждую уникальную реализацию стиля свой эмбеддинг?
Будет ли у нас выпуск для новой версии stable 2.4? Я установил её, а смотрю меню отличается и в настройках не вижу этих параметров, что у тебя на предыдущих и данном видео...
👍Как всегда отличный видос.Но есть 1 вопрос, когда обычные смертные смогут скачать вашу сборку со всеми настройками,норм цветами интерфейса и дополнениями?
Христ, спасибо за работу! Вы первый встреченный на просторах Ютуба человек, который не просто показывает куда тыкать, а поясняет ЗАЧЕМ, и как это работает изнутри. Мне, как человеку, слабо дружащим с инструментами разработки, но желающим понять что и как работает, очень помогла информация из ваших видео. Поясняйте и дальше, очень ждем
Поэтому и снимаю. Спасибо за тёплые слова 👏
Вы - великолепны не только как профессионал, но и как крутейший педагог. Чувствую себя подобием SD при его создании - встроенная система рухнула, какие то отрывочные знания улетели в блендер, где все перемешивается. Сама же личность тихо молится в углу об избежании окончательного распада и надеется, что позже, по мере изучения материала, создастся что то новое, логично упорядоченное. Но это пока на уровне надежды. Понимаю, что ничего не знаю, не понимаю, но очень стараюсь. Поглядим однако что далее у нас...
Хачатур как всегда лучше всех вникает в суть вопроса. Лайки, лайки, лайки мужики!
Блин какой ты крутой чувак ) Спасибо тебе большое ) Лучше чем все англоязычные туториалы по СД, что я видел.
Больше, больше роликов про Stable Diffusion, главное не сбавлять темп.
Спасибо тебе Хачатур за проделанную работа, просмотр твоих роликов очень экономит время.
+++, лучший на данный момент контент по SD на русском языке. Я очень рад, что наткнулся на канал Хачатура)
@@eluiden не только по SD. Здесь есть уникальный контент.
Раньше когда ролики выходили раз в полгода, это было прямо эпохальное событие, так как несло очень, очень практичное значение.
Я даже не думал что Хачатур подсядет на нейронки, лично для меня это было приятным сюрпризом.
Привет, я не успеваю "прожевать" предыдущий ролик, а тут еще вкусняшка =)
ну наконец то, появился человек, который подробно объясняет тренировку текстовой инверсии 🥳
Все проверил, все работает! Стиль прекрасно передает. Делал по другим гайдам ничего не получалось, потому что мало токенов давал или же их не указывал, и Learning rate не правильный ставил. Убил часа 4 на генерации и все было впустую, а тут 10 минут и готовый результат!!! Спасибо за видео!
Спасибо, что поделился 🙏
Как всегда, отличное видео с ворохом объяснений!) Спасибо за полезную информацию!
Христ - добрейшей души человек! Столько инфы, успевай только переваривать. И все это за лайк и колокольчик) Точно, бессеребреник какой-то. Некоторые только за промт стараются содрать от 20к и выше😮
Приветствую! Которую ночь не сплю из-за этих видосов, пока все не попробую никак не могу оторваться ))
Я тут накидал несколько вопросов не по этому видео, а общих. Возможно, что-то пригодится для будущих роликов и наверняка это будет интересно и другим.
1. Тренируется ли нейросеть на локальном ПК, когда ей пользуешься или ее навыки остаются на том же уровне независимо от кол-ва циклов работы?
2. Совершенствуется ли Hypernetwork при её многократном использовании? Субъективно, результаты с каждом разом улучшаются...
3. Как именно работает Restore Face и в каких случаях имеет смысл ее включать?
4. Принципиальная разница между оболочками Invoke AI и Automatic111, что лучше?
5. Насколько и как влияет выбранный размер картинки при генерации изображений? Что делать, если необходимо максимально высокое качество (выше 2000 px), а все модели почти тренятся на 512 px?
6. Если трейн прогонял на одной модели (к примеру, Dreamlikediffusion), а потом захотел использовать Hypernetwork на другой, например Protogen x5.8 Rebuilt (с учетом той же версии SD в базе обеих моделей) можно так делать или надо тренировать под каждую модель отдельно и заново?
и очередное огромное спасибо за то, что ты делаешь, пока во всем рунете более подробной, четкой и максимально полезной информации по SD я не встречал!
1. На самом деле не важно, на каком ПК была тренировка. Результаты всегда будут отличаться в пределах погрешности.
2. Увы, но нет. Однако, за 1 сеанс он делает всё лучше и лучше. Это да, это Вам не кажется =)
3. Только для лиц крупным планом. В остальном помогает VAE. Если не помогает, включаем Restore face.
4. Automatic1111 лучше потому что там больше. Как бы InvokeAI ни старалась быть дружелюбной, всё равно отстаёт по возможностям.
5. highrex увы не поможет, только upscale. Подробнее про него в видео расскажу.
6. Результат несомненно лучше будет, если Hypernetwork использовать именно на той модели, на которой она тренировалась.
У меня гиперсетки на левых моделях не работают. Только на той, на которой учил.
Мужик, это МАГИЯ! Ты мой кумир. Буду лайкать все твои видео и вообще, я хочу от тебя ребенка!!! ))
Спасибо, круто! два вопросика возникли:
1е - я правильно понял, что
Эмбейдинг это в одно ключевое слово вписывается группа слов, но еще и с примером что они должны означать конкретно, а не из всего что знает сеть по этим ключевикам, но не больше чем сеть знает уже. т.е. обучить стилю можно, но только тому что уже в базе.
Гиперсеть, это типа фильтра в инстограм, но в место цвета - признаки человека, и чем лучше объяснить/обучить, тем более похож будет результат, но в самой сети данного стиля/персонажа нет, она результат окрашивает в признаки даже которых нет в сети.
Дримбут вписывает тренеруемые данные уже в сам ckpt, меняя весь объем данных с разной степенью воздействия и уже генерит в выдачу с учетом новых данных добавленных к ее "знаниям"?
2й вопрос у меня вытек =) из первого, это как можно совмещать разные стили? Допустив можно слить 3-4 ckpt, данные будут не добавлены, а именно смешаны, что повлияет на результат, но можно будет генерить .. ну .. новый актер 2023 года обнимает новую актрису 2023 года которых не было известно ранее. Можно "до обучить" в ckpt несколько новых "концептов" (как они названы в дримбут), и выдавать смесь этих данных, тех же актеров или стилей новых в дизайне. А гиперсети? К ckpt добавить 1н слой гиперсети, а два? Или двух людей, или их смесь, или среднее из двух стилей которых нет в ckpt? В ckpt можно смешивать (:1.2),(:0.8),(:0.5), а сетками есть возможность?
Спасибо за видео!
1. Правильно понял. И следующий абзац и Dreambooth, всё верно.
2. Для этого есть Checkpoint merger, про него будет отдельно 👍
Спасибо большое за труд!
Спасибо, Хачатур!
🤟
Нужно больше технической информации 🎉😎🙏
Видео уходят в сторону завлечения зрителя с разными уже казалось стандартными "блогерскими уловками" в плане монтажа и подачи. И это круто.. Как офигенно обыграл прыжок кота под музыку, это было так просто и так круто. А видео, как всегда понятным языком) спасибо!
ЧУМОВОЕ видео! Спасибо большое! Наконец-то, диск разгружу)
Да, будь же здоров! Учи нас уму разуму в этой сложной среде.
Вы работаете быстро, рассказываете увлеченно и интересно! Мне ооочень нравится. Огромный молодец!
по поводу 75 токенов, писать можно и больше. Есть теория чанков, по которой 76 токен (1й во 2 чанке) будет иметь приоритет равный первому токену первого чанка.
21:40 - кот сделал прыг
Как всегда шикарно! Очень жду каждое ваше видео
В видео затронут был такой момент, что модели не понимают промты, если их не обучили им. Хотелось бы узнать, есть ли способ выпотрошить из файла модели информацию, какие промты она понимает
Прикинь, сколько текста влезает в 4-5 гигов информации, а именно столько средний эндпойнт вмещает. Проще методом тыка.
спасибо за проделанную работу!
Хоть я половину слов и не понимаю, но слушать интересно) На днях 2 часа искал Фотошоп крякнутый на 32 бита. Смотрю подписанный Христ, все работает идеально)
Ты можешь спросить, Я уточню в комментах любой аспект.
@@XpucT Я обязательно учту и как будут появляться вопросы буду спрашивать. Но я и так с каждым видио узнаю много нового. Заинтересовала тема с Гугл Колабом, буду разбираться.
А возможно ли генерировать своего персонажа в разных позах и ситуациях?
Спасибо огромное!
Хорошо!Ну прям очень хорошо
Спасибо большое, Хачатур!)
55
Ждем еще видосы ) Кстати мне заходят по часу видосики, даже жалко людей, которые жалуются на то, что долго. Надо еще постараться поискать ,чтобы так информативно было.
Согласен =)
я только после твоих гайдов начал понимать как с этими нейронками общаться. Надеюсь дойдут у тебя руки и до InvokeAI, по ней тоже кисло на русском )
Добрый день. Будет ли обзор InvokeAI?
Приветствую 🖐
Будет мини-отзыв.
Спасибо!
Побольше про тренировки, пожалуйста!
Офигенно. Пили ещё
Мощь!
спасибо тебе за такое познавательное видео, теперь я понял что этот ИИ это не просто генератор бесполезных картинок, ведь если разобраться то эта штука может расчитать все что угодно , только подставляй ей примеры учи и проси результат
Спасибо! Можно предложить тему к одному из след. видео? Как делать шаржи, карикатуры в том числе и на основе натренированных hypernetworks? Чтобы сохранялась узнаваемость черт даже в утрированном или мультяшном виде. Спсб.
От себя добавлю, что в X/Y plot в Hypernet str. играюсь настройками больше единицы (т.е. в пределах 1 - 1.4), это приближает к нужному эффекту, но на бОльших значениях появляются неприемлемые деформации. Отмечу, что в Settings - Hypernetworks Strength больше "1" выставить нельзя. Есть ли другие способы? Спсб.
Спасибо! (Знания: Ваших 4 просмотренных ролика) ВОПРОС: Мне нужно получить уникальный художественный стиль на примере конкретного художника. Он включает в себя как бы всё. Это комиксы. 1. На основе какой модели делать тренировку? Той, что Вы здесь порекомендовали? 2. Если это целый стиль и включает в себя не токмо лица, сколько нужно для такой дрессировки картинок и токенов, что бы описать весь мир этого художника? Ведь тема может быть ковбойская и космическая. И еще я не могу понять с размерами картинок. Как их получать большого разрешения, хотя бы 1200 пик. ? Если задавать такой размер, то получается в лучшем случае винегрет и бред обкуренного стафилококка. И как тренировать, сразу задавать такое разрешение? Или это не наши методы? Спасибо за разъяснение!
Лучше делать тренировку на 1.5, да, потому что на её основе, как правило делаются другие модели. То есть Ваш Embedding будет с большей вероятностью совместим, если делать на 1.5. Если в художестве много элементов, то есть вообще смысл создать свою модель. Но это уже другая история. Для этого нужен Dreambooth, где от каждого изображения требуется подробное описание. Чтобы получать изображения на своих моделях в высоком разрешении, обучать нужно на высоком разрешении. Если на чужих, то просто Upscale. Никуда от этого не деться. Но сразу скажу, что оптимальнее всегда будет 512 x 512. Это разрешение выбрано неспроста. Именно на нём меньше всего встречаются неожиданные деформации.
@@XpucT Безразмерное спасибо! А вы можете направить меня ссылкой в сторону Dreambooth или можно ожидать видео по раскрытию темы? Еще раз спасибо!
Ну наконец-то! Очень ждал =) Потому что по сути, мне не интересно обучать на себе, а вот свои стили туда закинуть и сделать вариации - как раз самое то =) Большая благодарность за это видео!
Вопрос - если пробовал Remix в Midjourney, как делать такое же в SD? =) Когда берем одну картинку, например железного человека, вторую картинку - кукурузы и оно смешивается и дает результат в виде нового концепта =)
присоединяюсь к просьбе)
+1 было бы здорово понять как сделать такую историю в SD
"железного человека AND кукуруза" в промпте, не?
@@t0rango ну я ж не то имею ввиду... идея не в промте. а в смешивании картинок... промт дает не тот результат. Видимо вы не пробовали Midjourney фичу =)
@@charlytutors ясно. Да, фичу в MD не пробовал.
Спасибо тебе большое .
Здравствуйте, подскажите, пожалуйста, как через train сделать стиль рисования, к примеру, взять фото моего лица и в img2img перерисовать в стиль моего рисования, фото с моей отрисовкой могу скинуть
Круть! Спасибо вам!
Хачатур, недавно открыл твой канал, подача огонь🔥
Спасибо 🥂 +1 000 000 подписчиков вам 💪
Все таки щас соберусь и перепишу этот негатив промт
Спасибо за видео! Лайк!
Крутяк!
Ну и как же hypernetwork вывести на главную страницу из настроек?)
Как всегда заебок 👍
Как всегда красавчик ☝
Жду Твой заебок под каждым видео, уже традиционно =))
супер!от души! лайк есть! Вопрос почему при 512-512 у вас получаются все равно качественные изображения, а у меня не очень? Что я делаю не так?
Всё от модели зависит и CFG Scale.
Также не пропускайте видео. В одном из недавних рассказывал про VAE 👍
@@XpucT вроде все посмотрел на бусти, наверно пропустил, буду пересматривать ! Вы лучший вообще! Обнял крепко !
За биточки на фоне отдельные спасибы)
крутой чувак ) Спасибо тебе большое )
Бро, делай ,пожалуйста туторы FHD или HD (1920x1080) бо невыносимо без лупы этот синематик стайл смотреть на 16" ноутбука.
Добавил символические ссылки из win10tweaker, теперь у меня 1 общая папка с моделями на 3 сборки Stable Diffusion. Теперь не надо плодить кучу копий моделей на ПК по 4гб. За эту програмулину спасибо)
В следующем видео ещё один лайфхак покажу с символической ссылкой.
😭хр...во, что Вы только на Boosty, а Patreon под запретом, очень хотел подписку оформить, так как посмотрел, что там не просто годный контент, а о....ый🤩🤯
Я не могу завести аккаунт на Patreon ┐('~`;)┌
@@XpucT я знаю 😢, а я не могу пользоваться такими сервисами как boosty 🤬
Приветствую, очень благодарен за ваши видео по SD. Посмотрел Train, дополнение к нему, это видео и x/y plot. Появилось больше понимания. Хотелось бы узнать от вас нюансы по трейну на мультяшных и аниме моделях. Тренировал хайпер нетворк под задачу : есть лицо анимешное, нарисованное знакомым художником - хотел получать арты с этим лицом (понимаю что анимешные лица очень похожи но у этой есть свои особенности) в результате выдаёт не плохие результаты близкого шота лица с разных ракурсов если промпт простой и минимум уточнений даже особенности зубов передаёт( персонаж вампир). Но стоит ввести full body или промпты с позами и прочие промпты с костюмами окружением и тд. то начинает генерить лютую дичь времён первых нейронок))) Тренировал на Anything 3 по вашему видео, может быть к такой задаче нужен особенный подход ? Буду рад ответу, спасибо)))
OH MY GOOOOOOOOOOD! 😆 невероятная круть. мы прям бахаем СТИЛЬ. Киберпанк, гта5, что угодно
Я не понял, мы можем надёргать картинок из интернета в нужном стиле или нам нужны сгенерированные нейросетью изображения?
Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki] уже яснее
Для этого метода нужна видеокарта с 8гб+
Видео супер, конечно хотим еще! Было бы интересно узнать про мердж моделей, safetensors, pruned и как самому их создавать (обрезать чужие для экономии места)
Ежже красавчег!
Очередной раз красавчик! Спасибо тебе
может сделаете рубрику , картинки от зрителей? которые вы сможете создать близко к оригиналу? будет занимательно посмотреть что и как вы делаете что бы добиться результата
Что делать, если пишет
"Training finished at 0 steps.
Embedding saved to ... "?
Прошу, помогите. Сделал всë, как в видео(((
Здоров👋, спасибо, отличный видос, наконец избавлюсь от тонны моделей, заготовлю свои какие нужно по 70 кило и красота 🤝
А можно ли хохлому или гжель через embedding сделать? И, например, на одежду наносить потом?
А попробуйте ввести не блонд, а, например, "с белыми волосами", или "волосами белого цвета", или более подробной формулировкой).
Спасибо за видео! Но есть вопрос, подскажите пожалуйста:
Делаю embending на модели 1-5. Ввожу все токены указанные в видео. Беру за референс картинки в стиле Samdoesart.
Но по итогу получается так, что embendig работает и повторяет стиль исходя только из токенов. На картинки в Стиле Samdoesart из папки, на которую ссылался, вообще не похоже.
Что мог сделать не так? Буду благодарен за ответ)
Есть предположение что обучение ломают COMMANDLINE_ARGS --xformers или --no-half-vae в общем у меня было куча параметров и он вообще не обучался, а когда сделал на чистом запуске, то обучение заработало. Но это только предположение...
Ну щё - лайк, подписка, комментарий для продвижения - пилите контент, укажаемый! Ну а если серьёзно, очень информативно, мифо-уничтожительно, по делу. Разве что негатива хотелось бы поменьше - тема новая и сложная, ажиотаж вокруг неё большой (в узких круга), не удивительно, что люди пока не понимают толком, что к чему. Результат говорит сам за себя, кому надо тот поймёт и сам сделает выводы.
Негатива итак мало. Проверьте загуглить те вещи, о которых Я рассказываю.
Сразу станет понятно 👍
И, кстати EyeBalls - это два токена. Можно поставить расширение (extension) которое покажет сколько токенов на каждом слове.
А как это расширение называется?
@@aleksandrshchepkin embedding-inspector, показывет количество токенов на запросе, вес, айдишник и тп
@@aleksandrshchepkin ещё есть расширение tokenizer , более компактно, раскрашивает промпт поделив на токены
Низкий поклон за видео!
Возникла пара вопросов: можно ли использовать несколько embedding одновременно? А также хранить файлы embedding в одной папке, чтобы быстро переключаться между стилями? Или каждый раз вынимать из папки, где вы правой кнопкой мыши перетаскивали файл?
Кстати, а можно ли применять embedding в img2img? Загрузил я, к примеру, фотку 512×768 пикселей и применил к ней embedding.
Спасибо за ваши ролики😋
Можно в папке Embeddings хранить сколько угодно файлов.pt
Если в prompt используется имя какого-либо, то его Embedding будет использован при генерации.
Вынимать и класть Embedding можно в реальном времени, не перезапуская сервер.
ОДНАКО, если файл.pt именно пересоздать внутри Stable Diffusion, нажимая на Create Embedding, то Stable Diffusion не увидит подмены. Именно по этой причине говорю, что нужно вынимать файл, нажимать Generate, потом снова класть обратно файл.
Если файлы готовые, рабочие, трогать их не нужно, валяются себе и прекрасно.
Если в папку Embedding положить Embedding, например, _cinematic.pt_ и прописать в prompt это:
_a car, cinematic effect, high quality_
То генерация будет заменять слово cinematic на то, что сидит в Embedding.
Если файл _cinematic.pt_ убрать в реальном времени из папки и снова воспроизвести тот же prompt, то он будет учитывать строго сам prompt и это можно проверить, смотря в самый низ отчёта. То есть так мы точно увидим, что система работает, как и написано в документации в реальном времени. Он как бы "отслеживает" наличие файла. ОДНАКО, повторюсь, если мы перебьём файл _cinematic.pt_ создав новый на вкладке Train, то Stable Diffusion будет не просто считать, что не было подмены, он ещё и юзать будет то, что у него в памяти (то, что было до замены новым).
Спасибо за отличное объяснение! Подписка, лайк, звоночек! Жаль лайк только 1 ставить можно(
Благодарю
Спасибо!!!
Спасибо
расскажи потом как установить SD 2.x. пробовал скачать и включить, но пишет что нужен какой то config.yml
фига еще один видос, лайк
в каком файле ты прописал гиперсеть возле чекпоинтов?
12:44
По токенайзеру у тебя 25 токенов, а не 23, rutkowski и eyeballs на два токена разбиваются
Если не изучал - посмотри расширения Tokenizer и Embedding Inspector
зы: за видос спасибо) как всегда - уникальный контент)
Да, не обращал внимания, что он занимает 2 токена 👍
Лучший!
Пожалуйста прокомментируйте: когда учишь селфи модель на своем стиле, то при добавлении разных весов в одну модель в какой то момент они начинаются смешиваться( Если добавлять в одни и те же веса много объектов, начиная с 2ого, иногда 3его объекта они начинаются смешиваться
У меня какая то ерунда получается на эмбендинге, может потому что видео карта 3000 серии или я хочу бОльшего результата от инструмента( но в результате картинки получаются какие то "психоделические" не смотря на то, что картинки примеры совсем другого характера и стиля. Очень жду видео по созданию модели, мне как художнику это важно и интересно!
Спасибо за крутые обзоры!
Большое спасибо за все ролики, наиболее внятный материал по SD! Хочется еще поднять одну тему: SD умеет рисовать аниме, но оно не всегда нужно. Хочется натренировать свою модель с четким лайном и своей спецификой светотени, но при обучении стилю узнаваемости не получается, он передает чисто цвета и общие объекты. Может у таких иллюстраций есть другие методы обучения?
Посмотрите видео LoRA:
ruclips.net/video/A15M4cbUM5k/видео.html
Хачатур здравствуй, можно ли перерисовать на свой стиль фото человека, сохранив узнаваемость оригинала, без обучения и тренировок? (И без sms и регистрации)
Можно. Это отдельное видео будет.
Друзья, вопрос немного не в тему видео, но почему, при изменении размера вывода картинки с 512х512 на какой то другой, нейросеть начинает рисовать не одного персонажа а двух трех, а то и сразу шесть? ПРичем еще недавно вроде не было такой проблемы.
Попробуй удалить кэш, как показывалось в предыдущих видео.
@@XpucT я видимо пропустил этот момент, надо пересмотреть еще раз все. Спасибо.
Спасибо за видос ! Очень нужная информация!!
🔥🔥🔥🔥🔥🔥🔥
Спасибо большое!🔥🔥🔥
Чем подробнее видео тем лучше ) мой интеллект гуманитария
лучше воспринимает 😊
🤝
Самый главный вопрос: как у тебя так быстро загружается модель с расширением safetensor. У меня минут по 5 грузится, а у тебя 3 секунды. ckpt где-то секунд 30 у меня.
Это потому что у меня не SSD?
Да. У Меня SSD, M.2 NVME.
Не совсем понимаю использования этой проги простоым обывателем. Однако подход Хачатура к какой-либо теме, впечатляет. Будь-то уроки по C#, либо эта прога. Респект за такую подачу.
2e-5:800, 8e-6:1600, 5e-6
Thx!
Крутой автор! Прям хочется лично пожать руку за такой труд!) Вопрос: как можно осуществить такой сценарий? "есть 10 разных промптов, на их основе сделать 10 разных картинок каждого описания и всё это поставить в очередь, а самому пойти часик погулять"
Есть отличный ответ на это:
ruclips.net/video/fTitCZUdRSI/видео.html
я так закидываю несколько сотен запросов и оставляю на сутки :)
А есть ли возможность в последствии доучивать, к примеру вов торой раз на собачках, а после третий на кошечках и так далее?
Ура, новое видео по SD, приятный сюрприз) Про мировое сообщество анимешников посмеялся 😂
Очень классно узнавать что-то новое, особенно когда так хорошо всё объясняют, надеюсь дождусь как нибудь и темы Dreambooth. Спасибо за видео! (И да, я не знаю кому надо покороче, я бы хоть 4 часа смотрел подобные видео хаха)
Я тут как тут))))
Привет, спасибо за видосы. Очень емко и доходчиво.
Вопрос про эмбеддинг. Есть задача, заэмбеддидь конкретный стиль изображений, что бы совсем любой промт в итоге выдавался в этом стиле.
Сейчас может быть будет несколько сумбурно, прошу понять.
Я хочу что бы СД генерировал чистый flat vector без градиентов, с хорошими осознанными формами и в разных под-стилях внутри этого стиля.
Моя проблема в том, что "внутри" flat vector есть куча очень сильно отличающихся подстилей. А главное, что любая иллюстрация это очень сильная стилизация привычных объектов реального мира. Условно говоря холодильник не прямоугольной формы, а трапеция и т.д. Когда я собрал набор картинок который бы включал в себя хотя бы 1 изображение в интересующих меня стилях, получилось 24 картинки. Я затрейнил эмбеддинг, но получилась чушь. Если не задавать промт точно описывающи одну из картинок, результат мягко говоря плохой.
В связи с этим вопрос, имеет ли смысл пытаться упихать все что мне нужно в один эмбеддинг или разумнее отступиться и создать под каждую уникальную реализацию стиля свой эмбеддинг?
Будет ли у нас выпуск для новой версии stable 2.4? Я установил её, а смотрю меню отличается и в настройках не вижу этих параметров, что у тебя на предыдущих и данном видео...
Открой второе видео в плейлисте.
лайк. жду обзор на раздел deforum
А что если я хочу просто стиль волос потренировать, это точно также работает?
👍Как всегда отличный видос.Но есть 1 вопрос, когда обычные смертные смогут скачать вашу сборку со всеми настройками,норм цветами интерфейса и дополнениями?
А как сделать свою модель? Вот именно ckpt?
Dreambooth. Это отдельная тема. Если будет многим интересно, сделаю обзор.
Вы говорите что Embedding не желательно не приметь к людям, но на civitai много примеров применения к конкретным людям.
Смотря что примерять.