Привет. Четко по делу и существу, очень понравилась подача. Было бы здорово если продолжешь пилить контент. А пока лайк и ожидание новых видео, спасибо!
Ля спасибо огромное! Прям вот то что надо снимаешь, все вопросы которые возникали, особенно какого хрена в квадрат никак не залазит полноразмерные изображения, вообще вымораживал. Я думаю, всеже, что если ты хочешь своих персонажей, то просто слепи фотки нужных тебе персов, в лора модель, и будет тебе твой персонаж (уже тренеруюсь на знакомых, работает хорошо) насчет сохранения одежды и в целом образа да - идея хорошая, обязательно попробую.
Привет, я уже неделю плотно засел в stable diffusion, посмотрел очень много материала и делаю на мой взгляд достойные работы. Но из твоего видео узнал много полезного! Спасибо!
Ребята, подскажите пожалуйста, что сделать чтобы в моей Stable Diffusion появились кнопки для описания изображения interrogate clip и interrogate deepbooru? Я ее установил и этих кнопок у меня нет. Уже кучу видосов пересмотрел и ни один блогер не рассказал про установку этих божественных кнопок.
Возник вопрос: а можно ли задать позы двух персонажей одновременно в одном кадре? При чём не так, чтобы они просто рядом на одном расстоянии стояли, а чтобы как-то взаимодействовали. Скажем, один обнимает другого сзади
Привет! Не думал записать видео-гайд на тему обучения модели, используя заранее заготовленный набор артов? Было бы интересно этому научиться, но самому разобраться пока сложно.
А если ты, например, сгенерировал картинку, и ты хочешь просто изменить позу персонажа не меня ни персонажа ни фон, можно ли так сделать? Пробовал inpaint+controlnet, но если персонаж, к примеру стоял, а я хочу, чтобы он лежал, то маска оказывается слишком высокой и либо фон искажается, либо получается мутант
Подскажите, пожалуйста, есть ли в image2image когда я загружаю свою картинку три раза с трех разных ракурсов, а оно выдает мне 24 картинки со всех разных ракурсов при этом не меняя мою изначальную картинку (и) ?
Я думаю, Вы все не правильно поняли, схожие результаты (генерируемого персонажа) получаются из-за промта и модели (возможно еще и из-за болванки используемой для позы, лицо там одинаковое). Но никак не из-за того, что Вы наложили картинку с одним и тем же шумом. Поскольку изображение формируется путем удаления шума относительно вектора запроса формируемого промтом. А сид, что является ключом для генерации шума является лишь отправной точкой, которую можно использовать для получения того же результата, если промт и модель с параметрами будут теме же.
Я не говорил - что схожая картинка получается за счет одного и того же шума. Более того - я говорил, что при сохранение промтов и сида - шум можно менять и получать другие варианты окраски с сохранением похожести персонажа. Так же я не говорил - что лицо получается одинаковое, похожее - да. Здесь нет тех. обоснования - только практический результат.
С манекенами очень удобно генерировать. Но когда много раз отправляешь результат снова в img2img нейросеть постепенно искажает анатомию, удлиняет конечности, пальцы добавляет и прочее. Поэтому, лучше стараться с первого раза манекен так выставить, чтобы потом не надо было повторно дорабатывать. Есть хорошие бесплатные программы с манекенами, которые ещё и мышечный каркас позволяют редактировать легко без знания 3d программ.
Автор, ответь пожалуйста. У тебя при генерации картинки работает предпросмотр где меняется каждый этап создания картинки. А у меня не так. Пару этапов, а у тебя этапов 10. Как ты этого добился?😊
наверное у меня не такая SD... Точно такой же промпт даёт совсем иные результаты - даже не близко. И непонятно, куда вписывать негативный промпт - для него просто нет вкладки ((
Блин, у нас на курсах анимации как раз задание отрисовать одного персонажа с разных ракурсов. А Вы не знаете, как одного и того-же человека (в одинаковой одежде) отрисовать в фаз, профиль, 3/4 и сзади при помощи этой нейронки (и желательно, не только человека, но и мифических существ)? PS А эта нейронка платная?
Сук ну это кринж уже какой-то, сама суть упражнения в отработке отрисовки персонажа в разных ракурсах и понимании перспективы. Я кнечно все понимаю ТИХНАЛОГИИ, внидрения в пиплаян на работе ыыы, упрощения ыыы. Но блин уж базу то будь добра изучить нормально.
Промты + модель искать подходящую + можно скетч набросать. Разные варианты подхода. Я не генерировал аптечки, так что 100% вариант не подскажу, к сожелению.))
@@cg_dist я хотел на 1660 супер сгенерировать картинку 1080х1080, но не получилось. просто отключалась кнопка - генерировать. получается, нужно генерировать маленькие картинки 640х640 рх, а потом их апскейлить?
)) Обидненько. Нет. Микрофон не для видео - обработка вылезает. Тема кстати интересная, но я про доступные нормальные обучалки голоса на русском пока не слышал.
@@cg_dist Блин, вот прикол... Я в дазе уже лет 5 сижу, а их проморолик не признал :) Кстати никому не советую использовать его для позирования. Это ущербная, неудобная, глючная прога, отставшая от времени лет на 10, хотя там есть сотни готовых поз.
@@ERA-7 Софт лучше? Да легко! Драпировка ткани в режиме онлайн у Марвелос Дизайнер против ужасно тормознутого и багованного дифорса (ну, да дифорс немного подтянули в последних обновах, но он всё равно дно). Позирование с инверсной кинематикой лучше в любом другом софте, где это поддерживается (от синьки и блендер до примитивного ДизайнДолл). Вообще позирование, а даз в первую очередь про позы, - это та ещё попаболь (пруф: ну попробуйте запозить обнимающуюся парочку без готовых поз). Анимация в дазе - вообще адище (я убил не один день, так что знаю о чём говорю, привет от скользящих ног), а если получилось анимировать, то велком в долгий-долгий-долгий рендер. Тот же блендер и Юнити лучше. Синька - топ. Кастомизация лиц персонажей - лучше в софте Реалюжен как и волосы, особенно бороды. Может есть нормальный инструмент для скульптинга, чтобы хотя бы немного геометрию меша поправить, а не это убожество мешграбер (привет передают Зедбраш и тот же блендер)? Убогий интерфейс на костылях, который даже не поддерживает 4К (ага, "лучше с каждой версией" и это в 2023 году). А эта волшебная загрузка базовой G8 в несколько минут, если в датабазе больше сотни моделей и 3-4 пакета морфов? А эта чудесная опция с отсутствием поддержки шмоток, волос, поз старших моделей у младших? Да, про костыли я знаю (обувь передаёт привет). А эта восхитительная ценовая политика последних лет, когда костюмы стали дербанить на части и продавать по фулпрайсу каждую? Тоже "лучше с каждой версией"? Да, я в курсе где всё скачать. Просто жаль людей, кто покупает за свои кровные. А качество самих ассетов тоже улучшилось? В сторе полно откровенного говна, сделанного тяп-ляп, особенно в последнее время. А забивание видеопамяти (у меня 11гигов) под завязку, что аж рендер на проц сваливается с помощью всего двух персов с дифорс хаирами от Линдей? А когда физика мягких тел? А когда нормальная коллизия без костылей? Могу и дальше продолжить, но харе. И так разошелся. Да, в дазе можно делать отличные фотореал рендеры, но на каждый кадр нужно убить кучу времени и сил. Сам сижу в дазе, так как ленюсь освоить блендер в полной мере. Даз сейчас - это софт для скучающих пенсионеров, а не эффективный инструмент художника.
@@HarryPotterObamaSonic13 мне постоянно выдает ошибку типа не хватает памяти. Уменьшал разрешение все равно не помогает. Думал возможно есть другая сборка или скрипты какие-то.
Как убалтать СД рисовать персонажам жесть фак ю!?! Упорно не желает ни промтом, ни шаблоном, ни пик2пик. ни контрол нет'ом. Указательные пожалуйста рисует вмето заданный средних, ползункии двигал, значения менял. Не хотит, какая то ханжа!))
Классная идея. Чётко, и практично, а не то что болтологию по 30 минут разводят
Как Христ? 😂
@@Mark_808 Маэстро счас обидно было, у него свой стиль он же еще и психотерапией занимается😌
Самый полезный лайфхак по SD который я видел!
Круто! Как раз в выходные пытался найти адекватный способ уменьшить рандом для генерации персонажа, о такой комбинации даже не думал, спасибо!
Привет. Четко по делу и существу, очень понравилась подача. Было бы здорово если продолжешь пилить контент. А пока лайк и ожидание новых видео, спасибо!
Хорошо рассказываешь! Пожалуйста, не останавливайся.
Шикарно. Роям ооочень мало, кто об этом думает
Ля спасибо огромное! Прям вот то что надо снимаешь, все вопросы которые возникали, особенно какого хрена в квадрат никак не залазит полноразмерные изображения, вообще вымораживал. Я думаю, всеже, что если ты хочешь своих персонажей, то просто слепи фотки нужных тебе персов, в лора модель, и будет тебе твой персонаж (уже тренеруюсь на знакомых, работает хорошо) насчет сохранения одежды и в целом образа да - идея хорошая, обязательно попробую.
очень интересно! снимай больше по стабильной дифузии.. именно комиксы ..анимэ ..тренировка лора ...итд...подписка однозначно!
1:03 Interrogate CLIP -даёт ОБЩЕЕ описание изображения
Interrogate DeepBooru -даёт ПРИМЕРНЫЕ PROMT, соответствующие загруженому изображению
Привет, я уже неделю плотно засел в stable diffusion, посмотрел очень много материала и делаю на мой взгляд достойные работы. Но из твоего видео узнал много полезного! Спасибо!
отличная идея. Подумал, как можно терпимо мангу/комикс нарисовать
Ребята, подскажите пожалуйста, что сделать чтобы в моей Stable Diffusion появились кнопки для описания изображения interrogate clip и interrogate deepbooru? Я ее установил и этих кнопок у меня нет. Уже кучу видосов пересмотрел и ни один блогер не рассказал про установку этих божественных кнопок.
Автор: снимает видео об управлении позой персонажа при генерации в SD.
ControlNet: Всё просто супер! Но переделывай.
Да, Скорость развития жесткая.))
Возник вопрос: а можно ли задать позы двух персонажей одновременно в одном кадре? При чём не так, чтобы они просто рядом на одном расстоянии стояли, а чтобы как-то взаимодействовали. Скажем, один обнимает другого сзади
Круто, спасибо большое
Отличный информативный видос!
Спасибо. Интересно.
как добавить цветной шум на модель??
Огромное спасибо
Привет! Не думал записать видео-гайд на тему обучения модели, используя заранее заготовленный набор артов? Было бы интересно этому научиться, но самому разобраться пока сложно.
Привет. В будущем доберемся и до этого. Пока бы время на основное найти..)
@@cg_dist Радует, что такое видео когда-нибудь увидит свет. Если не секрет, что еще из "основного" должно быть разобрано в следующих гайдах?
@@serega1999rus Так много чего. Обновляется все быстрее, чем разбирается.) Тоже от времени зависит, как буду успевать.
@@cg_dist Надеемся, что сможем идти в ногу с обновлениями. Спасибо еще раз за ответ!
Мужик,ты супер
Продолжай в том же духе)
А если ты, например, сгенерировал картинку, и ты хочешь просто изменить позу персонажа не меня ни персонажа ни фон, можно ли так сделать? Пробовал inpaint+controlnet, но если персонаж, к примеру стоял, а я хочу, чтобы он лежал, то маска оказывается слишком высокой и либо фон искажается, либо получается мутант
У меня на данный момент подобная проблема, вы уже знаете как делать так? Была бы очень благодарна вам
@@btschiko4270 Ещё нет
а как сгенерировать в стейбле несколько картинок сразу с одинаковым или с несколько одинаковыми персонажами типа как в миджорни???
Спасибо огромное
как ты стили отдельно делал )) не понял )
и где взять такую модель?
Подскажите, пожалуйста, есть ли в image2image когда я загружаю свою картинку три раза с трех разных ракурсов, а оно выдает мне 24 картинки со всех разных ракурсов при этом не меняя мою изначальную картинку (и) ?
Я думаю, Вы все не правильно поняли, схожие результаты (генерируемого персонажа) получаются из-за промта и модели (возможно еще и из-за болванки используемой для позы, лицо там одинаковое). Но никак не из-за того, что Вы наложили картинку с одним и тем же шумом. Поскольку изображение формируется путем удаления шума относительно вектора запроса формируемого промтом. А сид, что является ключом для генерации шума является лишь отправной точкой, которую можно использовать для получения того же результата, если промт и модель с параметрами будут теме же.
Я не говорил - что схожая картинка получается за счет одного и того же шума. Более того - я говорил, что при сохранение промтов и сида - шум можно менять и получать другие варианты окраски с сохранением похожести персонажа. Так же я не говорил - что лицо получается одинаковое, похожее - да. Здесь нет тех. обоснования - только практический результат.
ControlNet не пробовал?
а как сделать такой же оформление движка ???
Как скачать стили как миджорни?
Что это за сайт или преложуха с нейросетью?
спасибо!
Огромное спасибо за видео
Подскажи, пожалуйста, откуда брать этот цветной шум, это контролнет какой то?
С манекенами очень удобно генерировать. Но когда много раз отправляешь результат снова в img2img нейросеть постепенно искажает анатомию, удлиняет конечности, пальцы добавляет и прочее. Поэтому, лучше стараться с первого раза манекен так выставить, чтобы потом не надо было повторно дорабатывать. Есть хорошие бесплатные программы с манекенами, которые ещё и мышечный каркас позволяют редактировать легко без знания 3d программ.
А вы знаете приложение который даёт позы для 2д персонажа?
@@btschiko4270Неа, просто пробуй все от создания своих моделей, до использования манекенов и прочих утилит
Добрый день! Подскажите возможно ли проделать это через Гугл колаб?
Я думаю - да, здесь стандартный функционал используется но сам не пробовал.
@@cg_dist благодарю
А будет ли видео про переодевание персонажей с сохранением поз и лиц? Оно было бы очень кстати.
Да, будет. Скоро.
А как сделать, чтобы одежда оставалась всегда такой же? А то иногда 4 пуговицы, иногда их нет, или какой-нибудь значок появляется-апропадает
С этим сложнее, одежда рандомится... Может что-то получится в будущем, но пока я не смогу помочь.)
Как вариант можно при помощи масок доработать такие мелкие элементы.
На видео у автора очень удобный редактор позы персонажа. Подскажите название
Автор, ответь пожалуйста. У тебя при генерации картинки работает предпросмотр где меняется каждый этап создания картинки. А у меня не так. Пару этапов, а у тебя этапов 10. Как ты этого добился?😊
наверное у меня не такая SD... Точно такой же промпт даёт совсем иные результаты - даже не близко. И непонятно, куда вписывать негативный промпт - для него просто нет вкладки ((
Оболочка может быть другая. Видео в Automatic1111.
наверное это совсем другая оболочка у тебя, найди гайд на установку от Automatic1111. Плюс непонятно какая у тебя модель.
Добрый день, хорошее видео. Скажите пожалуйста " реализм" вы с конкретной девушки брали , которую нейросеть знает?
Добрый.) Девушка рандомная. Специально я модель не дообучал - если вы об этом.
@@cg_dist благодарю
Скажите, а можно ли использовать гарантированно один и тот же персонаж, но придавать ему разные позы?
Да, можно. Вот здесь как раз про это - ruclips.net/video/0wzgz_TkDfw/видео.html
Решил попробовать, но по простому не вышло, так как с 3д не очень знаком... Что за программа для 3д используется?
webapp.magicposer.com/
@@cg_dist Нормалды👍👍
Блин, у нас на курсах анимации как раз задание отрисовать одного персонажа с разных ракурсов. А Вы не знаете, как одного и того-же человека (в одинаковой одежде) отрисовать в фаз, профиль, 3/4 и сзади при помощи этой нейронки (и желательно, не только человека, но и мифических существ)?
PS А эта нейронка платная?
Stable Diffusion бесплатная. По концептам возможно скоро запишусь.
@@cg_dist, а можете, пожалуйста, отправить ссылку на скачивание? А то неохото вирусов с левых сайтов нацеплять 😂
@@cg_dist, а так спасибо Вам большое за Вашу просветительскую деятельность. Да прибудет с аниматорами будущее! (Извиняюсь за тафталогию).
@@Popelyushenko_Elena github.com/AUTOMATIC1111/stable-diffusion-webui Можно поискать туторы по локальной установке или коллаб.
Сук ну это кринж уже какой-то, сама суть упражнения в отработке отрисовки персонажа в разных ракурсах и понимании перспективы. Я кнечно все понимаю ТИХНАЛОГИИ, внидрения в пиплаян на работе ыыы, упрощения ыыы. Но блин уж базу то будь добра изучить нормально.
А предметы как рисовать? Аптечку в аниме стиле?
Промты + модель искать подходящую + можно скетч набросать. Разные варианты подхода. Я не генерировал аптечки, так что 100% вариант не подскажу, к сожелению.))
привет, какая у вас видео карта стоит, что так быстро генерирует?
3070ti. Но большинство генераций на видео ускоренно.
@@cg_dist я хотел на 1660 супер сгенерировать картинку 1080х1080, но не получилось. просто отключалась кнопка - генерировать. получается, нужно генерировать маленькие картинки 640х640 рх, а потом их апскейлить?
@@AITradingLab Ну я так то и на своей редко за 1000 выхожу. Да - можно с SD upscale поработать.
@@cg_dist спасибо за ответ и за видео, буду ждать новых видосов
Привет, можно ли скачать где-то модель которую ты используешь ?
Привет, на civitai.com можно скачать. Модель одна из Protogen-овских.
@@cg_dist спасибо
Привет! Прикольно. Слушай, а чем озвучивал видео? Я так понимаю тоже нейронка обученная на голосе?
)) Обидненько. Нет. Микрофон не для видео - обработка вылезает. Тема кстати интересная, но я про доступные нормальные обучалки голоса на русском пока не слышал.
Откуда ставилась Stable Diffusion?
AUTOMATIC1111
Если нужна локальная - то с github com можно скачать. А так - много туторов по установке, в том число и коллаб.
Ясно, спасибо, уже качаю
а как он шумы сделал?
Скачал + фотошоп.)
А что за софтина где ушастая с хвостом позы меняет?
DAZ studio
@@cg_dist Блин, вот прикол... Я в дазе уже лет 5 сижу, а их проморолик не признал :) Кстати никому не советую использовать его для позирования. Это ущербная, неудобная, глючная прога, отставшая от времени лет на 10, хотя там есть сотни готовых поз.
@@IIIDMurasaki Сколько боли!)) Есть те - кто прям юзает ее для генераций, но согласен - на вкус и цвет все фломастеры разные.)
@@IIIDMurasaki очень странно такое слышать про DAZ. Укажите тогда софт лучше. Я работаю с ним 16 лет и он только лучше с каждой версией.
@@ERA-7 Софт лучше? Да легко! Драпировка ткани в режиме онлайн у Марвелос Дизайнер против ужасно тормознутого и багованного дифорса (ну, да дифорс немного подтянули в последних обновах, но он всё равно дно). Позирование с инверсной кинематикой лучше в любом другом софте, где это поддерживается (от синьки и блендер до примитивного ДизайнДолл). Вообще позирование, а даз в первую очередь про позы, - это та ещё попаболь (пруф: ну попробуйте запозить обнимающуюся парочку без готовых поз). Анимация в дазе - вообще адище (я убил не один день, так что знаю о чём говорю, привет от скользящих ног), а если получилось анимировать, то велком в долгий-долгий-долгий рендер. Тот же блендер и Юнити лучше. Синька - топ. Кастомизация лиц персонажей - лучше в софте Реалюжен как и волосы, особенно бороды. Может есть нормальный инструмент для скульптинга, чтобы хотя бы немного геометрию меша поправить, а не это убожество мешграбер (привет передают Зедбраш и тот же блендер)?
Убогий интерфейс на костылях, который даже не поддерживает 4К (ага, "лучше с каждой версией" и это в 2023 году).
А эта волшебная загрузка базовой G8 в несколько минут, если в датабазе больше сотни моделей и 3-4 пакета морфов?
А эта чудесная опция с отсутствием поддержки шмоток, волос, поз старших моделей у младших? Да, про костыли я знаю (обувь передаёт привет).
А эта восхитительная ценовая политика последних лет, когда костюмы стали дербанить на части и продавать по фулпрайсу каждую? Тоже "лучше с каждой версией"? Да, я в курсе где всё скачать. Просто жаль людей, кто покупает за свои кровные.
А качество самих ассетов тоже улучшилось? В сторе полно откровенного говна, сделанного тяп-ляп, особенно в последнее время.
А забивание видеопамяти (у меня 11гигов) под завязку, что аж рендер на проц сваливается с помощью всего двух персов с дифорс хаирами от Линдей?
А когда физика мягких тел? А когда нормальная коллизия без костылей?
Могу и дальше продолжить, но харе. И так разошелся.
Да, в дазе можно делать отличные фотореал рендеры, но на каждый кадр нужно убить кучу времени и сил. Сам сижу в дазе, так как ленюсь освоить блендер в полной мере. Даз сейчас - это софт для скучающих пенсионеров, а не эффективный инструмент художника.
Не понял как цветной шум на картинку добавить?
Я в фотошопе делал.
@@cg_dist Я уж подумал что что-то пропустил 😀 Спасибо! И за видео и за ответ.
Скажие-ка пожалуйста как добавить этот самый цветой шум=)
Я накидывал в фотошопе. Шумы из видео можно скачать у нас в чате, но они взяты с потолка и скорее всего можно найти лучший вариант.
Ну или можно использоваться wildcard в промпте как {1-3$$__pose__}
Эмм. А можно поподробнее?) Или ссылку - где почитать.
Добрый день. Можете скинуть ссылку на сборку?
Это один из протогенов, но он специализирован на реализм, я не подбирал специально На civitai.com можно варианты посмотреть.
Вообще реально на 6ти гиговой видюхе обучение нейронки запустить?
Я на 1060 6gb спокойно обучал. Делай разрешение картинок меньше 512px. Уже не помню точную цифру, другую карту купил.
400 с чем-то.
Я очень издалека к этому подхожу.))))
@@HarryPotterObamaSonic13 мне постоянно выдает ошибку типа не хватает памяти. Уменьшал разрешение все равно не помогает. Думал возможно есть другая сборка или скрипты какие-то.
@@yaroslavdmitriev3028 --lowvram в автоазапуске и 360px пробуй. Не должно быть ошибок
А я меньше понял, чем из прдыдущих роликов((((((
Тема довольно абстрактная получилась и много нюансов, возможно из-за этого.
похожесть персонажа так и есть проблема....
Как убалтать СД рисовать персонажам жесть фак ю!?! Упорно не желает ни промтом, ни шаблоном, ни пик2пик. ни контрол нет'ом. Указательные пожалуйста рисует вмето заданный средних, ползункии двигал, значения менял. Не хотит, какая то ханжа!))
Неужеели так сложно сказать что за программа для создания поз? Или в описание кинуть?...
Извините извините!))) webapp.magicposer.com/
@@cg_dist Спасибо :) психанул, очень трудно собирать информацию просто :D
@@Terra_Nova_88 Есть такое.)