- Видео 19
- Просмотров 56 632
Ирина Бондарева
Добавлен 26 ноя 2023
Ирина Бондарева - нейрохудожник и аниматор. Работаю в нейросети Stable Diffusion.
FLUX ▪ LoRA - тренируем на СТИЛЬ ✔ Тестируем в Forge и ComfyUI
В этом видео мы обучим LoRA на стиль. Но этот же алгоритм подходит для того, чтобы натренировать Лору на сходство по внешности. Готовую Лору мы потестируем в Forge и ComfyUI.
____________________________________________________________________
Мой рабочий процесс на Бусти: (boosty.to/iren_bondareva/posts/7ce73890-09a5-44f8-be56-180c02b5d343?share=post_link)
__________________________________________________________
🔗Ресурсы:
- Сервис Пиноккио: pinokio.computer/
Если вам понравилась моя работа, вы можете поддержать меня вот здесь: boosty.to/iren_bondareva/donate
____________________________________________________________________
Мой рабочий процесс на Бусти: (boosty.to/iren_bondareva/posts/7ce73890-09a5-44f8-be56-180c02b5d343?share=post_link)
__________________________________________________________
🔗Ресурсы:
- Сервис Пиноккио: pinokio.computer/
Если вам понравилась моя работа, вы можете поддержать меня вот здесь: boosty.to/iren_bondareva/donate
Просмотров: 719
Видео
✔ Замена фона ✔ модель FLUX ✔ возможность ПЕРЕосвещения (модель IC-Light) ✔ ComfyUI
Просмотров 9292 месяца назад
Замена фона у изображения с возможностью переосвещения, используя модели FLUX и IC-Light. Универсальный рабочий процесс в среде ComfyUI, который может использоваться как в портретной съемке, так и рекламной предметной съемке. 🔧 Материалы к этому уроку вы можете скачать у меня на Бусти: boosty.to/iren_bondareva/posts/182f9df9-d569-4fb1-a80b-2672489ab4dd?share=post_link 🔹 МОДЕЛИ: ▪ Flux fp8: hugg...
✔Анимированная модель OpenPose (чел из палочек) в Blender, ✔применяю в ComfyUI. Работает!
Просмотров 9213 месяца назад
В этом видео мы создадим свои собственные карты OpenPose для последующей анимации персонажа в ComfyUI. ▪ Для этого сначала я сделаю модель разноцветного "палочного" человека в программе Blender, назначу ему скелет и анимирую на сайте Mixamo. ▪ Далее придам ему "двухмерность" и запущу рабочий процесс в ComfyUI по созданию анимации на двух примерах - шагающей девушки и танцующего парня. ▪ Так же ...
3D-сканирование реального объекта ➡ 3d-сетка ➡ контроллеры движения ➡анимация ➡ стилизация в ComfyUI
Просмотров 5464 месяца назад
В этом видео: ▪ 3d-сканирование реального объекта и получение его 3d-модели, используя нейросеть Luma ai. ▪ доработка сетки в программе Blender; ▪ установка на 3d-модель контроллеров движения и назначение готовой анимации с сайта Mixamo; ▪ финальная стилизация анимации в ComfyUI. 🔧Все материалы к этому уроку: - модель без анимации в формате .fbx, - модель с анимацией в формате .fbx, - ролик в ф...
Запускаем FLUX локально в ComfyUI
Просмотров 7 тыс.5 месяцев назад
В этом видео мы запустим FLUX - новую нейросеть от создателей Stable Diffusion на локальном компьютере в среде ComfyUI. Потестируем то, как нейросеть работает с руками, с текстом, стилем шрифтов, широкоформатным разрешением, детализацией и общей эстетикой. 🔗РЕСУРСЫ: - Страница разработчиков: huggingface.co/black-forest-labs 🔹 МОДЕЛИ: - Flux Schnell: huggingface.co/black-forest-labs/FLUX.1-schne...
ИЗОБРАЖЕНИЕ в 3D \\\\ Назначение анимации \\\\ Стилизация в ComfyUI
Просмотров 6205 месяцев назад
В этом видео: ▪ создадим персонажа с нуля на основе изображения-эскиза. ▪ протестируем две нейросети по созданию 3D модели на основе картинки; ▪ при необходимости подкорректируем сетку в Blender; ▪ назначим готовую анимацию с сайта Mixamo; ▪ выполним финальную стилизацию анимации в ComfyUI. 🔧Все материалы к этому уроку (рабочий процесс по созданию эскиза, модель в формате .fbx, анимированная мо...
CASCADEUR + ComfyUI // Установка контроллеров движения на ЛЮБУЮ 3d-модель // Cтилизация в ComfyUI
Просмотров 5736 месяцев назад
Анимация Cascadeur ComfyUI. 🔧Все материалы этого урока рабочий процесс можно скачать у меня на Бусти: boosty.to/iren_bondareva Основные моменты этого видео: ▪ установка контроллеров движения на любую 3d-модель (свою собственную или скачанную из интернета), имеющую сетку и скелет в программе Cascadeur; ▪ назначение модели готового движения, взятого с сайта Mixamo; ▪ коррекция движения; ▪ стилиза...
Cascadeur + ComfyUI. Весь процесс анимации. Свой персонаж, свое движение с нуля, анимированный фон
Просмотров 1,6 тыс.7 месяцев назад
В этом ролике я покажу весь процесс по анимации персонажа и фона, используя Cascadeur и ComfyUI. - Начнем с создания своего собственного движения "с нуля" в программе по анимации Cascadeur на базе 3d-модели, - перенесем анимированную модель в ComfyUI, - стилизуем ее под определенный жанр аниме, - добавим фон (также анимированный в ComfyUI), - соединим персонажа и фон - и заново отрисуем, исполь...
Анимация ФРАГМЕНТА картинки. МАСКА, модель ControlGIF. Stable Diffusion | ComfyUI
Просмотров 9807 месяцев назад
В этом ролике я покажу, как анимировать фрагмент изображения. Готовый рабочий процесс: boosty.to/iren_bondareva/posts/00168b29-a356-4a45-9072-ace63118cede?share=post_link 🔗РЕСУРСЫ: - Расширение ControlGIF: github.com/crystallee-ai/controlGIF 🔹 МОДЕЛИ: - Модель для ControlNet (в папку models/controlnet): huggingface.co/crishhh/animatediff_controlnet/tree/main - Модель для AnimateDiff: huggingfac...
ВИДЕО с персонажем + ВИДЕО с фоном. Меняем фон у персонажа/новое освещение/ComfyUI / IC_Light
Просмотров 4718 месяцев назад
В этом уроке мы объединим два видео. У нас есть видео с персонажем и есть видео с другим фоном. Расширение IC-LIGHT "впишет" персонажа в новый фон. При этом в изображении движущегося персонаже будут учтены цветовая гамма и источники освещения фонового видео. Так же расширение позволит добавить еще один источник света для более детального освещения и настроить его форму, размер и траекторию. Ссы...
LoRA SDXL локально на ПК/Установка/Настройка/Тест готовых моделей. Kohya_ss
Просмотров 9 тыс.8 месяцев назад
В этом видео я покажу, как локально установить среду для тренировки LoRA на ПК (Kohya_ss), выполнить все необходимые настройки, запустить процесс обучения и протестировать готовые варианты моделей. Пошаговый Чек-лист, где прописаны все пункты настройки Kohya_ss можно скачать у меня на Boosty: boosty.to/iren_bondareva/posts/0e5dd922-9965-4b15-97d0-10e84e07cac6 🔗Ресурсы: - страница разработчика K...
Возможности IPAdapter V2. Установка. Одеваем персонажа/несколько деталей одежды с разных фото
Просмотров 3 тыс.9 месяцев назад
В этом видео я расскажу о возможностях IPAdapter версии 2 и на примерах покажу, как с его помощью можно одеть персонажа в одежду, состоящую из нескольких элементов. В качестве образца будут использованы "плоские" детали одежды, взятые из интернет-магазина. Готовый рабочий процесс вы можете скачать у меня на Boosty по ссылке: boosty.to/iren_bondareva/posts/a70396e9-073f-4703-a818-b53006b5b359?sh...
Анимация ComfyUI: Удаление фона видео / Захват движения / Перенос на персонажа в свою локацию
Просмотров 2,5 тыс.10 месяцев назад
В этом ролике я покажу как качественно удалить фон с исходного видео, сделать захват движения и немного общего силуэта, использую карты OpenPose и LineArt и перенести их на своего собственного персонажа в свою собственную локацию. Готовый рабочий процесс вы можете скачать у меня на Бусти по ссылке: boosty.to/iren_bondareva/posts/e8468e0f-448d-4c73-8ef8-b899a74ee103?share=post_link 🔗РЕСУРСЫ: - П...
Анимация персонажа в ComfyUI по ОДНОЙ картинке + OpenPose / Расширение Animate AnyOne
Просмотров 6 тыс.11 месяцев назад
В этом видео я покажу, как анимировать любого персонажа по одной картинке, задав ему желаемые движения, используя расширение Animate AnyOne🐱🏍 Мой рабочий процесс вы можете бесплатно скачать здесь: //boosty.to/iren_bondareva/posts/629db7d6-486f-4d6d-b5da-fc3cd96b8b12 Ресурсы: Список необходимых для скачивания файлов и структура папок - в нижней части страницы: //github.com/MrForExample/ComfyUI-...
Плавная анимация в ComfyUI / Пошаговый урок на примерах / AnimateDiff, ControlNET, модели движения
Просмотров 8 тыс.11 месяцев назад
В этом ролике я пошагово покажу как делать анимацию текста в видео и видео в видео. По сначала расскажу о самом простом способе установки ComfyUI и сопутствующих плагинов. Мы рассмотрим ключевые моменты по настройке и редактированию рабочего процесса, чтобы вы чувствовали себя уверенно и комфортно в пользовательском интерфейсе ComfyUI. 🔗Ресурсы: Аренда удаленного компьютера: //shadow.tech/ (мой...
Установка Stable Diffusion в 1 клик на удаленный компьютер. Аренда PC на сервисе Shadow.tech
Просмотров 836Год назад
Установка Stable Diffusion в 1 клик на удаленный компьютер. Аренда PC на сервисе Shadow.tech
Детальная сцена в Stable Diffusion+ControlNet+PoseMyArt | Точная настройка позы, внешности и пейзажа
Просмотров 7 тыс.Год назад
Детальная сцена в Stable Diffusion ControlNet PoseMyArt | Точная настройка позы, внешности и пейзажа
Быстрый перенос больших файлов с RunPod на GoogleДиск и обратно
Просмотров 299Год назад
Быстрый перенос больших файлов с RunPod на GoogleДиск и обратно
Тренируем LoRA на базе модели SDXL с использованием RunPod / Kohya_ss, Юпитер, Stable Diffusion
Просмотров 6 тыс.Год назад
Тренируем LoRA на базе модели SDXL с использованием RunPod / Kohya_ss, Юпитер, Stable Diffusion
здравствуйте, а что делать если python более поздней версии? у меня 11.9
Не понимаю почему оно работает у других, а у меня постоянно ошибка 'VAE' object has no attribute 'vae_dtype' . Я же не могу обойтись без ноды Load VAE и напрямую подключить vae от load checkpoint, это же не stable diffusion!
при начале генерации в консоли пишет "got prompt" и сразу останавливается. Ничего больше не пишет
При перетаскивании картинки с civitai в поле comfyui ничего не происходит. Никакой рабочий процесс не переносится
Ирина, Добрый день! К Вам можно обратится по поводу заказа анимации? Если да, то куда написать?
Добрый день! К сожалению, в настоящий момент из-за большой загруженности я не могу взять заказ.
Текст-видео, делал на другой модели, но тоже 1.5. На выходе получил двигающиеся цветные пиксели вместо нормальной картинки. Видео-видео, на выходе само видео не выгрузилось. Есть раскадровка, есть раскадровка опен пос, но самого видео нет.
Цветные пиксели вместо картинки могут получиться в том случае, если выбрана несоответствующая модель вае. По поводу видео: вы используете ноду видео-комбайн? Какой выходной формат у вас выбран на выходе? Должно быть mp4.
Ты лучшая❤❤❤❤❤❤❤❤
Сделайте видео по тренировке лор в Illustrious
прекрасный гайд, очень хотелось бы понимать, какая у Вас видоеокарта?
в консоле увидел, у автора nvidia a4500
10:14 а я разбился нахуй Вы настраиваете все под себя, но не объясняете, что именно делаете и для чего. У вас это получается хорошо, но информации, к сожалению, недостаточно.
сейчас такого нет когда картинку с сивиай перетаскиваешь
Спасибо большое за инструкцию, единственная просьба в будущем не так быстро показывать пути сохранения файлов.
Зачем скачивать энкодеры, если они содержатся во Флаксе?
но видь самураи все на одно лицо?
Запускаю а там хрен тебе :)
Да,огонь! Спасибо за видео.
В общем вещь интересная, но если у вас карта хотя бы не от 20гб смысла нет возиться. Не тратьте время, оно того не стоит, а если прям так надо, лучше арендовать сервер с мощной картой тогда уж. Я на 4070 с 12гб - 7 эпох часов 9 делал на 11 фотках КАРЛ, на ночь оставил. Результат не впечатлил. Переделывать снова желания не было. А вот для Flux тренирую лоры с теми же картинками, с большими эпохами и шагами. От 30 минут до трех часов и результат шикарный. Делаю через Pinokio - fluxgym. Делал по фоткам жены, 24 фотки, 10 эпох 4160 шагов за 3 часа и 26 минут. Вот вам разница. А результат на Flux сами понимаете. максимальная реалистичность )
Ого🎉
Если 11Гб VRAM, то fluxgym не работает?
Ирина, контент - огонь!
добрый вечер, у вас можно приобрести курсы?
Действительно, пора записывать свой курс!
Если в Advaiced настроики заити, то справа можно задать чтобы сохранялась каждая эпоха, по умолчанию каждую 4ю сохраняет)
спасибо ! Всё четко, понятно без воды.
Пожалуйста! Рада, что ролик оказался полезным😊
Прекрасно! Как это сделать на АМД?
Никак, пока не видел способов запуска кохи, и сам пробовал, не получалось. У амдшки нет cuda ядер, как это есть у nvidia.
спасибо!
Пожалуйста😊
Модель создана, а где искать эту вкладку txt2img не сказано ее нет..
Шикарный голос
С таким голосом лучше судьбу по таро рассказывать чем технические моменты ))))
а че тебя не устроило? не проспался еще с нового года?
@@deepcosmodesign6804 ты бы еще в 2030 году ответил ))) Поэтому кто тут не проснулся?
Спасибо за ваш контент!
Видео неплохое, но проблема в том, что вы слишком быстро перемещаетесь с места на место. Из-за этого многое становится непонятным. Если вы будете снимать видео последовательно, зрителям будет гораздо проще понять, что и как делать, а также откуда что взялось или куда нужно обратиться, чтобы это получить.
Скажите пожалуйста, для работы с comfy UI нужно скачитвать Stable diffusions???
Не могу не как понять как у вас после всех своих действий открылись вот эти окошки для генераций? У меня так нет не чего такого, почему вы не качали формат json?
Девушка, вы космос ) Очень толковый урок, огромное спасибо Вам )
А если в консоли пишет "Using pytorch attention in VAE" и замораживается полностью? На Hugging face написано для работы pytorch "first install or upgrade diffusers" pip install -U diffusers Но что делать с этим текстом???
Нужно запустить эту команду в командной строке pip install -U diffusers Вот здесь похожие действия: pypi.org/project/diffusers/0.11.1/
@irinabondareva1 Благодарю!!
Полезная информация. Только шум на фоне очень мешает. Приходится смотреть видео с субтитрами без звука.
При вводе первой команды пишет error: RPC failed; curl 92 HTTP/2 stream 5 was not closed cleanly: CANCEL (err 8) error: 5314 bytes of body are still expected . не знаете как исправить?
4060 на 8 гигов вообще сможет это чудо осилить?
Здравствуйте, а почему вы пропустили установку CUDA Toolkit ?
Спасибо вам, Ирина! Вы настоящий профессионал и энтузиаст. Работа с каналами в комфи - это высший пилотаж! Рок музыка - тоже супер деталь) Обязательно буду пробовать и пересмотрю видео ещё несколько раз - уверен что возникнут вопросы. А сейчас такой вопрос - вы используете 3 разных чекпоинта, это сильно требовательно к видеокарте. Вы используете какой-то сервис, вроде RunPod? Или это всё на вашем личном компьютере работает? Интересно, какое железо.
Спасибо за хорошие слова😊 Я работаю на удаленном компьютере, используя сервис shadow.tech. В отличие от RunPod, они предоставляют в распоряжение виртуальный комп с виндовс, где сам пользователь в праве устанавливать всё, что хочет. Мощность железа зависит от стоимости подписки. У меня видеокарта RTX A4500 с 24 гигами памяти. У меня есть ролик по этой теме, вот здесь: ruclips.net/video/3FOb7SF9G9s/видео.html
Спасибо..А где искать эти ноды?))
Бесплатный урок как делать уроки 1.- убираешь свою дебильную музыку 2. - когда что-то нажимаешь - показываешь, что нажимаешь 3. - когда что-то делаешь - всегда говоришь (!) зачем ты это делаешь.
Интересно, спасибо вам за то что делитесь опытом. Дальнейшее развитие этой области создания видео - в отдельных сервисах и обученных для этого моделях. Это animateDiff или типа того? Они априори являются костылями, и так и будут тупить, не понимая персонвж повернут спиной или лицом. Ожидаем. Следующий год обещает быть прорывным.
Большое спасибо! Буду пробовать 👍
Не совсем понимаю смысла. У вас уже есть 3D модель, есть 3D анимация, почему просто не отрендерить традиционную 3D анимацию со стилизованными шейдерами? Если с нейронкой результат такой нестабильный, где у него штаны в рубашку превращаются и непонятно что происходит с конечностями при перевороте?
Я не понял вообще как вы перетащили картинку и он там ноды раскидывал!? у меня выдает ошибку
Я просто цепляю картинку и тащу в свой ComfyUI. Из папки на компьютере или прямо с сайта - роли не играет. На CivitAI многие картинки содержат в себе рабочие процессы, потому что авторы постят эти изображения сразу после генерации, никак не обрабатывая из, к примеру, в фотошопе. Такую картинку достаточно просто перетащить в свою среду ComfyUI, и все ноды раскроются. Из Проводника или с сайта, это не важно. Почему выдается ошибка я не знаю... может быть, изображения, которые перетаскиваете вы, не содержат рабочих процессов, так как перед постингом прошли обработку или сам автор закрыл workflow, или какая-то другая причина...?🤔 Можно попробовать на других картинках с сайта. Или, к примеру, проверить на своей собственной сгенерированной картинке - работает ли этот процесс у вас в принципе
Хотел поставить лайк как досмотрю, но увидев как влючить темную тему хотел влепить 10 сразу же!)) Спасибо большое за видео!
на 4070 с 12ю гигабайтами видео . начинает кушать 15 . и под это дело берет место с ОЗУ . Из за чего время на трейн уходит за 2 часа . Есть ли способ не давать утечку в ОЗУ ?
Max train steps 1600, когда выставляешь, не работает, а когда просто пустое поле, то работает. Как быть, что не так? Пишет total optimization steps 0, и всё, ничего не происходит!
все заработало оставил поле Max train epoch пустым и все заработало а в поле Max train steps поставил 1600 и все начло работать надеюсь кому то помог...просто если ставить 0 в первом поле и во втором 1600 то как и описывал не чего не работает...!
только вот теперь не одна шкала а вот так по порядку идет так должно быть? steps: 0%| | 2/1600 [01:23<18:30:39, 41.70s/it, avr_loss=0.0714]13:45:22-693214 INFO Save... steps: 1%|▎ | 9/1600 [07:56<23:25:21, 53.00s/it, avr_loss=0.0809] steps: 1%|▌ | 18/1600 [13:26<19:41:04, 44.79s/it, avr_loss=0.096]
А там нельзя по кадрам задать промты как в дефоруме?
hi, could you also make a tutorial on how to create a pony checkpoint?
flux лоры прокатит через Kohya учить? Все-таки SDXL модели уже отходят далеко на задний план.