Ирина Бондарева
Ирина Бондарева
  • Видео 19
  • Просмотров 56 632
FLUX ▪ LoRA - тренируем на СТИЛЬ ✔ Тестируем в Forge и ComfyUI
В этом видео мы обучим LoRA на стиль. Но этот же алгоритм подходит для того, чтобы натренировать Лору на сходство по внешности. Готовую Лору мы потестируем в Forge и ComfyUI.
____________________________________________________________________
Мой рабочий процесс на Бусти: (boosty.to/iren_bondareva/posts/7ce73890-09a5-44f8-be56-180c02b5d343?share=post_link)
__________________________________________________________
🔗Ресурсы:
- Сервис Пиноккио: pinokio.computer/
Если вам понравилась моя работа, вы можете поддержать меня вот здесь: boosty.to/iren_bondareva/donate
Просмотров: 719

Видео

✔ Замена фона ✔ модель FLUX ✔ возможность ПЕРЕосвещения (модель IC-Light) ✔ ComfyUI
Просмотров 9292 месяца назад
Замена фона у изображения с возможностью переосвещения, используя модели FLUX и IC-Light. Универсальный рабочий процесс в среде ComfyUI, который может использоваться как в портретной съемке, так и рекламной предметной съемке. 🔧 Материалы к этому уроку вы можете скачать у меня на Бусти: boosty.to/iren_bondareva/posts/182f9df9-d569-4fb1-a80b-2672489ab4dd?share=post_link 🔹 МОДЕЛИ: ▪ Flux fp8: hugg...
✔Анимированная модель OpenPose (чел из палочек) в Blender, ✔применяю в ComfyUI. Работает!
Просмотров 9213 месяца назад
В этом видео мы создадим свои собственные карты OpenPose для последующей анимации персонажа в ComfyUI. ▪ Для этого сначала я сделаю модель разноцветного "палочного" человека в программе Blender, назначу ему скелет и анимирую на сайте Mixamo. ▪ Далее придам ему "двухмерность" и запущу рабочий процесс в ComfyUI по созданию анимации на двух примерах - шагающей девушки и танцующего парня. ▪ Так же ...
3D-сканирование реального объекта ➡ 3d-сетка ➡ контроллеры движения ➡анимация ➡ стилизация в ComfyUI
Просмотров 5464 месяца назад
В этом видео: ▪ 3d-сканирование реального объекта и получение его 3d-модели, используя нейросеть Luma ai. ▪ доработка сетки в программе Blender; ▪ установка на 3d-модель контроллеров движения и назначение готовой анимации с сайта Mixamo; ▪ финальная стилизация анимации в ComfyUI. 🔧Все материалы к этому уроку: - модель без анимации в формате .fbx, - модель с анимацией в формате .fbx, - ролик в ф...
Запускаем FLUX локально в ComfyUI
Просмотров 7 тыс.5 месяцев назад
В этом видео мы запустим FLUX - новую нейросеть от создателей Stable Diffusion на локальном компьютере в среде ComfyUI. Потестируем то, как нейросеть работает с руками, с текстом, стилем шрифтов, широкоформатным разрешением, детализацией и общей эстетикой. 🔗РЕСУРСЫ: - Страница разработчиков: huggingface.co/black-forest-labs 🔹 МОДЕЛИ: - Flux Schnell: huggingface.co/black-forest-labs/FLUX.1-schne...
ИЗОБРАЖЕНИЕ в 3D \\\\ Назначение анимации \\\\ Стилизация в ComfyUI
Просмотров 6205 месяцев назад
В этом видео: ▪ создадим персонажа с нуля на основе изображения-эскиза. ▪ протестируем две нейросети по созданию 3D модели на основе картинки; ▪ при необходимости подкорректируем сетку в Blender; ▪ назначим готовую анимацию с сайта Mixamo; ▪ выполним финальную стилизацию анимации в ComfyUI. 🔧Все материалы к этому уроку (рабочий процесс по созданию эскиза, модель в формате .fbx, анимированная мо...
CASCADEUR + ComfyUI // Установка контроллеров движения на ЛЮБУЮ 3d-модель // Cтилизация в ComfyUI
Просмотров 5736 месяцев назад
Анимация Cascadeur ComfyUI. 🔧Все материалы этого урока рабочий процесс можно скачать у меня на Бусти: boosty.to/iren_bondareva Основные моменты этого видео: ▪ установка контроллеров движения на любую 3d-модель (свою собственную или скачанную из интернета), имеющую сетку и скелет в программе Cascadeur; ▪ назначение модели готового движения, взятого с сайта Mixamo; ▪ коррекция движения; ▪ стилиза...
Cascadeur + ComfyUI. Весь процесс анимации. Свой персонаж, свое движение с нуля, анимированный фон
Просмотров 1,6 тыс.7 месяцев назад
В этом ролике я покажу весь процесс по анимации персонажа и фона, используя Cascadeur и ComfyUI. - Начнем с создания своего собственного движения "с нуля" в программе по анимации Cascadeur на базе 3d-модели, - перенесем анимированную модель в ComfyUI, - стилизуем ее под определенный жанр аниме, - добавим фон (также анимированный в ComfyUI), - соединим персонажа и фон - и заново отрисуем, исполь...
Анимация ФРАГМЕНТА картинки. МАСКА, модель ControlGIF. Stable Diffusion | ComfyUI
Просмотров 9807 месяцев назад
В этом ролике я покажу, как анимировать фрагмент изображения. Готовый рабочий процесс: boosty.to/iren_bondareva/posts/00168b29-a356-4a45-9072-ace63118cede?share=post_link 🔗РЕСУРСЫ: - Расширение ControlGIF: github.com/crystallee-ai/controlGIF 🔹 МОДЕЛИ: - Модель для ControlNet (в папку models/controlnet): huggingface.co/crishhh/animatediff_controlnet/tree/main - Модель для AnimateDiff: huggingfac...
ВИДЕО с персонажем + ВИДЕО с фоном. Меняем фон у персонажа/новое освещение/ComfyUI / IC_Light
Просмотров 4718 месяцев назад
В этом уроке мы объединим два видео. У нас есть видео с персонажем и есть видео с другим фоном. Расширение IC-LIGHT "впишет" персонажа в новый фон. При этом в изображении движущегося персонаже будут учтены цветовая гамма и источники освещения фонового видео. Так же расширение позволит добавить еще один источник света для более детального освещения и настроить его форму, размер и траекторию. Ссы...
LoRA SDXL локально на ПК/Установка/Настройка/Тест готовых моделей. Kohya_ss
Просмотров 9 тыс.8 месяцев назад
В этом видео я покажу, как локально установить среду для тренировки LoRA на ПК (Kohya_ss), выполнить все необходимые настройки, запустить процесс обучения и протестировать готовые варианты моделей. Пошаговый Чек-лист, где прописаны все пункты настройки Kohya_ss можно скачать у меня на Boosty: boosty.to/iren_bondareva/posts/0e5dd922-9965-4b15-97d0-10e84e07cac6 🔗Ресурсы: - страница разработчика K...
Возможности IPAdapter V2. Установка. Одеваем персонажа/несколько деталей одежды с разных фото
Просмотров 3 тыс.9 месяцев назад
В этом видео я расскажу о возможностях IPAdapter версии 2 и на примерах покажу, как с его помощью можно одеть персонажа в одежду, состоящую из нескольких элементов. В качестве образца будут использованы "плоские" детали одежды, взятые из интернет-магазина. Готовый рабочий процесс вы можете скачать у меня на Boosty по ссылке: boosty.to/iren_bondareva/posts/a70396e9-073f-4703-a818-b53006b5b359?sh...
Анимация ComfyUI: Удаление фона видео / Захват движения / Перенос на персонажа в свою локацию
Просмотров 2,5 тыс.10 месяцев назад
В этом ролике я покажу как качественно удалить фон с исходного видео, сделать захват движения и немного общего силуэта, использую карты OpenPose и LineArt и перенести их на своего собственного персонажа в свою собственную локацию. Готовый рабочий процесс вы можете скачать у меня на Бусти по ссылке: boosty.to/iren_bondareva/posts/e8468e0f-448d-4c73-8ef8-b899a74ee103?share=post_link 🔗РЕСУРСЫ: - П...
Анимация персонажа в ComfyUI по ОДНОЙ картинке + OpenPose / Расширение Animate AnyOne
Просмотров 6 тыс.11 месяцев назад
В этом видео я покажу, как анимировать любого персонажа по одной картинке, задав ему желаемые движения, используя расширение Animate AnyOne🐱‍🏍 Мой рабочий процесс вы можете бесплатно скачать здесь: //boosty.to/iren_bondareva/posts/629db7d6-486f-4d6d-b5da-fc3cd96b8b12 Ресурсы: Список необходимых для скачивания файлов и структура папок - в нижней части страницы: //github.com/MrForExample/ComfyUI-...
Плавная анимация в ComfyUI / Пошаговый урок на примерах / AnimateDiff, ControlNET, модели движения
Просмотров 8 тыс.11 месяцев назад
В этом ролике я пошагово покажу как делать анимацию текста в видео и видео в видео. По сначала расскажу о самом простом способе установки ComfyUI и сопутствующих плагинов. Мы рассмотрим ключевые моменты по настройке и редактированию рабочего процесса, чтобы вы чувствовали себя уверенно и комфортно в пользовательском интерфейсе ComfyUI. 🔗Ресурсы: Аренда удаленного компьютера: //shadow.tech/ (мой...
Установка Stable Diffusion в 1 клик на удаленный компьютер. Аренда PC на сервисе Shadow.tech
Просмотров 836Год назад
Установка Stable Diffusion в 1 клик на удаленный компьютер. Аренда PC на сервисе Shadow.tech
Детальная сцена в Stable Diffusion+ControlNet+PoseMyArt | Точная настройка позы, внешности и пейзажа
Просмотров 7 тыс.Год назад
Детальная сцена в Stable Diffusion ControlNet PoseMyArt | Точная настройка позы, внешности и пейзажа
Быстрый перенос больших файлов с RunPod на GoogleДиск и обратно
Просмотров 299Год назад
Быстрый перенос больших файлов с RunPod на GoogleДиск и обратно
Тренируем LoRA на базе модели SDXL с использованием RunPod / Kohya_ss, Юпитер, Stable Diffusion
Просмотров 6 тыс.Год назад
Тренируем LoRA на базе модели SDXL с использованием RunPod / Kohya_ss, Юпитер, Stable Diffusion

Комментарии

  • @danielwaizman7519
    @danielwaizman7519 13 часов назад

    здравствуйте, а что делать если python более поздней версии? у меня 11.9

  • @СергейПресняков-о4р

    Не понимаю почему оно работает у других, а у меня постоянно ошибка 'VAE' object has no attribute 'vae_dtype' . Я же не могу обойтись без ноды Load VAE и напрямую подключить vae от load checkpoint, это же не stable diffusion!

  • @СергейПресняков-о4р

    при начале генерации в консоли пишет "got prompt" и сразу останавливается. Ничего больше не пишет

  • @СергейПресняков-о4р

    При перетаскивании картинки с civitai в поле comfyui ничего не происходит. Никакой рабочий процесс не переносится

  • @KRpro_01
    @KRpro_01 3 дня назад

    Ирина, Добрый день! К Вам можно обратится по поводу заказа анимации? Если да, то куда написать?

    • @irinabondareva1
      @irinabondareva1 День назад

      Добрый день! К сожалению, в настоящий момент из-за большой загруженности я не могу взять заказ.

  • @sansara3223
    @sansara3223 4 дня назад

    Текст-видео, делал на другой модели, но тоже 1.5. На выходе получил двигающиеся цветные пиксели вместо нормальной картинки. Видео-видео, на выходе само видео не выгрузилось. Есть раскадровка, есть раскадровка опен пос, но самого видео нет.

    • @irinabondareva1
      @irinabondareva1 3 дня назад

      Цветные пиксели вместо картинки могут получиться в том случае, если выбрана несоответствующая модель вае. По поводу видео: вы используете ноду видео-комбайн? Какой выходной формат у вас выбран на выходе? Должно быть mp4.

  • @Liksuchka
    @Liksuchka 7 дней назад

    Ты лучшая❤❤❤❤❤❤❤❤

  • @romanakolzin2472
    @romanakolzin2472 17 дней назад

    Сделайте видео по тренировке лор в Illustrious

  • @dev1l694
    @dev1l694 19 дней назад

    прекрасный гайд, очень хотелось бы понимать, какая у Вас видоеокарта?

    • @MLagers
      @MLagers 2 часа назад

      в консоле увидел, у автора nvidia a4500

  • @Naxily24
    @Naxily24 21 день назад

    10:14 а я разбился нахуй Вы настраиваете все под себя, но не объясняете, что именно делаете и для чего. У вас это получается хорошо, но информации, к сожалению, недостаточно.

  • @user-uroki
    @user-uroki 22 дня назад

    сейчас такого нет когда картинку с сивиай перетаскиваешь

  • @Rainon_v
    @Rainon_v 25 дней назад

    Спасибо большое за инструкцию, единственная просьба в будущем не так быстро показывать пути сохранения файлов.

  • @Victor_Ivanovsky
    @Victor_Ivanovsky 25 дней назад

    Зачем скачивать энкодеры, если они содержатся во Флаксе?

  • @404chan8
    @404chan8 29 дней назад

    но видь самураи все на одно лицо?

  • @miafrommongolia
    @miafrommongolia Месяц назад

    Запускаю а там хрен тебе :)

  • @Axel-zb8nx
    @Axel-zb8nx Месяц назад

    Да,огонь! Спасибо за видео.

  • @III_GROMOV_III
    @III_GROMOV_III Месяц назад

    В общем вещь интересная, но если у вас карта хотя бы не от 20гб смысла нет возиться. Не тратьте время, оно того не стоит, а если прям так надо, лучше арендовать сервер с мощной картой тогда уж. Я на 4070 с 12гб - 7 эпох часов 9 делал на 11 фотках КАРЛ, на ночь оставил. Результат не впечатлил. Переделывать снова желания не было. А вот для Flux тренирую лоры с теми же картинками, с большими эпохами и шагами. От 30 минут до трех часов и результат шикарный. Делаю через Pinokio - fluxgym. Делал по фоткам жены, 24 фотки, 10 эпох 4160 шагов за 3 часа и 26 минут. Вот вам разница. А результат на Flux сами понимаете. максимальная реалистичность )

  • @sexsolog-garin
    @sexsolog-garin Месяц назад

    Ого🎉

  • @TheVertigoon
    @TheVertigoon Месяц назад

    Если 11Гб VRAM, то fluxgym не работает?

  • @TheDimatikhonov
    @TheDimatikhonov Месяц назад

    Ирина, контент - огонь!

  • @Snap5ter911
    @Snap5ter911 Месяц назад

    добрый вечер, у вас можно приобрести курсы?

    • @fedoborod
      @fedoborod 26 дней назад

      Действительно, пора записывать свой курс!

  • @Rustam.s
    @Rustam.s Месяц назад

    Если в Advaiced настроики заити, то справа можно задать чтобы сохранялась каждая эпоха, по умолчанию каждую 4ю сохраняет)

  • @sharksgangs
    @sharksgangs Месяц назад

    спасибо ! Всё четко, понятно без воды.

    • @irinabondareva1
      @irinabondareva1 Месяц назад

      Пожалуйста! Рада, что ролик оказался полезным😊

  • @seze4628
    @seze4628 Месяц назад

    Прекрасно! Как это сделать на АМД?

    • @MLagers
      @MLagers 2 часа назад

      Никак, пока не видел способов запуска кохи, и сам пробовал, не получалось. У амдшки нет cuda ядер, как это есть у nvidia.

  • @евгенийвиноградов-ь1щ

    спасибо!

  • @semhron
    @semhron Месяц назад

    Модель создана, а где искать эту вкладку txt2img не сказано ее нет..

  • @batenka2083
    @batenka2083 Месяц назад

    Шикарный голос

  • @YuriyLvov
    @YuriyLvov Месяц назад

    С таким голосом лучше судьбу по таро рассказывать чем технические моменты ))))

    • @deepcosmodesign6804
      @deepcosmodesign6804 16 дней назад

      а че тебя не устроило? не проспался еще с нового года?

    • @YuriyLvov
      @YuriyLvov 15 дней назад

      @@deepcosmodesign6804 ты бы еще в 2030 году ответил ))) Поэтому кто тут не проснулся?

  • @rustcohle3232
    @rustcohle3232 Месяц назад

    Спасибо за ваш контент!

  • @ВячеславАбрамов-в6я

    Видео неплохое, но проблема в том, что вы слишком быстро перемещаетесь с места на место. Из-за этого многое становится непонятным. Если вы будете снимать видео последовательно, зрителям будет гораздо проще понять, что и как делать, а также откуда что взялось или куда нужно обратиться, чтобы это получить.

  • @ВячеславАбрамов-в6я

    Скажите пожалуйста, для работы с comfy UI нужно скачитвать Stable diffusions???

    • @ВячеславАбрамов-в6я
      @ВячеславАбрамов-в6я Месяц назад

      Не могу не как понять как у вас после всех своих действий открылись вот эти окошки для генераций? У меня так нет не чего такого, почему вы не качали формат json?

  • @III_GROMOV_III
    @III_GROMOV_III Месяц назад

    Девушка, вы космос ) Очень толковый урок, огромное спасибо Вам )

  • @kaktyc808
    @kaktyc808 Месяц назад

    А если в консоли пишет "Using pytorch attention in VAE" и замораживается полностью? На Hugging face написано для работы pytorch "first install or upgrade diffusers" pip install -U diffusers Но что делать с этим текстом???

    • @irinabondareva1
      @irinabondareva1 Месяц назад

      Нужно запустить эту команду в командной строке pip install -U diffusers Вот здесь похожие действия: pypi.org/project/diffusers/0.11.1/

    • @kaktyc808
      @kaktyc808 Месяц назад

      @irinabondareva1 Благодарю!!

  • @commieworld3814
    @commieworld3814 Месяц назад

    Полезная информация. Только шум на фоне очень мешает. Приходится смотреть видео с субтитрами без звука.

  • @-xd6457
    @-xd6457 2 месяца назад

    При вводе первой команды пишет error: RPC failed; curl 92 HTTP/2 stream 5 was not closed cleanly: CANCEL (err 8) error: 5314 bytes of body are still expected . не знаете как исправить?

  • @NooneKnow-wq2iv
    @NooneKnow-wq2iv 2 месяца назад

    4060 на 8 гигов вообще сможет это чудо осилить?

  • @sonedator
    @sonedator 2 месяца назад

    Здравствуйте, а почему вы пропустили установку CUDA Toolkit ?

  • @fedoborod
    @fedoborod 2 месяца назад

    Спасибо вам, Ирина! Вы настоящий профессионал и энтузиаст. Работа с каналами в комфи - это высший пилотаж! Рок музыка - тоже супер деталь) Обязательно буду пробовать и пересмотрю видео ещё несколько раз - уверен что возникнут вопросы. А сейчас такой вопрос - вы используете 3 разных чекпоинта, это сильно требовательно к видеокарте. Вы используете какой-то сервис, вроде RunPod? Или это всё на вашем личном компьютере работает? Интересно, какое железо.

    • @irinabondareva1
      @irinabondareva1 2 месяца назад

      Спасибо за хорошие слова😊 Я работаю на удаленном компьютере, используя сервис shadow.tech. В отличие от RunPod, они предоставляют в распоряжение виртуальный комп с виндовс, где сам пользователь в праве устанавливать всё, что хочет. Мощность железа зависит от стоимости подписки. У меня видеокарта RTX A4500 с 24 гигами памяти. У меня есть ролик по этой теме, вот здесь: ruclips.net/video/3FOb7SF9G9s/видео.html

  • @andreyborzov3095
    @andreyborzov3095 2 месяца назад

    Спасибо..А где искать эти ноды?))

  • @tolkopravdaru
    @tolkopravdaru 2 месяца назад

    Бесплатный урок как делать уроки 1.- убираешь свою дебильную музыку 2. - когда что-то нажимаешь - показываешь, что нажимаешь 3. - когда что-то делаешь - всегда говоришь (!) зачем ты это делаешь.

  • @fedoborod
    @fedoborod 2 месяца назад

    Интересно, спасибо вам за то что делитесь опытом. Дальнейшее развитие этой области создания видео - в отдельных сервисах и обученных для этого моделях. Это animateDiff или типа того? Они априори являются костылями, и так и будут тупить, не понимая персонвж повернут спиной или лицом. Ожидаем. Следующий год обещает быть прорывным.

  • @WI-Games
    @WI-Games 2 месяца назад

    Большое спасибо! Буду пробовать 👍

  • @TheSergeyJW
    @TheSergeyJW 2 месяца назад

    Не совсем понимаю смысла. У вас уже есть 3D модель, есть 3D анимация, почему просто не отрендерить традиционную 3D анимацию со стилизованными шейдерами? Если с нейронкой результат такой нестабильный, где у него штаны в рубашку превращаются и непонятно что происходит с конечностями при перевороте?

  • @alexanderconferno9467
    @alexanderconferno9467 2 месяца назад

    Я не понял вообще как вы перетащили картинку и он там ноды раскидывал!? у меня выдает ошибку

    • @irinabondareva1
      @irinabondareva1 2 месяца назад

      Я просто цепляю картинку и тащу в свой ComfyUI. Из папки на компьютере или прямо с сайта - роли не играет. На CivitAI многие картинки содержат в себе рабочие процессы, потому что авторы постят эти изображения сразу после генерации, никак не обрабатывая из, к примеру, в фотошопе. Такую картинку достаточно просто перетащить в свою среду ComfyUI, и все ноды раскроются. Из Проводника или с сайта, это не важно. Почему выдается ошибка я не знаю... может быть, изображения, которые перетаскиваете вы, не содержат рабочих процессов, так как перед постингом прошли обработку или сам автор закрыл workflow, или какая-то другая причина...?🤔 Можно попробовать на других картинках с сайта. Или, к примеру, проверить на своей собственной сгенерированной картинке - работает ли этот процесс у вас в принципе

  • @igornigma
    @igornigma 2 месяца назад

    Хотел поставить лайк как досмотрю, но увидев как влючить темную тему хотел влепить 10 сразу же!)) Спасибо большое за видео!

  • @SergeyDemi4ev
    @SergeyDemi4ev 2 месяца назад

    на 4070 с 12ю гигабайтами видео . начинает кушать 15 . и под это дело берет место с ОЗУ . Из за чего время на трейн уходит за 2 часа . Есть ли способ не давать утечку в ОЗУ ?

  • @K-A_Z_A-K_S_URALA
    @K-A_Z_A-K_S_URALA 2 месяца назад

    Max train steps 1600, когда выставляешь, не работает, а когда просто пустое поле, то работает. Как быть, что не так? Пишет total optimization steps 0, и всё, ничего не происходит!

    • @K-A_Z_A-K_S_URALA
      @K-A_Z_A-K_S_URALA 2 месяца назад

      все заработало оставил поле Max train epoch пустым и все заработало а в поле Max train steps поставил 1600 и все начло работать надеюсь кому то помог...просто если ставить 0 в первом поле и во втором 1600 то как и описывал не чего не работает...!

    • @K-A_Z_A-K_S_URALA
      @K-A_Z_A-K_S_URALA 2 месяца назад

      только вот теперь не одна шкала а вот так по порядку идет так должно быть? steps: 0%| | 2/1600 [01:23<18:30:39, 41.70s/it, avr_loss=0.0714]13:45:22-693214 INFO Save... steps: 1%|▎ | 9/1600 [07:56<23:25:21, 53.00s/it, avr_loss=0.0809] steps: 1%|▌ | 18/1600 [13:26<19:41:04, 44.79s/it, avr_loss=0.096]

  • @RWushi
    @RWushi 2 месяца назад

    А там нельзя по кадрам задать промты как в дефоруме?

  • @PlayerGamesOtaku
    @PlayerGamesOtaku 3 месяца назад

    hi, could you also make a tutorial on how to create a pony checkpoint?

  • @Balalyka_
    @Balalyka_ 3 месяца назад

    flux лоры прокатит через Kohya учить? Все-таки SDXL модели уже отходят далеко на задний план.