Очень полезные видео с твоего ютуб канала, я в основном на stable diffusion сидел но он медленней работает на моей карте и не так гибок в настройках как comfy. Приятно удивило, что схемы идут в сборе, а не как у других за семью печатями) Схемы у тебя инженерные по ним можно учиться для освоения comfy. Конечно для совсем новичков будет немного сложновато.
Привет! Я стараюсь делать все аккуратно, что-бы можно было проследить связи между нодами, по итогу выглядит как что-то инженерное :) Но логика простая, все разделено в группи - так проще ориентироватся. Спасибо за полезный комментарий 😀😀😀
@@antinoice Привет! Я в смысле видно инженерный склад ума просто. В каком-то смысле ноды по сути как-бы эмитируют внутренности процессоров и микросхем только в программном виде, а не электроном. Так их и собирают в принципе как-бы из "нод". Потом литография просто. И вот в этом процессе сам понимаешь нужна как раз аккуратность и логика иначе брак. У тебя нет рублевых закидонов? А то сам понимаешь живем за барьерным рифом в россии🙂
Как всегда очень подробное и всё доходчиво разъясняющее видео , дружище, спасибо конечно... Но рассчитывал что новых видео долго нет ,потому что скоро мы увидим что-то из новенького по комфиюай - какие-то примеры с FLUX
Супер! очень подробно и все понятно, еще и с воркфлоу. Ты просто наш благодетель. Я имею ввиду таких как я, которые на стадии обучения. крепко жму руку
Здравствуйте. Посмотрел несколько ваших видео, плотность материала и подача очень нравятся. Воспользуюсь случаем задать вопрос: Как перенести стиль, явно указав в промте или с помощью изображения-источника стиля, на реалистичный портрет (фото) человека, сохранив узнаваемость лица? Спасибо! ps Я пробовал делать лору человека, +/- успешно.
Можно использовать расширение ReActor в связке с ControlNet canny для сохранения точности. Можно использовать технику Inpaint, гляньте мое видео по реставрации старой фоографии принцип тотже; ruclips.net/video/DmUiZWDMkVA/видео.html
3:00 тоже можно найти в easy use, называется лора easylorastack, вместо нескольких загрузчиков одна нода. Впрочем, мне больше нравится похожая нода от rgthree, меньше места занимает
Спасибо за ваш комментарий. Я не использую эти ноды что бы пользователи скачав мой воркфлов понимали как он устроен - легче читать связи (мне так кажется), и все стаки идут под три модели, а этих ставь сколько угодно (хотя я сам редко когда использую больше двух).
Спасибо. Несколько вопросов. 1. Почему не использовали Florence для определения содержания картинки (у него можно зафиксировать сид)? 2. Зачем столько нод для определения размера исходника, ведь есть одна нода - Get resolution (Crystools) из которой можно послать дальше w/h. 3. Power Lora Loader (rgthree) может заменить одной нодой весь ваш сетап для лор. Были какие-то предпосылки использовать именно такой сетап?
В планах есть расширить серию видеоуроков "ПОЛНОЕ руководство по ComfyUI". На канале уже есть две части, они призваны немного упростить эту задачу. Спасибо за полезный комментарий 😀😀😀
4:54 просто офигительная тема в ultimateSDupscale использовать быстрые hyper модели или оптимизированные через tesorRT. Впрочем, тайлинг так или иначе все равно остается. Сейчас я использую tiled diffusion для апскейла, изображение 2048х2048 на hyper модели с 4 шагами генерируется около одной минуты, что очень круто для rtx 3060. И никакого тайлинга.
Тут дело не в скорости, а в том что бы большее колличество людей могло испльзовать апскейлинг даже на слабом железе. У меня на 2060 super картинка размером 1344х832 до 2688х1664 апскейлится полторы минуты обычным способом и около 2 мин тайловым. Тайловый метод дольше - но он позволяет апскейлить картинки гараздо большего размера, в одном из своих видео я показывал изображения 7680х13440 как раз апскейленное тайловым методом.
@@antinoice под "тайлингом" я подразумевал полосы от работы usdupscaler. Все же какая-нибудь hyper модель будет все же меньше жрать памяти и места, а эффект будет не так, чтобы хуже. Рекомендую попробовать, например, realisticvision, дает хороший результат при четырех шагах, на апскейлер - самое оно. Да и через multidiffusion при апскейле до 4к у меня не отожрало больше 6 гигов, только tiledVAE долго работает, это однозначно минус, но видеопамять бережет. Что до tensorrt, работает только на видюхах начиная с rtx20xx. Интересная тема. Лора и контролнет не поддерживаются, работает очень быстро, во всех остальных случаях весьма применимо. Например, можно соорудить что-то вроде адетайлера, только работать будет куда быстрее.
Неправильно сказал, за что извиняюсь. В данный момент tiled diffusion не работает нормально сместе с controlnet, даже если используется в разных местах.
Есть ли какой-то способ в комфи, как в автоматике, выбрать разрешение при генерации в инпеинте? Например, я хочу прорисовать какую-то мелкую деталь, например, пружину на автомобиле в примере, чтобы разрешение во время генерации было 1024 на 1024. Но если я сделаю маску для этой пружины, размер будет намного меньше, и, соответственно, генерация будет хуже. Можно ли это как-то исправить?
Здравствуйте. Было бы интересно с flux dev посмотреть работу в ComfyUI, а то у меня на маке ругаться на промты и приходиться DrawThings генерить, а он не такой гибкий. ComfyUI посредством Stability Matrix установлен. Удобная програмка) Спасибо
Всем огромное спасибо за поддержку!
Очень полезные видео с твоего ютуб канала, я в основном на stable diffusion сидел но он медленней работает на моей карте и не так гибок в настройках как comfy. Приятно удивило, что схемы идут в сборе, а не как у других за семью печатями) Схемы у тебя инженерные по ним можно учиться для освоения comfy. Конечно для совсем новичков будет немного сложновато.
Привет! Я стараюсь делать все аккуратно, что-бы можно было проследить связи между нодами, по итогу выглядит как что-то инженерное :)
Но логика простая, все разделено в группи - так проще ориентироватся.
Спасибо за полезный комментарий 😀😀😀
@@antinoice Привет! Я в смысле видно инженерный склад ума просто. В каком-то смысле ноды по сути как-бы эмитируют внутренности процессоров и микросхем только в программном виде, а не электроном. Так их и собирают в принципе как-бы из "нод". Потом литография просто. И вот в этом процессе сам понимаешь нужна как раз аккуратность и логика иначе брак. У тебя нет рублевых закидонов? А то сам понимаешь живем за барьерным рифом в россии🙂
Как всегда очень подробное и всё доходчиво разъясняющее видео , дружище, спасибо конечно...
Но рассчитывал что новых видео долго нет ,потому что скоро мы увидим что-то из новенького по комфиюай - какие-то примеры с FLUX
Обязательно! Парочку новых проектов начал. Спасибо за приятный комментарий :)
@@antinoiceпривет, ждем по flux)
Благодарю за такой подробный разбор! Познавательно и практически необходимо👍
Супер! очень подробно и все понятно, еще и с воркфлоу. Ты просто наш благодетель. Я имею ввиду таких как я, которые на стадии обучения. крепко жму руку
Спасибо вам за поддержку! Взаимно :)
Давно не обновлялся, жду лучших уроков.
Отличное познавательное видео, конечно, просто смотреть, не научишься и не поймёшь, что к чему, обязательно смотреть и использовать комфи параллельно.
Это просто когда уже знаешь какие ноды есть и что за что отвечает)) Сейчас это дремучий лес для меня)
Вечер добрый! А стрим в записи будет, а то оч интересно а времени нет! Недавно Вас стал смотреть!
Видео будет на канале в записи можно будет посмотреть! Спасибо что смотрите!
👍👍👍
2:26 у easy use есть специальная нода для этого, image size.
Здравствуйте. Посмотрел несколько ваших видео, плотность материала и подача очень нравятся.
Воспользуюсь случаем задать вопрос: Как перенести стиль, явно указав в промте или с помощью изображения-источника стиля, на реалистичный портрет (фото) человека, сохранив узнаваемость лица? Спасибо!
ps Я пробовал делать лору человека, +/- успешно.
Можно использовать расширение ReActor в связке с ControlNet canny для сохранения точности.
Можно использовать технику Inpaint, гляньте мое видео по реставрации старой фоографии принцип тотже;
ruclips.net/video/DmUiZWDMkVA/видео.html
👍
3:00 тоже можно найти в easy use, называется лора easylorastack, вместо нескольких загрузчиков одна нода. Впрочем, мне больше нравится похожая нода от rgthree, меньше места занимает
Спасибо за ваш комментарий. Я не использую эти ноды что бы пользователи скачав мой воркфлов понимали как он устроен - легче читать связи (мне так кажется), и все стаки идут под три модели, а этих ставь сколько угодно (хотя я сам редко когда использую больше двух).
Спасибо. Несколько вопросов. 1. Почему не использовали Florence для определения содержания картинки (у него можно зафиксировать сид)? 2. Зачем столько нод для определения размера исходника, ведь есть одна нода - Get resolution (Crystools) из которой можно послать дальше w/h. 3. Power Lora Loader (rgthree) может заменить одной нодой весь ваш сетап для лор. Были какие-то предпосылки использовать именно такой сетап?
Укажи пожалуста в шапке, что твои классные воркфлоу в телеге... Мне очень пригодились!
Для новичков такие схемы не понятны с этой кучей горы нодов
В планах есть расширить серию видеоуроков "ПОЛНОЕ руководство по ComfyUI". На канале уже есть две части, они призваны немного упростить эту задачу.
Спасибо за полезный комментарий 😀😀😀
На макбук про м1 и ссд 1tb есть смысл генерировать ?
4:54 просто офигительная тема в ultimateSDupscale использовать быстрые hyper модели или оптимизированные через tesorRT. Впрочем, тайлинг так или иначе все равно остается.
Сейчас я использую tiled diffusion для апскейла, изображение 2048х2048 на hyper модели с 4 шагами генерируется около одной минуты, что очень круто для rtx 3060. И никакого тайлинга.
Тут дело не в скорости, а в том что бы большее колличество людей могло испльзовать апскейлинг даже на слабом железе.
У меня на 2060 super картинка размером 1344х832 до 2688х1664 апскейлится полторы минуты обычным способом и около 2 мин тайловым.
Тайловый метод дольше - но он позволяет апскейлить картинки гараздо большего размера, в одном из своих видео я показывал изображения 7680х13440 как раз апскейленное тайловым методом.
@@antinoice под "тайлингом" я подразумевал полосы от работы usdupscaler. Все же какая-нибудь hyper модель будет все же меньше жрать памяти и места, а эффект будет не так, чтобы хуже. Рекомендую попробовать, например, realisticvision, дает хороший результат при четырех шагах, на апскейлер - самое оно.
Да и через multidiffusion при апскейле до 4к у меня не отожрало больше 6 гигов, только tiledVAE долго работает, это однозначно минус, но видеопамять бережет.
Что до tensorrt, работает только на видюхах начиная с rtx20xx. Интересная тема. Лора и контролнет не поддерживаются, работает очень быстро, во всех остальных случаях весьма применимо. Например, можно соорудить что-то вроде адетайлера, только работать будет куда быстрее.
Неправильно сказал, за что извиняюсь. В данный момент tiled diffusion не работает нормально сместе с controlnet, даже если используется в разных местах.
Спасибо за подробную информацию, как можно быстро такому научится и какие минимальные требования к компьютеру должны быть?
На канале уже много видео по которым можно всему научиться. Чем мощнее тем лучше, но главное видеокарта (мин на 4Гб).
такой вопрос как в комфи с помощью двух лор сделать композицию, например персонаж 1-я лоры обнимает персонажа 2-й лоры
Можно и такае сделать! С помощью масок.
Есть ли какой-то способ в комфи, как в автоматике, выбрать разрешение при генерации в инпеинте?
Например, я хочу прорисовать какую-то мелкую деталь, например, пружину на автомобиле в примере, чтобы разрешение во время генерации было 1024 на 1024. Но если я сделаю маску для этой пружины, размер будет намного меньше, и, соответственно, генерация будет хуже. Можно ли это как-то исправить?
Про это рассказывал в видео про инпейнт в комфи Inpaint CropAndStitch (там в ноде можно это указывать):
ruclips.net/video/ASEnzOP9iAY/видео.html
@@antinoice спасибо, уже нашел самостоятельно, ноды - огонь!
Здравствуйте. Было бы интересно с flux dev посмотреть работу в ComfyUI, а то у меня на маке ругаться на промты и приходиться DrawThings генерить, а он не такой гибкий.
ComfyUI посредством Stability Matrix установлен. Удобная програмка)
Спасибо
Stability Matrix шикарная штука, удобная , плюс прям в ней можно генерировать
А разве нельзя просто деактивировать ноду генерации текста, а старый текст в другой ноде остаётся и будет транслироваться дальше?
К сожалению тогда он не дает запустить генерацию, думает что произошла ошибка, а так наверняка...
Народ подскажите как сделать стилизацию видео, по этому же принципу
Кто подскажет, есть где нибудь отдельные воркфлоу img2img, text2img и т.д. Максимально простые с моделью flux?
Расскажи как не использовать свои мощностя видеокарты и процессора