Спасибо за обзор, информация для статистики: карточка 3070 8гб, инпейнт генерировал 25-30 мин. результат сносный, но ждать по полчаса одну картинку, такое себе.
Сделайте видос о том, как перекрашивать но не волосы или платья, т.к. Stable Diffusion с этим отлично справляется, а к примеру мебель - с полным сохранением её внешнего вида и всех деталей, то есть именно перекрасить сохранив всё остальное. Я бился неделю и не смог, перепробовал всё - и Inpaint модели и всяческие лоры, волосы и одежду он отлично перекрашивает, так как видимо он обучен на людях, а вот мебель ни в какую, он обязательно её изменит.
Ром, приветствую! Есть уже давно квантованные модели в формате gguf и воркфлоу под эти форматы поскольку там требуются другие ноды типа unet и они уже ужаты фактически под разные мощности видеокарт. Но конечно, надо понимать, что квантованные модели весом уже менее 6-7 гб будут выдавать посредственные результаты.
схему взял с картинка, но выкидывает ошибку... Если модель flux1-fill-dev.safetensors кидать по гайду в папку -ComfyUI/models/diffusion_models/, то узел - load diffusion model, ее не определяет, а если кинуть в папку unet - то узел видит модель но когда рабочий процесс доходит до этого узла - случается ошибка!..
я не понимааааю зачем все время менять sampler то один то другой. сделайте ролик в чем разница? я не могу использовать прошлый? все под копирку у друг друга.
Понимаешь, под разные модели, и даже иной раз по разные нюансы и тонкости в генерации что то сделает фигню а что то норм. Просто сам поэкспериментируй и вопрос отпадет. Я часто стараюсь пробовать и тестировать и экспериментировать сам и по многим темам вопросы просто сами собой отпадают. Оч полезно для собственного опыта и понимания как что и с чем адекватно работает.
@@artsergo я вот и так сказать ебусь, но видяха не позволяет проводить эксперименты, точнее просто мучает меня временем. для этого смотрю блогеров кто шарит за тему. а что делает блогер, берет англоязычный ролик, вникает и пересказывает русскоязычному сообществу. step by step. Простите меня лысый дядя. Перед тем как курсы предлагать, не могли бы вы дать понимание что вы шарите. а вам artsero благодарность за ответ.
За обзор спасибо, но комфи не интересно, попробовал все сделать как у автора, видяха 3060 12 гиг, результат так себе, генерация инпейинт 15 минут, что очень сильно разочаровало...только попробовать... подобной дичью пользоваться как-то не хочется, сырое оно какое-то, квантованные модели пока не пробовал...буду ждать пока допилят и сделают на фордже.
"Все ссылки оставлю в описании" эм... каком? ничой не вижу. Ну и вопрос нахера эти Flux Depth и Flux Canny если это всё работает в controlnet как отдельные модельки в 10 раз меньше... Ваще не понимаю... из новинок разве что FILL и Redux и то fill это inpaint всё тот же, под которое опять же всякого полно, да и Redux реализовывалось с помощью некоторых костылей но всё так же.. Эти генерации неведомой херни уже не радуют а бесят... Никто не стремится к тому чтобы создавать что-то реальное, генерят и генерят хер знай что... зачем??? этого уже дохера и больше!
Я немного не понял, а почему я не могу настроить разрешение в Inpaint?
Где ваши схемы взять?
Спасибо за обзор, информация для статистики: карточка 3070 8гб, инпейнт генерировал 25-30 мин. результат сносный, но ждать по полчаса одну картинку, такое себе.
Сделайте видос о том, как перекрашивать но не волосы или платья, т.к. Stable Diffusion с этим отлично справляется, а к примеру мебель - с полным сохранением её внешнего вида и всех деталей, то есть именно перекрасить сохранив всё остальное. Я бился неделю и не смог, перепробовал всё - и Inpaint модели и всяческие лоры, волосы и одежду он отлично перекрашивает, так как видимо он обучен на людях, а вот мебель ни в какую, он обязательно её изменит.
Ром, приветствую! Есть уже давно квантованные модели в формате gguf и воркфлоу под эти форматы поскольку там требуются другие ноды типа unet и они уже ужаты фактически под разные мощности видеокарт.
Но конечно, надо понимать, что квантованные модели весом уже менее 6-7 гб будут выдавать посредственные результаты.
Привет!
Да все верно.
как на его завести? скачал всё закинул, что то не пашет( но очень хочется)
Где схемы скачать?
схему взял с картинка, но выкидывает ошибку... Если модель flux1-fill-dev.safetensors кидать по гайду в папку -ComfyUI/models/diffusion_models/, то узел - load diffusion model, ее не определяет, а если кинуть в папку unet - то узел видит модель но когда рабочий процесс доходит до этого узла - случается ошибка!..
еще такой вопрос, сколько у тебя оперативки?
Привет!
Скорее всего у тебя подтянулась не та модель, либо ты ее выбираешь не верно.
Обрати внимания на то что скачиваешь и то что выбираешь.
64
Мда. Интересно, когда выйдут видюхи серии 50хх какие там модели будут новые )
Отличное видео! 👍
Если видюха 3060-12гб то квантованную модель формата gguf можно использовать версию 8. Там они под номерами, это примерно вес модели 11,8 гб
Какое нафек обновление, доброе утро. В Комфи это давно все работает, вот если б на форже, другое дело
я не понимааааю зачем все время менять sampler то один то другой. сделайте ролик в чем разница? я не могу использовать прошлый? все под копирку у друг друга.
Понимаешь, под разные модели, и даже иной раз по разные нюансы и тонкости в генерации что то сделает фигню а что то норм.
Просто сам поэкспериментируй и вопрос отпадет.
Я часто стараюсь пробовать и тестировать и экспериментировать сам и по многим темам вопросы просто сами собой отпадают.
Оч полезно для собственного опыта и понимания как что и с чем адекватно работает.
@@artsergo я вот и так сказать ебусь, но видяха не позволяет проводить эксперименты, точнее просто мучает меня временем. для этого смотрю блогеров кто шарит за тему. а что делает блогер, берет англоязычный ролик, вникает и пересказывает русскоязычному сообществу. step by step. Простите меня лысый дядя. Перед тем как курсы предлагать, не могли бы вы дать понимание что вы шарите. а вам artsero благодарность за ответ.
Супер!
Да все модели FLUX 3мес давности которые bnb и gguf инпейнтят без проблем в FORGE, если карта позволяет
Это бесплатно ?
Привет!
Это бесплатно
За обзор спасибо, но комфи не интересно, попробовал все сделать как у автора, видяха 3060 12 гиг, результат так себе, генерация инпейинт 15 минут, что очень сильно разочаровало...только попробовать... подобной дичью пользоваться как-то не хочется, сырое оно какое-то, квантованные модели пока не пробовал...буду ждать пока допилят и сделают на фордже.
и как установить ваш Comfi UI ?????????????????????? где ссылка???
Привет!
Все тут teletype.in/@roman.september/Imb1xEDZdY2
На Forge надо, Комфи не интересует.
"Все ссылки оставлю в описании" эм... каком? ничой не вижу. Ну и вопрос нахера эти Flux Depth и Flux Canny если это всё работает в controlnet как отдельные модельки в 10 раз меньше... Ваще не понимаю... из новинок разве что FILL и Redux и то fill это inpaint всё тот же, под которое опять же всякого полно, да и Redux реализовывалось с помощью некоторых костылей но всё так же.. Эти генерации неведомой херни уже не радуют а бесят... Никто не стремится к тому чтобы создавать что-то реальное, генерят и генерят хер знай что... зачем??? этого уже дохера и больше!