Хотелось бы конечно и Forge узнать какой препроцессор нужно использовать. Но в любом случае большое спасибо. Если кто-то уже разобрался с Forge - дайте знать в комментариях, пожалуйста
Кто-нибудь знает, почему на генерации в итоге получается менее детализированное изображение, чем на оригинале? Размеры исходных картинок совпадают попиксельно, более того - фото в фотошопе подобрано по крупности и позе, лицо по размеру совпадает с референсной генерацией. А на выходе - мыло, по крайней мере, по сравнению с генерацией с выключенным контролнет. Карта 3070Ti, 8GB.
Для высоких разрешений не меньше 12Гб видеопамяти и 32Гб оперативки. У меня в данный момент загружены 22 гига (вся система) + 13 гигов видеопамяти в момент рендера.
Спасибо огромное. Первое видео получилось наAnimateDiff вчера благодаря вам. Со стилизацией не так радужно. Выдаёт ошибку RuntimeError: "addmm_impl_cpu_" not implemented for 'Half'
у меня в фордже в препроцесоре вместо ip-adapter_clip_sdxl_plus_vith стоит InsightFace+CLIP-H (IPAdapter) это тожесамое или надо качать тот что у вас именно
привет,спасибо - не знаю у кого как , у меня одного так? -) но после нескольких генераций подряд в базовом автоматике -ip adapter начинает рандомно отваливатся ,и пока не перезапустишь автоматик и не настроишь заново не работает , еще если фон светлый и лицо светлое не определяет лицо и если лицо примерно меньше определенного размера то-же выпадает в ошибку,на форже все ровно
Спасибо за видео. А можешь пожалуйста ещё рассказать как включить FP8? Недавно Automatic1111 обновился и теперь есть поддержка FP8: использует меньшие объемы памяти при тех же вычислительных возможностях. Пишут люди что скорость на SDXL моделях довольно существенно увеличилась. Но я лично пока не знаю как включить эту функцию так как нужно ещё дополнительно установить PyTorch и шаманить с xformers, так как если не ошибаюсь то уже есть совместимость с PyTorc.
@@date2077 Я в итоге всё сделал и включит эту функцию, так заметной прибавки к скорости я не ощутил. Естественно запускал без xFormerts так как оказывается он не совместим с PyTorch.
Почему-то ооочень долгая генерация идёт (rtx 4070 12gb, 32gb ram), при том, что без третьей панели CN всё окей и генерации с лицами проходят менее чем за минуту. В чём может быть проблема?
в автоматике надо поставить - Optimizations-Cross attention optimization-xformers, по умолчанию авто стоит ,контрол нет слетает на генерацию процом даже с установленным флагом xformers при старте
@@TheTornado73у меня 4060 8гб, 32 оперативы. Может конечно не хватает, но такой вопрос: Настройки-control.net-model cash size какой нужно ставить? Настройку оптимизации сделал, не помогло😢 при 24 шагах генерация длится около 20 минут. И ещё нужно ли в ctrlnet ставить галочку low vram?
@@gromada2048 да нужно , 8 гб конечно для sdxl откровенно мало ,еще в форже есть внизу вкладка never oom integrated попробуйте галки там поставить , там оно как то память хитро перераспределяет model cash size вообще не трогал по умолчанию
Первое, ты не оставил ссылку на ip-adapter sdxl vit-h, пришлось самостоятельно искать h94 и выкачивать модель. Второе, уже целый час пытаюсь добиться результата по твоему тутору. Бросаю в основной фейс своё фото (в первые 2 кантрола, в третий бросаю стиль) но на выходе либо супергерой в маске, либо деваха. Где Я в этом уравнении?)))) Не работает.
Очередная сырая чухня, которая не покрывает даже базовых потребностей. Стиль на втором изображении очень далек от заданного стиля. Ждем дальнейших улучшений. Но за видео огромное спасибо
Тот самый случай, когда между ожиданием и конечным результатом большая разница, от чего испытываешь глубокое разочарование, это как если пойти покупать новый мерседес, а по факту получить убитый жигуль. Неужели автор сам не видит, что эта техника работает крайне плохо??? Исходному изображению изменили все, что не требовалось изменять: позу, одежду, прическу, выражение лица и т.д. плюс нарисовали то ли веснушки, то ли черные звезды-точки на щеки. Какие-то черты от оригинала остались, но это все равно все не то. И в этом случае что толку, что к оригинальному изображению подмалевали некий стиль, ведь с этим стилем само исходное изображение было существенно изменено, а заявлялось, что оригинал останется почти в неизменном виде, короче, очередная хрень, которая не стоит потраченного на нее времени, если только поиграться, для работы не годится. Одного не понимаю, чем люди так восторгаются в коментах, совершенно же очевидно, что полностью нерабочая технология, или просто сам факт того, что на чью-то мордашку можно намалевать какую-то мазню под видом другого стиля, одно это вызывает у публики жуткий восторг, н-да...
Большая благодарность за внятное и четкое пояснение.
Большое спасибо. Как всегда информативно и всё по делу👍
❤ Ура ! Дождались ! Спасибо ! Ура ! ❤ ( для ComfyUI )
Огонь 🔥
Спасибо. Полезное видео. Уже знала про инстант айди и про адаптер, теперь знаю и как стили прикрутить.
Супер... спасибо
Спасибо) добавлю себе в избранные
Препроцессор ip-adapter_clip_sdxl_plus_vith что-то не находится. Подскажите, пожалуйста, кто-то знает, где его найти?
Спасибо ,всё круто .😂
топчик
Блин,уже месяц хотел как купить курс,но что то откладывал, пойду оплачу👍
Делаю все как на видео, все работает, почему то ни в одном результате нет схожести оригинального фота
спасибо
оно не работает с коробки, надо сначала установить insightface-0.7.3 в vevn, а так же отключить VAE и Clip skip чтоб заработало
Спасибо за информацию. Можно делать только на моделях XL?
10:30 ip-adapter CLIP не могу найти где скачать
А для моделей SD1.5 никак нельзя сделать? У меня SDXL не работают.
чета в forge нужного препроцессора ip-adapter нет...
докачай
а просто на 1.5 модели можно делать стилизацию?
Хотелось бы конечно и Forge узнать какой препроцессор нужно использовать. Но в любом случае большое спасибо. Если кто-то уже разобрался с Forge - дайте знать в комментариях, пожалуйста
привет, в фордж в ControlUnit0 - preprocessor: InsightFace (InstantID); model: ip-adapter_instant_id_sdxl [eb2d3ec0]. ControlUnit1 - preprocessor: instant_id_face_keypoints; model: control_instant_id_sdxl [c5c25a50]
@@intergalacticpassenger5911 Это то понятно, а что на ControlUnit2 ставить? На видео ведь 3 контролнета задействовано
Пишет что эти модели sdxl не подходят для автоматик 1.5 версии(((
Здравствуйте! При стилизации фото, стал появляться водяной знак, что делать?
Еще бы видео про Лору sdxl на своем компе без всяких сервисов и сайтов) не нашел на ютубе такого видео
Дааа) давно жду
Кто-нибудь знает, почему на генерации в итоге получается менее детализированное изображение, чем на оригинале? Размеры исходных картинок совпадают попиксельно, более того - фото в фотошопе подобрано по крупности и позе, лицо по размеру совпадает с референсной генерацией. А на выходе - мыло, по крайней мере, по сравнению с генерацией с выключенным контролнет. Карта 3070Ti, 8GB.
такая же фигня, всё получается, но детализация оочень плохая одно мыло
@@zashibal ставь меньше CFG Scale + перебирай подходящий Sampling method для чекпоинта. Instant-id любит пережигать картинку при высоком скейле
Потому что это нерабочая технология в принципе.
А что я делаю нитак, при выборе шагов (где то 30 беру) наверное много? Сильно ухудшает..
Так, в целом, сколько оперативки и видеопамяти нужно на InstantID и IP-Adapter?
Для высоких разрешений не меньше 12Гб видеопамяти и 32Гб оперативки. У меня в данный момент загружены 22 гига (вся система) + 13 гигов видеопамяти в момент рендера.
Спасибо огромное. Первое видео получилось наAnimateDiff вчера благодаря вам. Со стилизацией не так радужно. Выдаёт ошибку RuntimeError: "addmm_impl_cpu_" not implemented for 'Half'
у меня в фордже в препроцесоре вместо ip-adapter_clip_sdxl_plus_vith стоит InsightFace+CLIP-H (IPAdapter) это тожесамое или надо качать тот что у вас именно
На forge не проверял. В видео обычный портабельный автоматик.
Да. Это тоже самое
нужно докачивать эту модель
У меня Automatic 1111 и не одна модель XL не работает, если кто-то знает как решить проблему буду благодарен
возможно у тебя мало видеопамяти, у меня rtx 3070 8GB и мне тоже не хватает для нормальной работы.
@@para11ax у меня RTX 4070 12gb все тянет кроме XL
попробуй в SD Forge
@@YuryDa действительно, в Forge все работает
не могу найти препроцессор ip-adapter_clip_sdxl_plus_vith , дайте ссылку, добрые люди....
в поиске ip-adapter_clip_sdxl_plus_vith, первая ссылка
А что за интерфейс у Вас на автоматике? Это обычный автоматик или фордж?
В частности кнопки расширений удобные
@@Pit_74 tabs extension
Про модели, которые нужно скачивать и будут использоваться, лучше бы в начале говорить, до самого процесса. А в целом, спасибо за полезную инфу!
привет,спасибо - не знаю у кого как , у меня одного так? -) но после нескольких генераций подряд в базовом автоматике -ip adapter начинает рандомно отваливатся ,и пока не перезапустишь автоматик и не настроишь заново не работает , еще если фон светлый и лицо светлое не определяет лицо и если лицо примерно меньше определенного размера то-же выпадает в ошибку,на форже все ровно
В сборке от Христ не работает. (
🤝👍🙏
Спасибо за видео. А можешь пожалуйста ещё рассказать как включить FP8? Недавно Automatic1111 обновился и теперь есть поддержка FP8: использует меньшие объемы памяти при тех же вычислительных возможностях. Пишут люди что скорость на SDXL моделях довольно существенно увеличилась. Но я лично пока не знаю как включить эту функцию так как нужно ещё дополнительно установить PyTorch и шаманить с xformers, так как если не ошибаюсь то уже есть совместимость с PyTorc.
Модели нужно конвертировать под FP8. Скоро появятся такие модели. Но качество будет немного ниже.
@@StableDiff понял, значит это не что я думал... спасибо за ответ
@@date2077 Я в итоге всё сделал и включит эту функцию, так заметной прибавки к скорости я не ощутил. Естественно запускал без xFormerts так как оказывается он не совместим с PyTorch.
Если у меня не SDХL, то как мне действовать? Просто препроцессоры не переименовывать? И спасибо за детальный разор! Это то, что я хотела!
У меня на 1.5 SD не работает
Почему-то ооочень долгая генерация идёт (rtx 4070 12gb, 32gb ram), при том, что без третьей панели CN всё окей и генерации с лицами проходят менее чем за минуту. В чём может быть проблема?
Тоже очень долгая генерация, более 7 минут кофиг такой же только оперативки 48гб
instant только на SD Forge работает быстро без танцев с бубном
в автоматике надо поставить - Optimizations-Cross attention optimization-xformers, по умолчанию авто стоит ,контрол нет слетает на генерацию процом даже с установленным флагом xformers при старте
@@TheTornado73у меня 4060 8гб, 32 оперативы. Может конечно не хватает, но такой вопрос:
Настройки-control.net-model cash size какой нужно ставить? Настройку оптимизации сделал, не помогло😢 при 24 шагах генерация длится около 20 минут. И ещё нужно ли в ctrlnet ставить галочку low vram?
@@gromada2048 да нужно , 8 гб конечно для sdxl откровенно мало ,еще в форже есть внизу вкладка never oom integrated попробуйте галки там поставить , там оно как то память хитро перераспределяет
model cash size вообще не трогал по умолчанию
11:58 настройки вкратце.
Первое, ты не оставил ссылку на ip-adapter sdxl vit-h, пришлось самостоятельно искать h94 и выкачивать модель.
Второе, уже целый час пытаюсь добиться результата по твоему тутору.
Бросаю в основной фейс своё фото (в первые 2 кантрола, в третий бросаю стиль) но на выходе либо супергерой в маске, либо деваха.
Где Я в этом уравнении?)))) Не работает.
Проверь веса CN
А переписать ссылку с видео, не догадался? )
@@StableDiff Всё ровно как у тебя
@@wiwwiw2890 А что быстрей, переписать длинную ссылку или на хабе ввести h94 ? ))))) Не учи отца детей делать.
смотри ошибки в консоли - скорее всего control net не задействуется
Очередная сырая чухня, которая не покрывает даже базовых потребностей. Стиль на втором изображении очень далек от заданного стиля. Ждем дальнейших улучшений. Но за видео огромное спасибо
Сам SD в целом сырой и не идеальный.
Все равно он лучше, чем Миджорни и Дали@@vegaferse102
Всё равно он лучше, чем Миджорни или Далли, так что довольствуемся тем, что имеем
промт не меняли ,надо играть- там вариатов тысячи - все нормально работает на форже
На колабе это делать бесполезно, такую порнуху выдает - больно смотреть😂😂😂
Ну вот. Танцы с бубном начались((((
Тот самый случай, когда между ожиданием и конечным результатом большая разница, от чего испытываешь глубокое разочарование, это как если пойти покупать новый мерседес, а по факту получить убитый жигуль. Неужели автор сам не видит, что эта техника работает крайне плохо??? Исходному изображению изменили все, что не требовалось изменять: позу, одежду, прическу, выражение лица и т.д. плюс нарисовали то ли веснушки, то ли черные звезды-точки на щеки. Какие-то черты от оригинала остались, но это все равно все не то. И в этом случае что толку, что к оригинальному изображению подмалевали некий стиль, ведь с этим стилем само исходное изображение было существенно изменено, а заявлялось, что оригинал останется почти в неизменном виде, короче, очередная хрень, которая не стоит потраченного на нее времени, если только поиграться, для работы не годится. Одного не понимаю, чем люди так восторгаются в коментах, совершенно же очевидно, что полностью нерабочая технология, или просто сам факт того, что на чью-то мордашку можно намалевать какую-то мазню под видом другого стиля, одно это вызывает у публики жуткий восторг, н-да...
Всё щас бизнесменов с картинами на холсте подвинут в конец очереди😂
С этой технологией не подвинут, она не работает, по видео же видно, насколько сильно искажается оригинал.