Не обижайтесь пожалуйста, но это получается просто к случайной картинке прилепливание фрагмента лица с явными швами и несовпадением по цвету. Если делать по такому методу, то надо закидывать результат в PS, вырезать лицо и применять Image>Ajustments>Match Color по фрагменту сгенерированной кожи. И затем смешивать, вклеивать и добавлять шум/текстуру. Оставлять просто "апликацию" после SD и говорить "готово" - это не дело совершенно.
Хотел бы немного помочь,если вам понадобиться.Добавить ползунок,там где выбор модели (в самом верху интерфейса) можно добавить ещё один ползунок: "Noise multiplier for img2img". Для этого надо просто перейти в настройки (Setting) далее "User Interface" и в строке "Quicksettings list" будет вот так sd_model_checkpoint , но вам надо дописать самому что-бы получилось вот так: sd_model_checkpoint, initial_noise_multiplier,img2img_color_correction и тогда появиться этот ползунок. Регулирует цвет на изображении. Не забудьте нажать на сохранить и перезагрузить.
Лица "вклеенные" получаются, как избавится от этого эффекта и что бы тело сливалось идеально с картинкой и дорабатывалось пока не понять. Особенно если исходник лица плохого качества, он сразу бросается в глаза в отношении генерации сд, и получается диссонанс, не нравится людям не красиво. Нужен какой то метод что бы лицо перерабатывалось под генерацию но сохраняло естевственность
Для такого рисования есть отдельная модель sd-inpainting-512. Попробуйте использовать её сравнить результат. Стандартная и ваша модель выризают кусок с маской и грубо вклеивают в нарисованные изображение. А inpainting, как я заметил, сразу помещает лицо на холст, разбирает его и с ним уже рисует цельное изображение (получается более мягкий переход и точный цвет с тенями), затем ещё раз перекидывает маскированный участок на полученное изображение.
Ошибка RuntimeError: mat1 and mat2 shapes cannot be multiplied (154x2048 and 768x320). Подскажите пожалуйста если кто в курсе как исправить ситуацию. Генерю на SDXL. А в 1.5 не генерит бэкграунд. Позу отрабатывает бэкграунд нет
не рекомендовал бы использовать абсолютно белый и черный фон для последующей замены. Его обчень сложно сети заменить на какое-либо изображение. Так же лучше использовать инпент модели, для инпейнта, они могут даже на максимальном деноизе без контролнета вклеить адекватно зону инпента. В идеале серый градиент, или какой-нибудь цвет\атмосферу задать замыленным бекграундом. Я лично в фейсапе проплаченом задаю фон и заодно подготавливаю лицо для инпейнта. Там это в 2 клика делается. Заодно подгоняет цветокоррекцию под бэекграунд.
Я просто под вырезанную модель в фотошопе подкладываю разные фоны лучше что то абстрактное. И потом создаю карту глубины из которой получаются красивые фоны какие мне надо
Очень хорошая идея с контрол нет и опенпоз, единственное он как то налепил лицо на шею...как будто в фотошопе кто то приладил неумело. Может маску нужно пошире сделать, чтобы шею захватило. нужно попробовать в общем. Вот еще бы был какой то плагин, чтобы SD тень реалистичную рисовал к вставленному объекту, вообще отлично было бы. 👍
клево, но при создании карты глубины, можно только ее использовать в контрол нете не создавая их заново каждый раз, то же самое и опен поз. В итоге можно было создать и позу и карту глубины и использовать или одно или другое. Наверное автор не совсем разобрался как работает. Но за видос однозначно лайк
Может я придираюсь, может это только мне, но я вижу как лицо сильно выделяется относительно всего изображения, вот прям сразу бросается в глаза что оно вырезано и вставлено из другого изображения
А как создать свою модель до тренировать на Своих изображениях? Где-то находил видео подробное но у меня не получилось. Тем более может ещё из-за того что карта AMD
Пытался через инпайнтинг анимешного персонажа раздеть - чего-то никак не получается. Возможно, я не убрал бэкграунд, но всё же больше склоняюсь к мысли, что моделька непонятливая. У меня заточенных под аниме и нет, где взять - не знаю.
То что вы показываете хорошая штука. Особенно силуэт. Так удобней анимацию делать.Просто лицо. Я себе так же установил расширение "Depth" тоже удаляет фон и наоборот. Только в расширении больше настроек. Создаёт карты глубины,тепловые, стереоизображения,маски создаёт. Можно даже создавать формат PLY это 3D из фото и небольшой эффект приближения объекта на фото,как гиф. Так же появилось расширение ModelScopeText2Video- генерирует небольшие 1-5 секундные видео.Но ещё не очень. Полагаю месяца через 3-5 можно будет отличные видео создавать из текста.
Здравствуйте, спасибо большое за видео! После удачной установки и запуска когда нажимаю Generate, пишет "not enough GPU memory", у меня AMD Radeon RX 5700 XT, i Intel i9 9900KF. Даже на минимальных расширениях через 5 секунд ошибку выдаёт...подскажите пожалуйста что можно сделать кроме покупки новой видеокарты?
Здравствуйте. Подскажите пожалуйста, возможно ли "одеть" на фотомодель другую одежду с помощью Ai, может быть в несколько итераций. То есть, на фото девушка в нижнем белье, а нужная одежда - фото на вешалке или на столе. И фото одежды нужно адаптировать - одеть на фото девушки.
Здравствуйте! Скажите, пожалуйста, вы не знаете, как настроить removebg, чтобы он выдавал мне результат в png, а не jpg? Звучит смешно, но он действительно выдает склеенный с черным фоном jpg. И, кстати, модель "isnet-general-use" работает в разы лучше, чем "u2net", он сделал четкий контур, а u2net оставил контурное "свечение" от цвета фона. Спасибо за ваши материалы!
Когда закидываю вырезанное изображение с белым фоном, что при попытке сгенерить фон - выдает пересветы, либо что-то близкое к белому фону, как это исправить?
Меня тут поправляли. Что белый фон не лучший вариант. Вместо белого фона лучше вставить цветной шум или размытый фон или боке. Так машине будет легче делать объекты.
@@StableDiff с фоном понял, либо в инпэинте его полностью обводить, но это тот ещё гемор, да и результат зачастую хуже чем просто изначальная генерация. Но вот незадача, после того как получил нужное изображение, расширив его влево и вправо - начал апскейл, а апскейл каким то образом начал генериться через контронет, постоянно вставляя openpose, в итоге получил около 5 openpose на картинке вместо апскейльного изображения - не знаете как решить? Контролнет после получение нужного изображение выключил и поставил везде none
а возможно ли заданное лицо незначительно поворачивать? другими словами чтобы девушки формировались с заданным лицом с некой вариативностью в направлении взгляда/ракурса?
А подскажите пожалуйста кто знает. Как сделать тоже самое только для видео. Человек стоит ровно и говорит на видео. Как бы тот же вроде метод но должна быть пакетная обработка многих кадров.
Да легко. Возьмите картину Мона Лизы и вставьте его в ControlNet. Вместо Depth используйте Canny чтобы сохранить черты. Но фотографию придется подобрать с таким же положением головы. Остальное все так же.
вообще много ненужных манипуляций, фотошоп тут лишний от слова совсем! все действия совершаемые в фотошопе быстрее и качественее делать в стейбл дифьюжен
хорошее видео, лайк автору, некоторые блогеры за эту информацию деньги берут) в целом все верно, но controlnet скорее лишний, inpaint достаточно: и позу можно сохранить и каждый элемент сцены настроить, по крайней мере, мне ни разу для такой работы не пригодился)
🔑 Boosty с видеоуроками: boosty.to/stabledif
🔥Подписывайтесь на Телеграм-канал: t.me/stable_dif_lesson
📌 Telegram ЧАТ: t.me/stable_dif
✔VK Prompts: vk.com/stabledif
Не обижайтесь пожалуйста, но это получается просто к случайной картинке прилепливание фрагмента лица с явными швами и несовпадением по цвету. Если делать по такому методу, то надо закидывать результат в PS, вырезать лицо и применять Image>Ajustments>Match Color по фрагменту сгенерированной кожи. И затем смешивать, вклеивать и добавлять шум/текстуру. Оставлять просто "апликацию" после SD и говорить "готово" - это не дело совершенно.
Тык он же говорил про это в конце видео
Хотел бы немного помочь,если вам понадобиться.Добавить ползунок,там где выбор модели (в самом верху интерфейса) можно добавить ещё один ползунок: "Noise multiplier for img2img". Для этого надо просто перейти в настройки (Setting) далее "User Interface" и в строке "Quicksettings list" будет вот так sd_model_checkpoint , но вам надо дописать самому что-бы получилось вот так: sd_model_checkpoint, initial_noise_multiplier,img2img_color_correction и тогда появиться этот ползунок. Регулирует цвет на изображении. Не забудьте нажать на сохранить и перезагрузить.
Огромное спасибо. Это полезная штука. Обязательно попробую.
Михаил, а где можно посмотреть обучающие уроки по этой ии
@@Tut_tam_tam_tut Если вы про Стабильную Диффузию/ Stable Diffusion очень много видео в ютубе есть.Как пользоваться.
Лица "вклеенные" получаются, как избавится от этого эффекта и что бы тело сливалось идеально с картинкой и дорабатывалось пока не понять. Особенно если исходник лица плохого качества, он сразу бросается в глаза в отношении генерации сд, и получается диссонанс, не нравится людям не красиво. Нужен какой то метод что бы лицо перерабатывалось под генерацию но сохраняло естевственность
Ух ты, круто, понятно) спасибо за видео, давай ещё интересные техники)
Для такого рисования есть отдельная модель sd-inpainting-512. Попробуйте использовать её сравнить результат.
Стандартная и ваша модель выризают кусок с маской и грубо вклеивают в нарисованные изображение.
А inpainting, как я заметил, сразу помещает лицо на холст, разбирает его и с ним уже рисует цельное изображение (получается более мягкий переход и точный цвет с тенями), затем ещё раз перекидывает маскированный участок на полученное изображение.
Вы ошибаетесь. Inpaint model это всего лишь модель. Никаких дополнительных операций она не делает. Сливание контролируется blure и masking
@@StableDiff возможно и так, но по личному опыту, она лучшая для панели inpaint.
Спустя 5 месяцев уже наверное все знают что для таких работ только инпейнт и подходит. А тогда видимо было не все так однозначно )
спасибо большое за видео! Подскажите, пожалуйста, версию используемого фотошопа
Ошибка RuntimeError: mat1 and mat2 shapes cannot be multiplied (154x2048 and 768x320). Подскажите пожалуйста если кто в курсе как исправить ситуацию. Генерю на SDXL. А в 1.5 не генерит бэкграунд. Позу отрабатывает бэкграунд нет
не рекомендовал бы использовать абсолютно белый и черный фон для последующей замены. Его обчень сложно сети заменить на какое-либо изображение. Так же лучше использовать инпент модели, для инпейнта, они могут даже на максимальном деноизе без контролнета вклеить адекватно зону инпента. В идеале серый градиент, или какой-нибудь цвет\атмосферу задать замыленным бекграундом. Я лично в фейсапе проплаченом задаю фон и заодно подготавливаю лицо для инпейнта. Там это в 2 клика делается. Заодно подгоняет цветокоррекцию под бэекграунд.
Спасибо
Я просто под вырезанную модель в фотошопе подкладываю разные фоны лучше что то абстрактное. И потом создаю карту глубины из которой получаются красивые фоны какие мне надо
Очень хорошая идея с контрол нет и опенпоз, единственное он как то налепил лицо на шею...как будто в фотошопе кто то приладил неумело. Может маску нужно пошире сделать, чтобы шею захватило. нужно попробовать в общем. Вот еще бы был какой то плагин, чтобы SD тень реалистичную рисовал к вставленному объекту, вообще отлично было бы. 👍
Спасибо. Низкий Вам поклон.
клево, но при создании карты глубины, можно только ее использовать в контрол нете не создавая их заново каждый раз, то же самое и опен поз. В итоге можно было создать и позу и карту глубины и использовать или одно или другое. Наверное автор не совсем разобрался как работает. Но за видос однозначно лайк
А можно ли генерировать позы животных?
попробуйте через карту глубины с животного позу снять
А что делать, если этих двух кнопок, слева от Generate, вообще нет?
Может я придираюсь, может это только мне, но я вижу как лицо сильно выделяется относительно всего изображения, вот прям сразу бросается в глаза что оно вырезано и вставлено из другого изображения
А как создать свою модель до тренировать на Своих изображениях? Где-то находил видео подробное но у меня не получилось. Тем более может ещё из-за того что карта AMD
Скиньте пожалуйста ссылку на фотошопе, это случайно не adobe photoshop?
Скажите пожалуйста а как лицо одного любого человека заменить на другое КОНКРЕТНОЕ лицо? Именно в таком порядке.
нашел как это сделать?
тоже интересно@@ventagualinae2248
Это не обязательно делать в SD. Есть множество сторонних Face Swap сервисов.
голос шикарный до мурашек, слушала бы и слушала🥰
Пытался через инпайнтинг анимешного персонажа раздеть - чего-то никак не получается. Возможно, я не убрал бэкграунд, но всё же больше склоняюсь к мысли, что моделька непонятливая. У меня заточенных под аниме и нет, где взять - не знаю.
То что вы показываете хорошая штука. Особенно силуэт. Так удобней анимацию делать.Просто лицо.
Я себе так же установил расширение "Depth" тоже удаляет фон и наоборот. Только в расширении больше настроек. Создаёт карты глубины,тепловые, стереоизображения,маски создаёт. Можно даже создавать формат PLY это 3D из фото и небольшой эффект приближения объекта на фото,как гиф. Так же появилось расширение ModelScopeText2Video- генерирует небольшие 1-5 секундные видео.Но ещё не очень. Полагаю месяца через 3-5 можно будет отличные видео создавать из текста.
Спасибо. Будем пробовать.
в настройках нет controlnet
Надо отдельно установить
@@nickynick1331 но сказать же в видосе об этом нахер не надо, догадайся
боже какой же приятный у вас голос!
А если нету в настройках контрол нет? Не знаю где искать, что бы подключить
Его нужно скачивать
спасибо за видео, оно очень полезно!
Здравствуйте, спасибо большое за видео! После удачной установки и запуска когда нажимаю Generate, пишет "not enough GPU memory", у меня AMD Radeon RX 5700 XT, i Intel i9 9900KF. Даже на минимальных расширениях через 5 секунд ошибку выдаёт...подскажите пожалуйста что можно сделать кроме покупки новой видеокарты?
Хз, я сам в похожей ситуации. Можно купить облачный сервер на google colab но он тоже не всегда стабильно работает. Вылетает множество ошибок.
Здравствуйте. Подскажите пожалуйста, возможно ли "одеть" на фотомодель другую одежду с помощью Ai, может быть в несколько итераций. То есть, на фото девушка в нижнем белье, а нужная одежда - фото на вешалке или на столе. И фото одежды нужно адаптировать - одеть на фото девушки.
Такой же вопрос. Не нашли ответ?
@@marinagaeva2400 Нет.Делаем свою нейронку.
Здравствуйте! Скажите, пожалуйста, вы не знаете, как настроить removebg, чтобы он выдавал мне результат в png, а не jpg? Звучит смешно, но он действительно выдает склеенный с черным фоном jpg. И, кстати, модель "isnet-general-use" работает в разы лучше, чем "u2net", он сделал четкий контур, а u2net оставил контурное "свечение" от цвета фона.
Спасибо за ваши материалы!
В settings - saving grid/image - File format for images выбрать png
@@StableDiff Ааа, у него общие настройки со всем функционалом SD! Спасибо большое за помощь, я почему-то не догадалась. :)
Openpose Model none. Где их взять и как установить?
В этом видео все о controlnet ruclips.net/video/GJxByuT6eII/видео.html
Здравствуйте, подскажите, а как кнопочки установить с настройками разрешения??? Которые у Вас под Posex
Расширение sd-webui-ar
@@StableDiff спасибо, дорогой человек
Когда закидываю вырезанное изображение с белым фоном, что при попытке сгенерить фон - выдает пересветы, либо что-то близкое к белому фону, как это исправить?
Меня тут поправляли. Что белый фон не лучший вариант. Вместо белого фона лучше вставить цветной шум или размытый фон или боке. Так машине будет легче делать объекты.
@@StableDiff с фоном понял, либо в инпэинте его полностью обводить, но это тот ещё гемор, да и результат зачастую хуже чем просто изначальная генерация. Но вот незадача, после того как получил нужное изображение, расширив его влево и вправо - начал апскейл, а апскейл каким то образом начал генериться через контронет, постоянно вставляя openpose, в итоге получил около 5 openpose на картинке вместо апскейльного изображения - не знаете как решить?
Контролнет после получение нужного изображение выключил и поставил везде none
а возможно ли заданное лицо незначительно поворачивать? другими словами чтобы девушки формировались с заданным лицом с некой вариативностью в направлении взгляда/ракурса?
Это уже требует обучение собственной модели.
Пробуйте ControlNet
А на каком сайте Вы работаете? Можно ссылку на нейросеть? В Dream Studio нет таких функций!
Это не сайт. Это Automatic1111. Он на ПК ставится. Но нужна хорошая видеокарта и видеопамяти минимум 6Гб
Благодарю , очень интересно и полезно 👍
Может мне кажется , но лицо девушки не совсем естественно в конце
возник вопрос. Controlnet загружается без моделей, а где собственно их взять?
В этом уроке есть в описании ruclips.net/video/GJxByuT6eII/видео.html
У меня нет control net
Спасибо за урок. Такой вопрос к Вам - не генерирует из im2im - выдает черный квадрат....
Могу посоветовать проверить vae, поменять модель. И банально обновится и перезагрузить sd. Отключить расширения.
А подскажите пожалуйста кто знает. Как сделать тоже самое только для видео. Человек стоит ровно и говорит на видео. Как бы тот же вроде метод но должна быть пакетная обработка многих кадров.
А не проще закинуть в Inpaint, выделить ту девушку, инвертировать маску выделения и сгенерировать новый фон?
выставил control net 2, но окно все равно одно ( одна вкладка) в чем соль?
Тоже самое
Ну если показываешь и учишь кого то как делать. неужели сразу нельзя написать что нужно грузить сначала,чтобы сделать также?
а зачем, главное высрать видео, остальное не важно...
rembg установил но он не отображается в extras
Apply and restart UI сделайте или перезапустите automatic. Если не помогла обновите Automatic
@@StableDiff не появилось(((
Скажите, а голос где генерируете?
Голос живой. Но микрофон плохой и шумно постоянно. Приходится его прогонять через podcast.adobe.com/enhance.
@@StableDiff хорошо, спасибо, а не подскажите что-то примерно похожее на ди айди? чтобы была русская речь
@@valeronjohn Вот этим пользовался раньше. texttospeechrobot.com/tts/ru/sintezator-rechi-onlayn/
@@StableDiff спасибо, но не - этоже колхоз 00х)) типа мэйджик гудди=)
@@valeronjohn я тоже так решил. Да и долго это все набирать, загонять и склеивать с видео потом упорно.
спасибо.
интересно, подписался.
а можно сделать девушку в стиле Мона Лиза, например?
Да легко. Возьмите картину Мона Лизы и вставьте его в ControlNet. Вместо Depth используйте Canny чтобы сохранить черты. Но фотографию придется подобрать с таким же положением головы. Остальное все так же.
@@StableDiff понял, спасибо
Если во вкладку img2img загрузить девушку с вырезаеным фоном то генерится только она на белом фоне
При низком Denise strength да. Лучше фон делать не белым, а приближенным к тому что нужно. Если цель - сплошной белый фон то как в видео.
@@StableDiff так я про ваше видео и говорю.
У вас после обработки в Фотошопе генерится то что в промте, а у меня нет.
отлично! спасибо)
У меня нет таких плагинов в списке(( и Canvas тоже не находит
Нейросетевые плагины в photoshop появились в последних версиях.
@@StableDiff вы же говорите о расширениях в стэйбл, чтобы их проинсталировать мы должны их прогрузить по ссылке с гитхаба, нажимая кнопочку Available
@@StableDiffНа nvidia работают или на AMD можно запустить, или на проце?
@@vrphoto5502 на видюхах точно можно, но жеалательно иметь 8гб видеопамяти, на 3гб больше половины фильтров отказываются работать
@@nekitocka на видюхе от AMD (RX580 8gb) будет работать?
Или только на Nvidia?
не могу найти как изменить прозрачность маски(( она у меня полупрозрачная
Маска не имеет степени прозрачности в automatic. Та прозрачность которую вы видите сделана специально, чтобы видеть, что обводите.
@@StableDiff спасибо!
Брейкеры все равно скажут что это шиномонтаж
только не расширение а разрешение
Спасибо
Никак не разберу название расширения для увеличения изображения перед накладыванием маски
canvas-zoom
github.com/richrobber2/canvas-zoom
Подскажите, как сделать курящего человека с сигаретой или сигарой
Техника прикольная кроме лица. Лицо супер-палится)
вообще много ненужных манипуляций, фотошоп тут лишний от слова совсем! все действия совершаемые в фотошопе быстрее и качественее делать в стейбл дифьюжен
всё это можно делать силами и2и и импейнтом
но всё равно спасибо за видос, интересно посмотреть на другие пути и подходы
что за инструменты? можешь на английском полное название дать
@@фен-к3р img2img, inpaint в automatic1111
@@panbacchus9657 спасибо!
Чет как то люто получается если честно, фото выглядит так как будто вырелаз лицо и приклеил на картинку.
Класс, я тоже так делал 😊
Спасибо, помогли!
Ну не за 5 минут точно!
Огонь!
хорошее видео, лайк автору, некоторые блогеры за эту информацию деньги берут) в целом все верно, но controlnet скорее лишний, inpaint достаточно: и позу можно сохранить и каждый элемент сцены настроить, по крайней мере, мне ни разу для такой работы не пригодился)
А если нет контроль нета в настройках?
Самый убогий микрофон в мире. Вообще ничего не понятно
выглядит по итогу стремно в некоторых местах. даже позорно
можно было сделать лучше
тэга nude_breast не хватает для теста
Магия, блин
круть