dpt_large выдает ошибку, случаем не знаете почему? Midas_v21_small и Midas_v21 (установился сам без проблем) работают отлично. dpt_large даже устанавливаться не хочет
проблему решил. Оказалось, в первый раз не дал dpt_large скачать до конца. было закачено 900 мб. Но когда удалил файл dpt_large из папки Midas, то dpt_large закачался по новой, весить, примерно, 1,3 гб
Спасибо большое за видос, просто отвал башки! Сам сижу в фотошопе с 2000г., дальше думаю не надо объяснять, такие же эмоции :) Ни в одном мессенджере, ни в одной соцсети, ни на youtube я не ставил допуск уведомлений, но тут прям другая история. Включил уведомления, звук погромче, жду прям каждого видоса! Спасибо еще раз за информацию и труд!
Как маска это отличная штука!! Но если пытаться вытянуть из неё именно глубину, как объём в 3д, то это хрень. Точнее объём есть, но очень условный. Проверено :)
@@---Nikita-- скорее всего это связано с потерей информации о глубине при конвертации в оттенки серого. Закодировать детали 256-тью градациями глубины можно лишь в грубой форме. Карту глубин нужно сохранять в raw виде (fp16?, fp32? или uint32?)
@@---Nikita-- ну для блендера оно и нахуй не нужно ессесна. А в том же АЕ чутка движения картинке через дисплейсмент мап задать - то что надо для коротких переходов например или для небольших вставок. Да и динамического блюра по глубине иногда неплохо дать на фон за персонажем
Спасибо вам за это видео! невыносимо большое спасибо! я ненавидела заказы с необходимостью выделять волосы, чтобы поменять фон в фотошопе. Вот оно - счастье!
19:20 Не сделал мокрое лицо только потому что маска не позволяет менять лицо с волосами. Было бы очень интересно посмотреть на результат, если удалить волосы из маски и оставить только лицо 🔥
Очень здорово. То что ии понимает статичное плоское изображение в глубину - это нечто. Такими темпами, думаю что лет через 15-20, генерация картинок на основе текста логически перейдет в генерацию игр и кино на основе сценария. Это сносит крышу. Пришел домой и попросил сочинить тебе новый фильм по любимой книжке.
В результате книжки и фильмы обесценятся в том же направлении, в каком сейчас обесценены рисование и музыка,но мощнее в разы. Вплоть до исчезновения понятий "чтение" и "кино".
Использовал этот инструмент не для замены фона, а для создания маски глубины у фото, чтобы в After Effects с помощью смещения сделать эффект 3D для статичного изображения. Результат потрясающий. Огромное спасибо за урок
Хачатур, здравствуйте. Настройки ставлю по вашим рекомендациям, нажимаю Генерацию, выдаёт такое сообщение: TypeError: argument of type 'NoneType' is not iterable Time taken: 5.80sTorch active/reserved: 2069/2082 MiB, Sys VRAM: 3501/8192 MiB (42.74%) Подскажите, ЧТО не так?
Хочу сделать вам спасибо за урок. Прям очень дошло) Но есть нюанс. В Вашей сборке и на прямой ссылке к сожалению depthmap2mask выдает ошибку "AttributeError: 'Block' object has no attribute 'drop_path'" . Я решил этому посопротевляться и даже поставил старую версию timm==0.6.7 и даже на всякий случай поставил на другой комп. Короче пока могу получать наслаждения только от вашего шикарного видео, примерно так как путешествовал когдато через товарища Синкевича. Если у Вас есть решение этой задачи, я буду весьма признателен)))
Приветствую! У меня такая же ошибка, причём выдаёт её на разных сборках StableDiffusion. Пока не знаю как решить эту проблему. А вы знаете, может быть уже нашли решение?
Отличное видео как всегда. Скажу вам кое-что дополнительно. Я вернулся к этому видео спустя долгое время. Потому что то о чем вы в видео рассказали не сильно было нужно мне. Но. Я увидел в своей и смежных направлениях деятельности применение карты глубины. Ребята, это бомба в 3d. Ведь карта глубины может быть загружена в тот же блендер, на ее основе получается изменение высот на плоскости и после этого вы накладываете оригинальное изображение как текстуру материала и все у вас готова 3d сцена. Ну если вы конечно знаете как снимать камерой плоскость в ней. Плюсуем сюда нейронку, которая по голосу или тексту рисует анимацию губ, глаз, отклонение лица от изначального положения и все, у нас секвенция текстур и карт глубин. Поздравляю мы сделали видео с псевдотрехмеркой весьма достойного качества!
Я посмотрел это видео и моя жизнь изменилась. Спасибо 😇 Есть пожелание каналу. Сделайте для своих подписчиков мини видео инструкцию по шагам в 1 мин. Чтобы можно было возвращаться на урок для оживления в памяти, быстро посмотреть и начать применять.
Cпасибо за обзор! С момента выхода вашего видео разработчик добавил дохелиард моделей в расширении.. И теперь нет просто "dpt_large"..( Подскажите, какую модель вы теперь используете?
Христ помоги) Всё сделал по описанию, выбрал скрипт depthmaph , выбрал dtp large, но когда нажимаю generate выдаёт "TypeError: argument of type 'NoneType' is not iterable" , как это исправить??
Я нашёл тебя случайно сегодня. И это == найденному алмазу среди дерьма.Спасибо! очень ламповый канал! А твой курс по C# сдвинул меня с мертвой точки! СПАСИБО за то что ты есть!!!
Кажется я тоже "в ах*е" ))) Спасибо, полезная штука! Сегодня же протестирую. Я по твоим видосам уже столько шедевров нарисовал, что кажется пора удалять фотошоп)) И кстати, эти артефакты песочного цвета над плечами именно из-за того, что маска в этом месте размытая. Но уже понял, что это поправимо. Побежал изучать ))))
крутяк, сидел игрался, в итоге сделал свою фотку на пляже, оно мне натурально растрепало волосы, как будто пересушил на солнце, реально крышесносно, спасибо за интересную инфу, подписался. Которое видео не могу досмотреть, где-то в середине начинаешь играть с нейронкой и забываешь досмотреть до конца
После первого просмотра данного ролика, меня охватило то же чувство о котором говорит уважаемый Хачатур на 15:42, с таким инструментом можно исполнять много разного креатива:) Большая благодарность автору видео и канала! Это лучший канал про все интересное))) Хачатур, большое уважение к тебе! Буду ждать новых серий)
Ухххх! Что-ты делаешь со мной? Я и так охреневаю от того, что даже на стандартном функционале ST могу делать крутые вещи. А теперь ты мне просто башню снёс новым открытием!💥💥💥💥💥💥💥💥💥 Спасибо!
При первом запуске без изменения настроек выдает ошибку KeyError: 'swin2b24_384' При смене типа модели на dpt_large ошибка TypeError: argument of type 'NoneType' is not iterable
О сколько нам открытий чудных готовит нейросетей дУуУуухХххХх🤐👾👾👾👾👾👾 Пасиб, сенсей, твой мат отменный ласкает и пленяет слУуУуууХххХ😘 следущая темище - поэзия в ИИ!😉
Приветствую. Большое спасибо за передаваемые знания🤝 Если будет возможность и интерес, хотелось бы увидеть ролик - инструкцию к 3D_Photo_Inpainting (есть и на Hugging Face и в colab) Спасибо!
*Христ, помоги, пожалуйста, я уже всё перепробовал. Он почему то сзади меня дублирует такого же человека и как я, но на несколько пикселей больше и получается, что я перекрываю его.*
Вопрос - а кто то пробовал генерировать при помощи Stable Diffusion интерьеры - к примеру кухни. Я пробую но они примерно однотипные получаются. Есть примеры интерьеров ?
Вроде что-то получилось после того как заменил «Самую Лучшую Модель» на sd-v1-5-inpainting, скрутил на минимум mask blur и masked padding, ну и чуть приподнял порог белого в фотошопе т.к. contrasts cut level на него почему-то не влияет. В общем, впечатления положительные, но не прям вах )
Маска с глубиной это интересно 🤔 Делал такие маски глубины в рендерах. Когда рендерил по пасам. Но тут прям волшебство. С готовой фотографии такое делать.
Да там не то что фотошоп, уже сама возможность генерить карту глубины открывает уйму возможностей. К примеру в Афтер Эффектс можно делать кучу ништяков, начиная с анимацией фокуса камеры и кончая 3Д дисплейсом. Короче бомбическая штука, спасибо!
@@Alex.7771 там 12 часов на неделю дают. В воскресенье или в понедельник обнуляется. Так что не забывай завершать сессию. Но вроде можно использовать несколько аккаунтов. Но всё равно лучше обзавестись хотя бы RTX 3060. Т.к. для генерации видео уже не хватает места на Гугл Диске
как понял работает это достаточно просто (либо озвучиваю и так очевидную вещь) . в inpaint upload первая картинка видоизменяется также если бы мы видоизменили эту картинку в img2img , просто потом тупо накладывается область нашей маски. Поэтому когда генерируется при повышенных Denoising strength, рисуется на заднем плане другой человек. При небольшом Denoising strength рисуется картинка более похожая на нашу , поэтому волосы по краям уменьшатся, но и фон не сильно видоизменится на нашем фото.
модель dpt_large_384 не скачивается выдает ошибку TypeError: argument of type 'NoneType' is not iterable. другие модели качаются нормально, из папки тоже пробовал удалять
у меня есть такой вопрос, я довольно новичек во всем этом, а можно ли в automatic1111 добавить расширения например для chatGPT или dalle-2? я видел на hugging face во вкладке spaces как люди дают пользоваться своим пространством с разными нейросетями типо whisper, text to music, gpt и т.д. и везде интерфейс automatic1111, как они ставят их?
Снова очень круто. И снова хочется уточнить задачу на похожую тему. Стоит задача генерировать предметы на площади фоне. Входящее в комплект автоматика расширение ABG не устраивает, потому что оно очень плохо справляется с тенью (а сгенерировать в SD нормально освещенный предмет на ровном белом фоне без тени - практически неосуществимая задача). Вот это расширение может помочь, конечно, но как у него с автоматизацией и может ли оно сразу делать пнг с прозрачностью?
Хотела сделать сестру на кемпинге. Она сидит в капюшоне. Нейронка из капюшона делает палатку всё время ))) 1 раз только получилось так, чтобы из головы не росла. Потом делала ее в космическом корабле. Из капюшона дорисовывает полу-шлем с наушниками.
Ну теперь не причесанная)) Но да, естественнее. Но заметно, что локоны неточно по пробору располагает. Все же нужно делать итерации пока не получишь результат. Но вообще круто
Не знаю, актуально ли еще, но у меня была такая ошибка когда выбирал dpt_large, остальные два модуля работали норм. Оказалось поврежден сам файл (dpt_large-midas-2f21e586.pt) в папке ...models\midas. Удалил, перекачал и все заработало.
Интерсная тема работа с картой глубин, но к сожалению не нова. Работая VFX артистом, такие вещи создаются без особых проблем, локально в том же NUKE, только там все контролируемо под конкретную задачу в шоте. Как альтернативу. первое что пришло на ум, Depth Scanner, только там работа заточена еще под видео, но принципы те же. Скорость обработки не уступает. Да, физически, построение картинки верное. Освещение он считывает в данном примере правильно. Для начала развития технологии, неплохой результат, но не идеален для проф работы. Хачатур, хороший контент на канале, с удовольствием подписался. Задонатить однозначно!
ты в сказке живешь? Не бывает апскейлеров без артефактов. Можешь хоть об стену убиться, но артефакты - это неизбежные издержки апскейла, тем более если речь про 4х и больше.
@@NixAxer а чего, топаз работает без артефактов? 😁 Если человеку надо без артефактов, то топаз точно не для него. А img2img тоже не панацея. Часто он даже убивает детализацию, а не делает изображение более детализированным. Бывает удачно получается, но чаще всего почему-то мыло.
Ну надо бы все-таки пояснить, что это не со всеми фото работает хорошо. Если вокруг нужного объекта есть какие то мелкие элементы (например решетчатый заборчик) или например объект сидит на "диване", то данная маска не всегда хорошо работает. Для "портреток" вещь хорошая, согласен.
Adobe Photosop: Filters > Neural Filters > Depth Blur > Output Depth Map Only Дядя изучай матчасть - в шопе уже год как есть... Но все равно - за разбор спасибо
Ну такое. Если разрешение побольше? Сразу оп, памяти не хватает. Если картинка посложнее чем шаблонный портрет? Если допустим на девушке будет панама, которая по цвету в одном месте будет близка по цвету со зданием на фоне. Оно работает в стерильных условиях, как чего приближенное к реальной жизни, начинаются проблемки. Фотошоп пока точно не заменит.
дебс это позиция во вью спейсе. Выгнав дебс, можно прогенерить позицию, а значит и 3д поверхность. Прогенерив несколько ракурсов можно сделать полноценную 3д модель, аля скан. Так же можно пробовать генеррить дисплейсмент для текстур, ток вот текстуры пока что сами по себе хреново генериться умеют. Надо экспериментировать
У меня обратная проблема - я наоборот -хочу глобально поменять фон вокруг объекта - объект например на чистом белом фоне - так вот фон этот никак не меняется на разноцветную галактику например. Оно тупо хватает цвет фона (белый) и не делает звёзды белые на белом фоне - короче само цвет оно не хочет вставлять и фон. Помоги пожалуйста разобраться. Как отвадить его брать цвета фона изначального
Очень круто, что вы показали возможности маски! Спасибо! Кстати, хотел спросить, может вы знаете: когда стараюсь поменять фон на фотографии по вашему примеру, то у меня почему-то за передним объектом (лицом) появляются артефакты в виде дублирования объекта (когда словно на фотографию портрета добавили новый слой с лицом и слегка сместили его). И получается, что на фотографии около уха может появится часть этого же уха чуть сбоку. Тоже самое происходит, если я стараюсь поменять фон для какой-нибудь баночки - выходит так, словно за первой баночкой есть вторая, которая частично выглядывает. Не подскажете, в чем может быть причина и что поможет это исправить? К слову SD запускал с гугл коллаба, а то локально мой комп с depthmap2mask не справляется
🤯крышеснос мягко сказано. Единственное не въехал почему ошибку выдало: "TypeError: argument of type 'NoneType' is not iterable. Time taken: 2.54sTorch active/reserved: 552/562 MiB, Sys VRAM: 2581/6144 MiB (42.01%)" и так постоянно при попытке. Дядька вещает просто реальный крышеснос на канале, мне страшно представить что там на бусте у него и очень надеюсь, что пропустит платеж при попытке подписаться 🥲
6:31 не обязательно ставить эту галочку, можно просто потом в inpaint uploade чекнуть радиобаттон inpaint not masked. Спасибо за видео Хачатур!
dpt_large выдает ошибку, случаем не знаете почему? Midas_v21_small и Midas_v21 (установился сам без проблем) работают отлично. dpt_large даже устанавливаться не хочет
проблему решил. Оказалось, в первый раз не дал dpt_large скачать до конца. было закачено 900 мб. Но когда удалил файл dpt_large из папки Midas, то dpt_large закачался по новой, весить, примерно, 1,3 гб
@@killabook UnboundLocalError: local variable 'model' referenced before assignment Это выдавал?
@@killabook Спасибо, помогло
@@evhent пожалуйста. нефига себе, оказывается не один с такой проблемой столкнулся. Думал что один такой
Спасибо большое за видос, просто отвал башки! Сам сижу в фотошопе с 2000г., дальше думаю не надо объяснять, такие же эмоции :)
Ни в одном мессенджере, ни в одной соцсети, ни на youtube я не ставил допуск уведомлений, но тут прям другая история. Включил уведомления, звук погромче, жду прям каждого видоса! Спасибо еще раз за информацию и труд!
☝ Красавчик
❤
Генерация маски глубины само по себе уже очень хороший инструмент, особенно если изображения нужны для анимации. Спасибо за видео
Как маска это отличная штука!! Но если пытаться вытянуть из неё именно глубину, как объём в 3д, то это хрень. Точнее объём есть, но очень условный. Проверено :)
@@---Nikita-- В афтере?
@@drugoj в blender, через дисплейсмент
@@---Nikita-- скорее всего это связано с потерей информации о глубине при конвертации в оттенки серого. Закодировать детали 256-тью градациями глубины можно лишь в грубой форме. Карту глубин нужно сохранять в raw виде (fp16?, fp32? или uint32?)
@@---Nikita-- ну для блендера оно и нахуй не нужно ессесна. А в том же АЕ чутка движения картинке через дисплейсмент мап задать - то что надо для коротких переходов например или для небольших вставок. Да и динамического блюра по глубине иногда неплохо дать на фон за персонажем
С такой скоростью ролики может делать только ИИ. Скайнет ближе чем мы думали 🙀
Как же приятно получать от тебя новые знания лучших практик) Спасибо огромное и пожалуйста продолжай
Спасибо вам за это видео! невыносимо большое спасибо! я ненавидела заказы с необходимостью выделять волосы, чтобы поменять фон в фотошопе. Вот оно - счастье!
19:20 Не сделал мокрое лицо только потому что маска не позволяет менять лицо с волосами. Было бы очень интересно посмотреть на результат, если удалить волосы из маски и оставить только лицо 🔥
Не сделает все равно, так как лицо ближе к камере, значит маска в этом месте самая "густая". Т.е система точно знает что "там я не трогаю".
За мокрым лицом отправляемся в instruct pix2pix
Хачатур, твой труд стал одним из немногих за которые от души хочется донатить.
Зарегался на Бусти, а там еще всякие полезности.
Благодарствую😌
😇
🙏
ошибку выдает: AttributeError: 'Block' object has no attribute 'drop_path' или TypeError: argument of type 'NoneType' is not iterable
И у меня
Очень здорово. То что ии понимает статичное плоское изображение в глубину - это нечто. Такими темпами, думаю что лет через 15-20, генерация картинок на основе текста логически перейдет в генерацию игр и кино на основе сценария. Это сносит крышу. Пришел домой и попросил сочинить тебе новый фильм по любимой книжке.
Какие 15 лет ))) жди 3-4 года
Это уже происходит. 3d художники уже пользуются картами глубин для оживления картинки.
Осталось только сервак для генерации купить за 10 лямов.
В результате книжки и фильмы обесценятся в том же направлении, в каком сейчас обесценены рисование и музыка,но мощнее в разы. Вплоть до исчезновения понятий "чтение" и "кино".
Использовал этот инструмент не для замены фона, а для создания маски глубины у фото, чтобы в After Effects с помощью смещения сделать эффект 3D для статичного изображения.
Результат потрясающий.
Огромное спасибо за урок
в After Effects для эффекта 3D использовал плагин Volumax или через displacement map?
@@rusl131 displasement map
Хачатур, здравствуйте.
Настройки ставлю по вашим рекомендациям, нажимаю Генерацию, выдаёт такое сообщение:
TypeError: argument of type 'NoneType' is not iterable
Time taken: 5.80sTorch active/reserved: 2069/2082 MiB, Sys VRAM: 3501/8192 MiB (42.74%)
Подскажите, ЧТО не так?
Год прошел, а решения все нет. Скажи, ты знаешь в чем проблема? у меня такая же ошибка
Хочу сделать вам спасибо за урок. Прям очень дошло) Но есть нюанс. В Вашей сборке и на прямой ссылке к сожалению depthmap2mask выдает ошибку "AttributeError: 'Block' object has no attribute 'drop_path'" . Я решил этому посопротевляться и даже поставил старую версию timm==0.6.7 и даже на всякий случай поставил на другой комп. Короче пока могу получать наслаждения только от вашего шикарного видео, примерно так как путешествовал когдато через товарища Синкевича. Если у Вас есть решение этой задачи, я буду весьма признателен)))
Приветствую! У меня такая же ошибка, причём выдаёт её на разных сборках StableDiffusion. Пока не знаю как решить эту проблему. А вы знаете, может быть уже нашли решение?
TypeError: argument of type 'NoneType' is not iterable Кто нибудь скиньте версию этого расширения, обновленная версия не фурычит с dpt large (((((((
Чувствую скоро в интернете визуального вранья станет навалом, особенно новостного, и ведь даже кто разбирается не отличит.
Отличное видео как всегда.
Скажу вам кое-что дополнительно. Я вернулся к этому видео спустя долгое время. Потому что то о чем вы в видео рассказали не сильно было нужно мне. Но. Я увидел в своей и смежных направлениях деятельности применение карты глубины. Ребята, это бомба в 3d. Ведь карта глубины может быть загружена в тот же блендер, на ее основе получается изменение высот на плоскости и после этого вы накладываете оригинальное изображение как текстуру материала и все у вас готова 3d сцена. Ну если вы конечно знаете как снимать камерой плоскость в ней. Плюсуем сюда нейронку, которая по голосу или тексту рисует анимацию губ, глаз, отклонение лица от изначального положения и все, у нас секвенция текстур и карт глубин. Поздравляю мы сделали видео с псевдотрехмеркой весьма достойного качества!
Дааа, вынос мозга... Ну фантастика такая чёткая работа ИИ, за уроки как всегда низкий поклон и уважение за работу!!!
Можешь снять видео про обьяснение Upscale и как правильно его делать для улучшения качества картинки?
Я посмотрел это видео и моя жизнь изменилась. Спасибо 😇 Есть пожелание каналу. Сделайте для своих подписчиков мини видео инструкцию по шагам в 1 мин. Чтобы можно было возвращаться на урок для оживления в памяти, быстро посмотреть и начать применять.
Cпасибо за обзор!
С момента выхода вашего видео разработчик добавил дохелиард моделей в расширении.. И теперь нет просто "dpt_large"..( Подскажите, какую модель вы теперь используете?
Христ помоги) Всё сделал по описанию, выбрал скрипт depthmaph , выбрал dtp large, но когда нажимаю generate выдаёт "TypeError: argument of type 'NoneType' is not iterable" , как это исправить??
аналогично
ну вооот! та же фигня (TypeError: argument of type 'NoneType' is not iterable
Time taken: 6.5 sec.
A: 2.04 GB, R: 2.05 GB, Sys: 3.1/12 GB (26.1%)
тоже не работает
Тоже не работает
Закачай модель вручную
Тоже плюсую за серые сценки, сильно добавляет юмора)
Знаем много лет! Подписался ) Спасибо огромное за работу, спасибо огромное за видео!!!
Я нашёл тебя случайно сегодня. И это == найденному алмазу среди дерьма.Спасибо! очень ламповый канал! А твой курс по C# сдвинул меня с мертвой точки! СПАСИБО за то что ты есть!!!
я нихуя не понимаю, но этот чувак точно знает что говорит. буду делать так же
🤓 я смеялась вслух от реалистичности фона. Никогда не поймёшь, что это не оригинальный, который был сфоткан 😯 👏👏👏 спасибо за урок
Это просто взрыв😱Реально, я радуюсь каждому видео, учусь по Вашим урокам 👍🤟Вы крутой
Братан огромное тебе спасибо за твои ролики! Ты реально все рассказал для успешной учебы этой нейронки.
Привет, Христ) Поставил расширение, пишет ошибку UnboundLocalError: local variable 'model' referenced before assignment. Что он хочет от меня?
Я в ахере! И это только начало! Круто жить в такое время)
так и не смог поставить, вылезают ошибки :( Автоматом не загружает, вручную закинул модель, тоже не помогло
Кажется я тоже "в ах*е" ))) Спасибо, полезная штука! Сегодня же протестирую. Я по твоим видосам уже столько шедевров нарисовал, что кажется пора удалять фотошоп)) И кстати, эти артефакты песочного цвета над плечами именно из-за того, что маска в этом месте размытая. Но уже понял, что это поправимо. Побежал изучать ))))
Спасибо Хачатуру за открытие, это реально полный крыше снос🙀 Инструмент просто бомбический.
Спасибо, уже проверил как работает)) Мало-помалу и разберусь придёт время со всем)
крутяк, сидел игрался, в итоге сделал свою фотку на пляже, оно мне натурально растрепало волосы, как будто пересушил на солнце, реально крышесносно, спасибо за интересную инфу, подписался. Которое видео не могу досмотреть, где-то в середине начинаешь играть с нейронкой и забываешь досмотреть до конца
Через эту штуку так-то довольно удобно фотки под трейн подгонять
Пасиба, сам бы я хрен на неë наткнулся
Спасибо за видео! Успехов! пысы: твикер - пушка ❤
После первого просмотра данного ролика, меня охватило то же чувство о котором говорит уважаемый Хачатур на 15:42, с таким инструментом можно исполнять много разного креатива:) Большая благодарность автору видео и канала! Это лучший канал про все интересное))) Хачатур, большое уважение к тебе! Буду ждать новых серий)
очень круто! Благодарность автору за такой полезный динамичный контент👍👍
Зашёл просто поставить лайк.Учусь по твоим урокам на c#.Спасибо.
☝ Вот это Красавчик!
Похоже, вам с depthmap2mask пора номер снять)) Спасибо за ролик, очень полезно.
Снимите пожалуйста новый ролик, данный плагин уже не поддерживается а необходимость замены фона у людей осталась :)
Снял про ControlNet 👍
Спасибо за видео. Очень познавательно.
Ухххх! Что-ты делаешь со мной? Я и так охреневаю от того, что даже на стандартном функционале ST могу делать крутые вещи. А теперь ты мне просто башню снёс новым открытием!💥💥💥💥💥💥💥💥💥
Спасибо!
Просто великолепие какое-то! Огромная уважуха тебе! Разбери расширение Deforum, ради Христа)
ваааа вот это пушка просто!!!!! благодарю очень очень!
При первом запуске без изменения настроек выдает ошибку KeyError: 'swin2b24_384'
При смене типа модели на dpt_large ошибка TypeError: argument of type 'NoneType' is not iterable
та же проблема
та же проблема, никто не нашел решения?
нашли решение?@@dmitrimatkovsky
Нашли решение?@@ThePushnoi
Возьму на заметку. Полезный инструмент.
Когда выставляю dpt_large пишет UnboundLocalError: local variable 'model' referenced before assignment . Что это может быть?
Выдает такую же ошибку, кто нибудь нашел решение?
О сколько нам открытий чудных готовит нейросетей дУуУуухХххХх🤐👾👾👾👾👾👾 Пасиб, сенсей, твой мат отменный ласкает и пленяет слУуУуууХххХ😘 следущая темище - поэзия в ИИ!😉
Приветствую.
Большое спасибо за передаваемые знания🤝
Если будет возможность и интерес, хотелось бы увидеть ролик - инструкцию к 3D_Photo_Inpainting (есть и на Hugging Face и в colab)
Спасибо!
Уже пробую, спасибо за инфу!))
Все, подписался на Boosty. Просто кайф.
*Христ, помоги, пожалуйста, я уже всё перепробовал. Он почему то сзади меня дублирует такого же человека и как я, но на несколько пикселей больше и получается, что я перекрываю его.*
а там как то модели поменялись, их стало гораздо больше, а dpt large не работает почему. Какой моделью пользоваться лучше?
Вопрос - а кто то пробовал генерировать при помощи Stable Diffusion интерьеры - к примеру кухни. Я пробую но они примерно однотипные получаются. Есть примеры интерьеров ?
Вроде что-то получилось после того как заменил «Самую Лучшую Модель» на sd-v1-5-inpainting, скрутил на минимум mask blur и masked padding, ну и чуть приподнял порог белого в фотошопе т.к. contrasts cut level на него почему-то не влияет. В общем, впечатления положительные, но не прям вах )
Так круто было бы видео прогонять через это, буду пробовать! Спасибо
Офигенно разделяю восторг матов особенно когда осознаешь сколько человеко-часов потрачено на вырезание в фотошопе
Маска с глубиной это интересно 🤔 Делал такие маски глубины в рендерах. Когда рендерил по пасам. Но тут прям волшебство. С готовой фотографии такое делать.
Благодарю за информацию
Да там не то что фотошоп, уже сама возможность генерить карту глубины открывает уйму возможностей. К примеру в Афтер Эффектс можно делать кучу ништяков, начиная с анимацией фокуса камеры и кончая 3Д дисплейсом. Короче бомбическая штука, спасибо!
@@bez_formata6357 а там они сами генерируют карту или нужно самому загружать?
Для АЕ давно уже существует свой плагин. Depth Scanner.
Моя жизнь изменилась 😂🤣🤣😂
Всё сделал за Хачатуром, выдаёт "UnboundLocalError: local variable 'model' referenced before assignment" при создании маски. Хелп! 😞
Не удалось исравить? Тоже ничего не скачиватся и постоянные ошибки >_
блин, чувак.. зачем )) всё, работа закончилась - пошел экспериментировать )))
UnboundLocalError: local variable 'model' referenced before assignment
у меня тоже самое(
Нереально! Спасибо! Теперь вот только бы ещё чтобы Stable Diffusion научилась вращать одного человека и не менять лицо и одежду в разных позах, эх
@@Alex.7771 а в Google Colab нельзя?
@@Alex.7771 там 12 часов на неделю дают. В воскресенье или в понедельник обнуляется. Так что не забывай завершать сессию. Но вроде можно использовать несколько аккаунтов. Но всё равно лучше обзавестись хотя бы RTX 3060. Т.к. для генерации видео уже не хватает места на Гугл Диске
👍 Спасибо. Ща попробую.
Скайнет еще никогда не был так близок к провалу.
Спасибо фокусник
Плагин использует метод Midas для генерации depth map, но у метода LeRes детализация лучше, и в плагине он отсутствует.
как понял работает это достаточно просто (либо озвучиваю и так очевидную вещь) .
в inpaint upload первая картинка видоизменяется также если бы мы видоизменили эту картинку в img2img , просто потом тупо накладывается область нашей маски.
Поэтому когда генерируется при повышенных Denoising strength, рисуется на заднем плане другой человек.
При небольшом Denoising strength рисуется картинка более похожая на нашу , поэтому волосы по краям уменьшатся, но и фон не сильно видоизменится на нашем фото.
модель dpt_large_384 не скачивается выдает ошибку TypeError: argument of type 'NoneType' is not iterable. другие модели качаются нормально, из папки тоже пробовал удалять
Аналогично
это просто бомба - держитесь мои старые фото :)
Старые фото говоришь... ммм... Тебе зайдёт следующее видео, только тссс. ;)
у меня есть такой вопрос, я довольно новичек во всем этом, а можно ли в automatic1111 добавить расширения например для chatGPT или dalle-2? я видел на hugging face во вкладке spaces как люди дают пользоваться своим пространством с разными нейросетями типо whisper, text to music, gpt и т.д. и везде интерфейс automatic1111, как они ставят их?
Если у нейросети есть публичный API, то прикрутить ее - нет проблем. Но у некоторых нейросетей нет публичного API в принципе (привет Midjorney).
Снова очень круто. И снова хочется уточнить задачу на похожую тему. Стоит задача генерировать предметы на площади фоне. Входящее в комплект автоматика расширение ABG не устраивает, потому что оно очень плохо справляется с тенью (а сгенерировать в SD нормально освещенный предмет на ровном белом фоне без тени - практически неосуществимая задача). Вот это расширение может помочь, конечно, но как у него с автоматизацией и может ли оно сразу делать пнг с прозрачностью?
звиздец, можно на базе Этой оболочки новый фотошлеп собирать! с нейроинструментами которые логически будут отрабатывать функционал ))
Хотела сделать сестру на кемпинге. Она сидит в капюшоне. Нейронка из капюшона делает палатку всё время ))) 1 раз только получилось так, чтобы из головы не росла. Потом делала ее в космическом корабле. Из капюшона дорисовывает полу-шлем с наушниками.
Тоже дорисовывает постоянно на заднем плане человека, не во всех случаях работает корректно, на каких-то фото огонь, на каких-то вообще не то.
Ну теперь не причесанная)) Но да, естественнее. Но заметно, что локоны неточно по пробору располагает. Все же нужно делать итерации пока не получишь результат. Но вообще круто
Огромное спасибо! Сегодня буду баловаться)))
p.s. С файерфокса умер апахпахпахпах
Спасибо Христ! Как всегда супер увлекательно!
Только ХрИст =)
@@serpotapov простите.
sd-webui-controlnet вот это офигительное расширение для масок, также им можно скопировать любой арт
t.me/win10tweaker/256
@@XpucT забавно, мысль понятна. мне расширение зашло, в контролнет также маски по глубине тоже есть.
Осталось по карте глубины научить ИИ выбирать поворот объекта и будет полный фарш.
Кто может помочь с такой ошибкой
UnboundLocalError: local variable 'model' referenced before assignment
С ошибками на форум, пожалуйста:
win10tweaker.ru/sd
Не знаю, актуально ли еще, но у меня была такая ошибка когда выбирал dpt_large, остальные два модуля работали норм. Оказалось поврежден сам файл (dpt_large-midas-2f21e586.pt) в папке ...models\midas. Удалил, перекачал и все заработало.
Интерсная тема работа с картой глубин, но к сожалению не нова.
Работая VFX артистом, такие вещи создаются без особых проблем, локально в том же NUKE, только там все контролируемо под конкретную задачу в шоте.
Как альтернативу. первое что пришло на ум, Depth Scanner, только там работа заточена еще под видео, но принципы те же. Скорость обработки не уступает.
Да, физически, построение картинки верное. Освещение он считывает в данном примере правильно.
Для начала развития технологии, неплохой результат, но не идеален для проф работы.
Хачатур, хороший контент на канале, с удовольствием подписался. Задонатить однозначно!
*Запишите, пожалуйста, видео про Upscaler, как увеличивать изображения чтобы это было без артефактов*
ты в сказке живешь? Не бывает апскейлеров без артефактов. Можешь хоть об стену убиться, но артефакты - это неизбежные издержки апскейла, тем более если речь про 4х и больше.
@@phat80 скажи, это гигапикселю. Превосходный апскеллер. Работает просто шикарно, выдаёт великолепное качество.
Просто открывать img2img и делать изображение в большем разрешении. А что получилось - прогоняешь через Топаз гигапиксель.
@@NixAxer а чего, топаз работает без артефактов? 😁 Если человеку надо без артефактов, то топаз точно не для него. А img2img тоже не панацея. Часто он даже убивает детализацию, а не делает изображение более детализированным. Бывает удачно получается, но чаще всего почему-то мыло.
@@phat80 а ты видел в Топазе артефакты?!
Ну надо бы все-таки пояснить, что это не со всеми фото работает хорошо. Если вокруг нужного объекта есть какие то мелкие элементы (например решетчатый заборчик) или например объект сидит на "диване", то данная маска не всегда хорошо работает. Для "портреток" вещь хорошая, согласен.
Согласен. Некоторые случаи руками всё ещё нужно править. Но приятно то, что есть img2img =) И всё становится очень быстро.
Ребят, а почему у меня нет inpaint upload, нужно версию обновить, или это отдельно ставить нужно как-то?
Прикольная штука, интересно как бы это прикрутить к секвенции.
Adobe Photosop:
Filters > Neural Filters > Depth Blur > Output Depth Map Only
Дядя изучай матчасть - в шопе уже год как есть...
Но все равно - за разбор спасибо
Да классное было расширение, только перестало работать
Ну такое. Если разрешение побольше? Сразу оп, памяти не хватает. Если картинка посложнее чем шаблонный портрет? Если допустим на девушке будет панама, которая по цвету в одном месте будет близка по цвету со зданием на фоне. Оно работает в стерильных условиях, как чего приближенное к реальной жизни, начинаются проблемки. Фотошоп пока точно не заменит.
4080, не чувствую проблем.
Да, у Вас не 4080, но те, кто работает, вкладываются в железо.
дебс это позиция во вью спейсе. Выгнав дебс, можно прогенерить позицию, а значит и 3д поверхность. Прогенерив несколько ракурсов можно сделать полноценную 3д модель, аля скан. Так же можно пробовать генеррить дисплейсмент для текстур, ток вот текстуры пока что сами по себе хреново генериться умеют. Надо экспериментировать
Подождите немного =))
У меня обратная проблема - я наоборот -хочу глобально поменять фон вокруг объекта - объект например на чистом белом фоне - так вот фон этот никак не меняется на разноцветную галактику например. Оно тупо хватает цвет фона (белый) и не делает звёзды белые на белом фоне - короче само цвет оно не хочет вставлять и фон. Помоги пожалуйста разобраться. Как отвадить его брать цвета фона изначального
у меня вот такую ошибку показывает (((((
TypeError: argument of type 'NoneType' is not iterable
подскажите что делать пожалуйста
Аналогично при выборе dpt_large_384, хотя раньше dpt_large нормально работало. Другие модели вообще не сравнятся по качеству.
TypeError: argument of type 'NoneType' is not iterable ТАКАЯ ЖЕ ХЕРНЯ
божественно, нет слов
Очень круто, что вы показали возможности маски! Спасибо!
Кстати, хотел спросить, может вы знаете: когда стараюсь поменять фон на фотографии по вашему примеру, то у меня почему-то за передним объектом (лицом) появляются артефакты в виде дублирования объекта (когда словно на фотографию портрета добавили новый слой с лицом и слегка сместили его). И получается, что на фотографии около уха может появится часть этого же уха чуть сбоку. Тоже самое происходит, если я стараюсь поменять фон для какой-нибудь баночки - выходит так, словно за первой баночкой есть вторая, которая частично выглядывает. Не подскажете, в чем может быть причина и что поможет это исправить? К слову SD запускал с гугл коллаба, а то локально мой комп с depthmap2mask не справляется
Спасибо большое за ролки и проделанную работу и правда, невероятно полезно. А вот насчет "вы ханжа и вам здесь не рады" обидно(
Теперь понимаю почему ты так часто генерируешь рыжих
🤯крышеснос мягко сказано. Единственное не въехал почему ошибку выдало: "TypeError: argument of type 'NoneType' is not iterable. Time taken: 2.54sTorch active/reserved: 552/562 MiB, Sys VRAM: 2581/6144 MiB (42.01%)" и так постоянно при попытке. Дядька вещает просто реальный крышеснос на канале, мне страшно представить что там на бусте у него и очень надеюсь, что пропустит платеж при попытке подписаться 🥲
Аналогично при выборе dpt_large_384, хотя раньше dpt_large нормально работало. Другие модели вообще не сравнятся по качеству.
Может кто-то знает что делать? Выдает ошибку unpicklingerror: could not find mark и не делает маску. очень хочется попробовать,эх
вы решили проблему?