Друзья, вот еще полезные видео про нейросети: 🔥Обзор Stable Diffusion: ruclips.net/video/dXs16YlWsIo/видео.html 🔥Замедление видео: ruclips.net/video/NOpbszQYPf0/видео.html 🔥Удаление фона: ruclips.net/video/8t8slP4YYqQ/видео.html 🔥Улучшение качества видео: ruclips.net/video/SYLTEn4cD_A/видео.html
Счастливые обладатели Radeon ждут окончание рендринга и последующие патчи? В сети уже есть варианты, ума нет это подружить. Этот вариант тоже только для зеленых?
Жду выпуск, с добавлением "своих" моделей!) Да и кажется Stable Diffusion обладает огромным запасом контента.) Так что буду ждать вообще любого контента связанного с ним) Хотелось бы в первую очередь про модели ролик, а еще интересно более подробно рассказать про эту нейросеть, принцип работы, и что с этим всем можно сделать. Я вот пытаюсь на нем создавать на основе фотографий, красивые стилизованные арты, получается но с переменным успехом, поэтому хотеться более углубленные знания, может есть какая, где, уловка, о которой я еще не знаю... Обнял!)
RuntimeError: CUDA out of memory. Tried to allocate 1.37 GiB (GPU 0; 8.00 GiB total capacity; 5.05 GiB already allocated; 0 bytes free; 6.10 GiB reserved in total by PyTorch) If reserved memory is » allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF у меня видиокарта мси 3060 ti вы не знаете как это победить?
Хайрез фикс не "позволяет сделать апскейл", а исправляет проблему с изменением композиции, когда устанавливаешь размер больше 512. Нажав на галочку картинка не станет большой, а то вдруг кто-то послушает и запутается. При больших разрешениях происходят задваивания объектов и прочие артефакты, поэтому хайрезфикс сначала генерит уменьшенное изображение , а потом, сохраняя композицию, генерит картинку уже в увеличенном разрешении, используя маленькую картинку с наложенным на неё шумом. Но если шум будет больше 0.2, то детали и даже композиция всё равно поменяются. Семплеры не все дают разный результат. Это не нейросеть в нейросети, а методы решения уравнений. Большинство семплеров в интерфейсе дают примерно одинаковый результат, но при разном количестве шагов. Для апскейла фото и архитектуры лучше скачать модель Remacri от foolhardy. Ссылки ютуб не даёт скинуть, поэтому сорян ¯\_(ツ)_/¯ Все модели валяются на Upscale точка wiki Но для лучшего качества лучше во вкладке img2img использовать скрипт SD upscale, который нарезает исходную картинку на тайлы и на основе их делает обрисовывание (то же самое, что и хайрезфикс по сути). Опять же денойз в районе 0.2 лучше держать для сохранения композиции. Такой метод позволяет исправить некоторые места и добавить детализации, которые в изначальном 512 разрешении отсутствуют. И только уже после этого можно в "экстрас" кидать для следующего шага апскейла, увеличивая уже эти мелкие детали.
17:00 выбрал апскейлер 1, но поставил апскейлер 2 на 100%. Гений! А вообще вот ни разу не предвзятый обзор, с первых минут понятно с какой сеткой сравнивать будешь. Ещё чёт там про страшные параметры говорил, будто запускаешь скрипт на питоне. И через минуту начал рассказывать про установку питона 😅
Ну вот, а говорили нейросети лишат художников работы. А по факту этот инструмент тоже нифига не простой и появятся вакансии "специалист по генерации нейросетевых изображений" ))
@@MEJIbHUK не согласен, это будут отдельные проги, в фотошоп нет смысла столько всего добавлять, делать программы в программе. С такой же логикой можно интегрировать весь функционал Adobe After Effects в Adobe Premiere.
@@MEJIbHUK по моему интерфейс этих нейронок и так супер простой и удобный уже после часа-двух изучения темы. То есть технически его сложно сделать лучше, только красивее и информативнее для рядового пользователя.
Открыть "Discord", написать запрос боту Midjourney - ой сложнаааааааа! 😱 Установить среду для компиляции "Python" определённой версии, систему контроля версий "Git", клонировать через командную строку репозиторий проекта Stable Diffusion, пройти регистрацию на каком-то сайте, чтобы скачать файл модели на 5 ГБ, запустить исполняемый файл со скриптом, чтобы поднять веб-сервер - это норм, не то что боту в "Discord" писать! 😄
Забей, автор даже не додумался, что можно создать свой канал в дискоде и добавить туда бота миджурней. Как плебей какой то на общем канале тусил :) Да и по результатам генерации у него в каждой нейронке какой то лютый трэшак генерируется :)
@@danrusov что значит "как ты себе представляешь генерацию ии без интернета" ? Ахахаххах Стейблдифьюжн и подобные нейронки так и работают))) Без интернета. Представляешь? А все как раз потому что ты разворачиваешь ее у себя и не зависишь от дискордканалов и пр. сервисов. И ты ничем не ограничен. И моделей полно которые ты можешь использовать. А еще прикинь, ты можешь переобучить ее под свои задачи. Но это слишком сложнаааааааааа! Для таких как ты....
Спасибо за видео, было информативно! Надо подтянуть английский. Я молчу про произношение, но вместо каменного пола (floor) ты написал каменная мука (flour), поэтому там и камни такие мучные 😅
Как не пытался сделать что-то с фото он конкретно менял лицо человека, оставляя общие черты. С одной фотографией так вообще ничего не вышло - постоянно другой человек не намека на узнаваемость. Да и запросы были не километровые.
Про бота Midjourney мало рассказано. Там под 4 фотками кнопки, позволяющие сделать увеличенную версию любой из 4 получившихся картинок, либо сделать вариации любой из них. Можно параметрами задавать размеры картинок и сделать их не квадратными, а прямоугольными, т.е. с указанным соотношением сторон. Например 16 к 9 или наоборот, 9 к 16 или любые другие пропорции. Ну и в последних версиях бота за последний месяц появилась функция объединения своих картинок. Уже полный интернет мемных картинок, созданных таким образом. Эпично выглядит)
+Бота можно добавить на свой сервак. Можно так же увеличить качество изображения включив х2 стоимость. Так что да, про Миджорни вообще почти нечего не рассказано
Спасибо, открыл глаза на стейбл дифюжн, я пользовался только вебмордой в которой ничего настроить нельзя, оказывается можно установить и творить чудеса.
Поигрался с нейронками немного, посмотрел видео разные. Имхо, если вы не хотите запариваться с установкой и прочим, а просто хотите крутую нейронку с коробки, где всё делается в пару кликов, то у MJ нет конкурентов в этом плане. Хотя и там можно очень детально настраивать композицию, но надо уже больше разбираться в тэгах и составлении правильного промта. Как фанат артов, коллекционирующий их лет 8, могу гарантировать, что MJ неоднократно сгенерирует вам что-то, что вы захотите сохранить себе или как минимум поделиться с кем-то. Да и в целом я бы не сказал, что SD 100% лучше как нейронка. MJ очень мощная сама по себе, но её душит цензура. Поэтому, если у вас есть время и желание разобраться в SD, то это будет куда лучше, чем тратить время и деньги на MJ. Но всё же последняя значительно лучше, чем может показаться из этого видео
Ничего сложного в midjourney нет, в настройках ставишь последнюю версию mj 4 и качество high x2, либо добавляешь в конце запроса --v 4 --q 2 и результат будет намного реалистичней чем та дичь что ты показал))
SD ставится на маке легко. На винде не завелось с первого раза самостоятельно. Попробую по вашей инструкции. Очень полученный материал и сравнение. Спасибо! 😊
+1 Желательно, чтобы на русском и английском генерировали, можно отдельные.. И на озвучку было бы интересно, спитчи, давно ищу, чет не нашел более менее адекватные..)) Можно даже для обучения нарыть с озвучек часы речи кого-то, чтобы обучить, т.е. не готовая, поставил и погнал...
Однозначно SD: во первых, потому что он бесплатный, и потом его можно ставить локально и не связываться ни с каким онлайном + в SD есть уже 3 рабочие базы, подключенные к веб интерфейсу. (на самом деле их больше)
@@kittym9693если и будет такое, то это будет уже не известный нам Stable Diffusion, ставший достоянием интернета, а совершенно новая проприетарная архитектура, которую stability ai захотят монетизировать по примеру unopen ai и других. А если вдруг умрут онлайн репозитории на гитхабе, то поднимутся торренты с чьим-нибудь бэкапом. Эта сетка умрёт только от морального устаревания, сменившись другим бесплатным решением и не иначе.
Обычно сравнивают вещи, в которых одинаково хорошо разбираются. С Midjourney автор походу не разобрался. На Midjourney я видел шедевры, а на Stable Diffusion пока нет. Будем искать...
До чего дошел прогресс! Вспомнил старый анекдот: Папа с сыном остановились возле художника, рисующего пейзаж с натуры. Отец говорит: "Смотри сынок как приходится мучиться человеку, если у него нет фотоаппарата." В современной версии анекдота меняем "фотоаппарат" на "доступ к нейросети".
Отец с сыном едут в машине, видят рядом бегущего спортсмена и отец говорит "Смотри сынок как приходится мучиться человеку, если у него нет автомобиля."
SD лучшая сетка, фапаю на неё уже несколько месяцев, очень круто всё. Куча сторонних моделей, анимешные, реалистичные, порнушные, какие захочеш. Обожаю SD)
Не читал, что писали другие.. Голос норм речь норм.. Идея сравнения сомнительная инструмент для большой аудитории мижорни и стабильная дифузия это как сравнивать айос и андроид.... Где миджорни очень удобная и ничего думать и вникать особо не надо, а стейбл пили под себя как хочешь если у тебя есть тяга к изощренности и индивидуализму... Про дали вообще не шарю, не заметил её в пике нейросетевого потока хайпа...
генерить через дискорд это бомба, нужно уметь его приготовить ;) и совершенно необязательно использовать команды, в 90% случаев достаточно текстового запроса. Такое вообще ощущение, что автор продавливает свой любимый SD, а остальных упоминает, лишь бы показать, какие они фу. Однобоко. Мне миджорни в кайф, давно в работу ее взял, очень удобно генерить и референсы, и персонажей для рекламы и так далее.
Очень мощная вещь ! Три дня не выхожу на работу - в офисе сказал что скрываюсь от мобилизации, а сам сижу за компом и генерю себе гигабайты пикчей, с фапабельными аниме тяночками. Преисполнился в теме на столько , что могу рисовать одной рукой .
@@Mindpxwer) Я игры в пятнадцать лет все забросил а энтот дуралей всё в бреду детском мечется. Из возраста детского так и не вышел, ну в окопах поймёшь, что такое игры: по колено в воде, сирый, голодный, тогда в миг повзрослеешь, но станет уж поздно. Пуля, снаряд ли оборвут жалкую жизнь и умрёшь подавившись испугом, Очнись)
Спасибо огромное, очень много интересной информации. Видно, что народ вовсю развивает эту тему. Сам лично сгенерил около сотни изображений, довольно интересный результат получается. Сейчас разбираюсь со stable diffusion для карт AMD, но там все не так удобно, нет UI. Зато работает по 2 секунды на итерацию, против 60 на голом проце.
@@havemoney да просто вбиваешь в поиске на "stable diffusion amd gpu" на youtube и следуешь за белым кроликом. :) Там не все карты поддерживаются, но на rx580 прям первым номером детальная инструкция выпадает.
Исполняю файлы разных алгоритмов на visual studio code, замучался настраивать пути к основным файлам исполнителям, пока не ввёл в терминале "pip install pathlib", основной головняк отпал. При настройке СД, в файле задаются пути к исполнительным файлам Питона: stable-diffusion-webui\venv\pyvenv.cfg
как по мне установка и работа с Midjourney намного проще чем с Stable Diffusion. Так как для джорней нужен один дискорд, для стабла нужен питон, гит, оно потом переносится в папки, в общем усложненный запуск
Проще, но при наличии видюхи от ртх 3060 6гб, а лучше полноценной 12 очень увлеательный. Минус в том, что мдж нужен платный все попытки можно тупо слить, чтобы получить именно то, что тебе надо. Если брать подписку, то вай нот
Супер информативно! Не знала что можно скачать и спокойно работать бесплатно. Подскажите, для мак такой же алгоритм действий для скачивания Stable diffusion?
Класс сколько инди игр, ремастеров и модов можно будет делать с помощью таких технологий!) я прям преисполнилась мотивацией, художка не нужна, коллеги молодцы сделали DDD (когда получаешь результат вводя запрос на естественном языке) для художников.
@@alexej_f для чего? Если бы не такие технологии, человек даже не думал бы заниматься такими вещами, так как нет бюджета на художника и все такое, а сейчас можно попробовать
@@alexej_f Художники в том виде в котором они были исчезнут, как и программисты, менеджеры и прочие прочие, грядёт глобальный перекрой мирового порядка, в течении 5 лет 99% контента в интернете будут генерировать нейросети, пропасть между теми корпорациями в чьих руках будут нейросети и простым человеком непреодалима это означает исчезновение среднего класса...
Спасибо за видос! У мидджорни есть запрос, что бы бот в личку присылал тебе результат. =) Я пробовал все сетки из этого видео и могу сказать, что Мид генерирует самые годные для последующей работы картинки. СД за которую автор топит выдает очень дикий результат. Нужно очень изголятся, что бы получить что-то годное. Один из основных аргументов за СД, что она локальная, не тратит денег и тп. В целом да, хочу только заметить, что заставляя тебя искать нужные параметры и подключать новые модели, она тратит твое время, а это куда больше, чем просто деньги. =) Кстати, забавный момент. Описывая мид, автор говорит мол не удобно, что надо писать аргументы к запросу. И сразу за этим начинает рассказывать, как надо скачать с гита СД и сделать 100500 шагов, что бы просто это запустить.
Подписался, уже неделю, как болею ИИ-майнингом картинок, жаль блокируются слова на обнаженку и горэ. В Стайбл Диффузион есть ограничения или там любая самая извращенная картинка может сгенериться?
Благодарю за прекрасный выпуск. Скажите, Как в Stable Diffusion делать расширение кадра (outpainting) на основе предыдущего (готового изображения), как Вы это показывали в Dalle на 03:00. Так как вы сказали, что: "...но опять же в Stable Diffusion это тоже есть" но на этом видео это не показали (: Спасибо. Очень интересно!
Подскажите в начале видео сделана заставка из пикселей - она сгенерирована в нейросетях или в давинчи, с помощью плагинов? Какой плагин? Похоже на Particular в AE...
посмотрел 7 минут, прям сразу видно что ты топишь dalle и midjorney, так как тебе нравится stable diffusion, мне она тоже больше нравится, просто сразу видно, что это не обзор и сравнение, а скорее подтверждение своей точки зрения))
Автор немного приврал по незнанию. 4 гигабайта можно реализовать только на rtx картах. На gtx при попытке генерации получается зелёная или чёрная заливка на всю картинку зависимо от того от кого скачал нейронкку. Советы использовать тег дополнительной точности не помогает. Он требует доп памяти, выдаёт ошибку об её нехватке. Может и получится генерить на карте где больше 6-ти гигов. Моя 1650 не справляется. Видел что такие же пробемы были у людей на 1660. Придётся ждать оптимизации нейросети что бы боmжи могли запускать всё это дело на своей микроволновке. Плюсом ещё не помешал бы обзор того что стейбл можно обучить самому на картах от 12 гигов. Видел два примера. В первом нейронке скормили фоток какого-то мужика с разных ракурсов. Это частично решает извечную проблему что одного и того же персонажа создавать нельзя. Второй пример где стейбл накормили поняшными артами по MLP. Стоковый стейбл генерит ужасные картинки по конкретными запросам mlp но специально откромленная сетка смогла выдать очень достойные результаты с разцноветными лошадями.
Классно! Не знал, что есть свободная сетка для Линукса. А она через сеть работает или автономно? В каком репозитории искать? Под Дебианом (стабильным) будет работать?
дядь, спасибо за прогулку по СД. Буду премного благодарен, если ответишь на вопрос: можно ли в СД грузить собственное фото\картинку и производить над ней такие же манипуляции как со сгенерированной картинкой (дорисовывать, замазывать участки, апскейлить)? и можно ли с одной сторонней картинки генерировать стиль на другую стороннюю картинку? Например, перерисовать фото моего дома\лица\авто в стиле того же greg rutkowski, или андрея рублёва или диснея?
Друзья, вот еще полезные видео про нейросети:
🔥Обзор Stable Diffusion: ruclips.net/video/dXs16YlWsIo/видео.html
🔥Замедление видео: ruclips.net/video/NOpbszQYPf0/видео.html
🔥Удаление фона: ruclips.net/video/8t8slP4YYqQ/видео.html
🔥Улучшение качества видео: ruclips.net/video/SYLTEn4cD_A/видео.html
Счастливые обладатели Radeon ждут окончание рендринга и последующие патчи?
В сети уже есть варианты, ума нет это подружить. Этот вариант тоже только для зеленых?
Ещё бы урок по созданию видео в SD,а то на русском не найти.Спосибо ра разъяснения.
Жду выпуск, с добавлением "своих" моделей!) Да и кажется Stable Diffusion обладает огромным запасом контента.) Так что буду ждать вообще любого контента связанного с ним) Хотелось бы в первую очередь про модели ролик, а еще интересно более подробно рассказать про эту нейросеть, принцип работы, и что с этим всем можно сделать. Я вот пытаюсь на нем создавать на основе фотографий, красивые стилизованные арты, получается но с переменным успехом, поэтому хотеться более углубленные знания, может есть какая, где, уловка, о которой я еще не знаю... Обнял!)
RuntimeError: CUDA out of memory. Tried to allocate 1.37 GiB (GPU 0; 8.00 GiB total capacity; 5.05 GiB already allocated; 0 bytes free; 6.10 GiB reserved in total by PyTorch) If reserved memory is » allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF у меня видиокарта мси 3060 ti вы не знаете как это победить?
@@mixlu5467 у меня такое бывает когда другие программы отрыты (давинчи или фотошоп), нужно их закрыть
Хайрез фикс не "позволяет сделать апскейл", а исправляет проблему с изменением композиции, когда устанавливаешь размер больше 512. Нажав на галочку картинка не станет большой, а то вдруг кто-то послушает и запутается. При больших разрешениях происходят задваивания объектов и прочие артефакты, поэтому хайрезфикс сначала генерит уменьшенное изображение , а потом, сохраняя композицию, генерит картинку уже в увеличенном разрешении, используя маленькую картинку с наложенным на неё шумом. Но если шум будет больше 0.2, то детали и даже композиция всё равно поменяются.
Семплеры не все дают разный результат. Это не нейросеть в нейросети, а методы решения уравнений. Большинство семплеров в интерфейсе дают примерно одинаковый результат, но при разном количестве шагов.
Для апскейла фото и архитектуры лучше скачать модель Remacri от foolhardy. Ссылки ютуб не даёт скинуть, поэтому сорян ¯\_(ツ)_/¯ Все модели валяются на Upscale точка wiki
Но для лучшего качества лучше во вкладке img2img использовать скрипт SD upscale, который нарезает исходную картинку на тайлы и на основе их делает обрисовывание (то же самое, что и хайрезфикс по сути). Опять же денойз в районе 0.2 лучше держать для сохранения композиции. Такой метод позволяет исправить некоторые места и добавить детализации, которые в изначальном 512 разрешении отсутствуют. И только уже после этого можно в "экстрас" кидать для следующего шага апскейла, увеличивая уже эти мелкие детали.
"Апскейл -> хайрезфикс -> увеличенное разрешение". Ты прям живой пример мема светящийся мозг.
Вот это полезная информация, надо запомнить. Недавно начал SD щупать.
17:00 выбрал апскейлер 1, но поставил апскейлер 2 на 100%. Гений!
А вообще вот ни разу не предвзятый обзор, с первых минут понятно с какой сеткой сравнивать будешь.
Ещё чёт там про страшные параметры говорил, будто запускаешь скрипт на питоне. И через минуту начал рассказывать про установку питона 😅
Ну вот, а говорили нейросети лишат художников работы. А по факту этот инструмент тоже нифига не простой и появятся вакансии "специалист по генерации нейросетевых изображений" ))
Скорее этот функционал добавят в условный фотошоп, чтобы можно было работать в привычной программе с удобным интерфейсом без лишних заморочек
@@MEJIbHUK не согласен, это будут отдельные проги, в фотошоп нет смысла столько всего добавлять, делать программы в программе. С такой же логикой можно интегрировать весь функционал Adobe After Effects в Adobe Premiere.
@@Daleemac ну или отдельные проги с удобным интерфейсом и управлением, не суть важно
@@MEJIbHUK по моему интерфейс этих нейронок и так супер простой и удобный уже после часа-двух изучения темы. То есть технически его сложно сделать лучше, только красивее и информативнее для рядового пользователя.
Появятся конечно, за 15к в месяц за кучу работы, это не так уж и сложно
Да что ж ты за чудесный человек! Пусть удача всегда тебе улыбается, друг!
Спасибо,хоть это и не мне)
Открыть "Discord", написать запрос боту Midjourney - ой сложнаааааааа! 😱
Установить среду для компиляции "Python" определённой версии, систему контроля версий "Git", клонировать через командную строку репозиторий проекта Stable Diffusion, пройти регистрацию на каком-то сайте, чтобы скачать файл модели на 5 ГБ, запустить исполняемый файл со скриптом, чтобы поднять веб-сервер - это норм, не то что боту в "Discord" писать! 😄
Забей, автор даже не додумался, что можно создать свой канал в дискоде и добавить туда бота миджурней. Как плебей какой то на общем канале тусил :) Да и по результатам генерации у него в каждой нейронке какой то лютый трэшак генерируется :)
можешь подсказать есть ли автономная версия midjorney? ну чтобы скачать себе и работала на мощности моего пк даже без инета.
@@aleksandrsainar1540 нет, он только в дискорде и только через интернет, да и как ты себе представляешь генерацию ии без интернета?
@@danrusov жаль. ну представлял как stable diffusion.
@@danrusov что значит "как ты себе представляешь генерацию ии без интернета" ?
Ахахаххах
Стейблдифьюжн и подобные нейронки так и работают))) Без интернета. Представляешь? А все как раз потому что ты разворачиваешь ее у себя и не зависишь от дискордканалов и пр. сервисов. И ты ничем не ограничен. И моделей полно которые ты можешь использовать. А еще прикинь, ты можешь переобучить ее под свои задачи. Но это слишком сложнаааааааааа! Для таких как ты....
Спасибо за видео, было информативно! Надо подтянуть английский. Я молчу про произношение, но вместо каменного пола (floor) ты написал каменная мука (flour), поэтому там и камни такие мучные 😅
тоже заметил, поржал) смотрю камни какие-то не каменные 😆
Midjourney достаточно быстро и хорошо делает коллаж с твоей фоткой. Нигде такого качества не удалось получить.
Как не пытался сделать что-то с фото он конкретно менял лицо человека, оставляя общие черты. С одной фотографией так вообще ничего не вышло - постоянно другой человек не намека на узнаваемость. Да и запросы были не километровые.
Про бота Midjourney мало рассказано. Там под 4 фотками кнопки, позволяющие сделать увеличенную версию любой из 4 получившихся картинок, либо сделать вариации любой из них. Можно параметрами задавать размеры картинок и сделать их не квадратными, а прямоугольными, т.е. с указанным соотношением сторон. Например 16 к 9 или наоборот, 9 к 16 или любые другие пропорции. Ну и в последних версиях бота за последний месяц появилась функция объединения своих картинок. Уже полный интернет мемных картинок, созданных таким образом. Эпично выглядит)
+Бота можно добавить на свой сервак. Можно так же увеличить качество изображения включив х2 стоимость. Так что да, про Миджорни вообще почти нечего не рассказано
у автора не было цели сравнивать нейросети, он просто хотел рассказать про stable diffusion, но ещё и опустив всех остальных)
Это специально никем не озвучивается, ящитаю, чтобы бесплатные попытки быстрее заканчивались.
Небольшая поправка. Последняя версия Midjourney к сожалению знает только соотношения 1:1, 2:3 и 3:2.
что сказать видео для нубов я смотрю зарубеж каналы по жоне и делаю реалистичные арты по фото
Спасибо, открыл глаза на стейбл дифюжн, я пользовался только вебмордой в которой ничего настроить нельзя, оказывается можно установить и творить чудеса.
Каменная мука выглядит забавно)
Поигрался с нейронками немного, посмотрел видео разные. Имхо, если вы не хотите запариваться с установкой и прочим, а просто хотите крутую нейронку с коробки, где всё делается в пару кликов, то у MJ нет конкурентов в этом плане. Хотя и там можно очень детально настраивать композицию, но надо уже больше разбираться в тэгах и составлении правильного промта.
Как фанат артов, коллекционирующий их лет 8, могу гарантировать, что MJ неоднократно сгенерирует вам что-то, что вы захотите сохранить себе или как минимум поделиться с кем-то.
Да и в целом я бы не сказал, что SD 100% лучше как нейронка. MJ очень мощная сама по себе, но её душит цензура.
Поэтому, если у вас есть время и желание разобраться в SD, то это будет куда лучше, чем тратить время и деньги на MJ. Но всё же последняя значительно лучше, чем может показаться из этого видео
Ничего сложного в midjourney нет, в настройках ставишь последнюю версию mj 4 и качество high x2, либо добавляешь в конце запроса --v 4 --q 2 и результат будет намного реалистичней чем та дичь что ты показал))
Только с качеством х2 пробные 25 генераций тают просто на глазах...
как её бесплатно пользоваться??
@@zeinchannel4363 просто меняете каждый раз учетку дискорда
@@Alex_Gor_1 забанят рано или поздно ж
@@dicloniusN35 Тогда можно будет поменять учетку дискорда
Сделал такой же , с димером и ночным таймером . Через две недели напишу о результатах)
SD ставится на маке легко. На винде не завелось с первого раза самостоятельно. Попробую по вашей инструкции. Очень полученный материал и сравнение. Спасибо! 😊
спасибо, полезная инфа. Удачи !
Красавчик , спасибо большое!
Очень жду видео как натренировать нейронку!
Спасибо большое 👍
Офигеть, значит midjorney геморный, а вот stable diffusion вообще легко и быстро
Тоже поржал с этого)))
Это значит что дифьюжн более гибкий в отличии от мд.
SD генерит большинство запросов, за которые в MJ прилетает бан...больше охват генераций, поле для творчества так сказать...
@@anattoya5460 в диффузии нельзя задавать запрос со словом Дети. Странно.
😂 забавно , я ахренел от установки
Ждем, когда кто-то соберет нормальный установщик для stable diffusion. С нормальным выбором пути.
Обалдеть!
Жду туториал на обучении своей модели)
Чтобы Discord было удобно пользоваться нужно создать свою ветку) и можно ее еще сделать закрытой от всех)
"можно ее еще сделать закрытой от всех)" - Это самый главный нюанс для меня. Спасибо!
Спасибо, первое полезное видео на русском за фиг знает сколько, в моих "рекоммендациях".
Спасибо за подробный разбор🤝
Спасибо, очень полезное видео в плане стейбл дифьюжн, просмотрел уже много роликов, и это первое, где так подробно и просто объяснили функционал!
Сделай обзор нейросетей для генерации текста. Тоже очень захватывающая тема.
+1 Желательно, чтобы на русском и английском генерировали, можно отдельные.. И на озвучку было бы интересно, спитчи, давно ищу, чет не нашел более менее адекватные..)) Можно даже для обучения нарыть с озвучек часы речи кого-то, чтобы обучить, т.е. не готовая, поставил и погнал...
Вот бы нейросеть для генерирования запросов для нейросетей создающий изображения
@@leongal9216 ChatGPT же))
Тут ChatGPT лучше всего, я уже два дня тестирую, вроде норм, но часто неверную инфу выдаёт
Спасибо огромное за классный и доходчивый ролик!
Для Блендера есть адд_он, который встраивает Stable Diffusion в программу, что удобно для текстуирования
супер Спасибо! :) )))
Однозначно SD: во первых, потому что он бесплатный, и потом его можно ставить локально и не связываться ни с каким онлайном + в SD есть уже 3 рабочие базы, подключенные к веб интерфейсу. (на самом деле их больше)
бесплатно - это временно
@@kittym9693если и будет такое, то это будет уже не известный нам Stable Diffusion, ставший достоянием интернета, а совершенно новая проприетарная архитектура, которую stability ai захотят монетизировать по примеру unopen ai и других. А если вдруг умрут онлайн репозитории на гитхабе, то поднимутся торренты с чьим-нибудь бэкапом. Эта сетка умрёт только от морального устаревания, сменившись другим бесплатным решением и не иначе.
@@kittym9693 открытый исходный код, так что не временно
Обычно сравнивают вещи, в которых одинаково хорошо разбираются. С Midjourney автор походу не разобрался. На Midjourney я видел шедевры, а на Stable Diffusion пока нет. Будем искать...
До чего дошел прогресс! Вспомнил старый анекдот: Папа с сыном остановились возле художника, рисующего пейзаж с натуры. Отец говорит: "Смотри сынок как приходится мучиться человеку, если у него нет фотоаппарата." В современной версии анекдота меняем "фотоаппарат" на "доступ к нейросети".
Отец с сыном едут в машине, видят рядом бегущего спортсмена и отец говорит "Смотри сынок как приходится мучиться человеку, если у него нет автомобиля."
SD лучшая сетка, фапаю на неё уже несколько месяцев, очень круто всё. Куча сторонних моделей, анимешные, реалистичные, порнушные, какие захочеш. Обожаю SD)
круто очень
Одно из самых толковых видео на русском!
Годная инфа, спасибо! Интересная нейронка, хотелось бы еще про нее инфу от вас
Уважуха, дружище, за видос!
SD да, хорош.. Всё хочу обучить эту сетку на лица себя/близких. Сейчас прошерстю канал, может есть уже такой ролик. Только подписался.
Не читал, что писали другие.. Голос норм речь норм.. Идея сравнения сомнительная инструмент для большой аудитории мижорни и стабильная дифузия это как сравнивать айос и андроид.... Где миджорни очень удобная и ничего думать и вникать особо не надо, а стейбл пили под себя как хочешь если у тебя есть тяга к изощренности и индивидуализму... Про дали вообще не шарю, не заметил её в пике нейросетевого потока хайпа...
генерить через дискорд это бомба, нужно уметь его приготовить ;) и совершенно необязательно использовать команды, в 90% случаев достаточно текстового запроса. Такое вообще ощущение, что автор продавливает свой любимый SD, а остальных упоминает, лишь бы показать, какие они фу. Однобоко. Мне миджорни в кайф, давно в работу ее взял, очень удобно генерить и референсы, и персонажей для рекламы и так далее.
а я не понял где взять model.ckpt, там качается sd-v1-4.ckpt 🤔🤔🤔
такая же проблема! Не могу найти этот модел, почему нельзя пошагово просто показать процесс установки
Спасибо за ролик! Очень интересно было слушать, попробую повторить)
Насчёт миджорнал что твой запрос улетает, можно создать свой сервер туда добавить мидджорнал и всё все функции также доступны без посторонних людей.
Очень мощная вещь !
Три дня не выхожу на работу - в офисе сказал что скрываюсь от мобилизации, а сам сижу за компом и генерю себе гигабайты пикчей, с фапабельными аниме тяночками. Преисполнился в теме на столько , что могу рисовать одной рукой .
поделись Prompt-ами) оценим твои навыки
На фронте тебя убьют а тяпочки останутся, как Парадокс помешательства)
@@Aklmpz скорее тебя убьют
@@Mindpxwer) Я игры в пятнадцать лет все забросил а энтот дуралей всё в бреду детском мечется. Из возраста детского так и не вышел, ну в окопах поймёшь, что такое игры: по колено в воде, сирый, голодный, тогда в миг повзрослеешь, но станет уж поздно. Пуля, снаряд ли оборвут жалкую жизнь и умрёшь подавившись испугом, Очнись)
ну хоть не тем куда особо умных отправляют
сейчас midjourney вне конкуренции, 4 версия на две головы выше чем dalle и sd
Невероятно полезное видео! Благодарю!!
Midjourney лучшая, гибкая и красивейшая
платная* ещё забыл
@diedlikeastar Не, я ниче не говорю, хотите - платите
Midjourney лучшая, гибкая, красивейшая и платная.
Вот полное описание достоинств
давай еще ролики про Stable Diffusion, потенциал хороший, нераскрытый)
Вкусный контент!😋👍
Подписался!
Спасибо!
Конечно на любителя, но все что в стейбл дифужн, все тоже самое, что и в Миджерни, только там это командами делается и рисует "МидЖ" более качественно
Спасибо огромное, очень много интересной информации. Видно, что народ вовсю развивает эту тему.
Сам лично сгенерил около сотни изображений, довольно интересный результат получается. Сейчас разбираюсь со stable diffusion для карт AMD, но там все не так удобно, нет UI. Зато работает по 2 секунды на итерацию, против 60 на голом проце.
Тут линки не прикрепишь, скажи название канала или где прочитать как сделать?
@@havemoney да просто вбиваешь в поиске на "stable diffusion amd gpu" на youtube и следуешь за белым кроликом. :) Там не все карты поддерживаются, но на rx580 прям первым номером детальная инструкция выпадает.
@@SantalovKirill Думаю где 580 там и 570 пойдет, спасибо
где же это видео было раньше ) как теперь удалить простую версию Stable Diffusion. Пошёл разбираться, спасибо за лекбез
расскажи, получилось удалить?
Зачем удалять? Обе работают автономно. У каждой свои плюсы и минусы. Пользуйтесь обеими :)
Почему это проблема? И чем простая хуже
Поставил вторую) воспользовался советом Cooper-a)
отличный видос!
У Midjourney можно выбирать вариант который ты хочешь скачать в высоком разрешении там кнопочки внизу
Исполняю файлы разных алгоритмов на visual studio code, замучался настраивать пути к основным файлам исполнителям, пока не ввёл в терминале "pip install pathlib", основной головняк отпал.
При настройке СД, в файле задаются пути к исполнительным файлам Питона: stable-diffusion-webui\venv\pyvenv.cfg
Расскажите ,возможно ли в нейросетях создавать эпизоды комиксов, с одним или несколькими персонажами?
Очень крутая понятная и интересная подача.
как по мне установка и работа с Midjourney намного проще чем с Stable Diffusion. Так как для джорней нужен один дискорд, для стабла нужен питон, гит, оно потом переносится в папки, в общем усложненный запуск
Проще, но при наличии видюхи от ртх 3060 6гб, а лучше полноценной 12 очень увлеательный. Минус в том, что мдж нужен платный все попытки можно тупо слить, чтобы получить именно то, что тебе надо. Если брать подписку, то вай нот
Хммм очень интересно 🤔
Ждём выпуск про Gptchat Open Ai)
Спасибо за видео👍👍👍👍
просто нет слов.. спасибо за инфу)
Супер информативно! Не знала что можно скачать и спокойно работать бесплатно. Подскажите, для мак такой же алгоритм действий для скачивания Stable diffusion?
для мак лучше invoke ai
Класс сколько инди игр, ремастеров и модов можно будет делать с помощью таких технологий!) я прям преисполнилась мотивацией, художка не нужна, коллеги молодцы сделали DDD (когда получаешь результат вводя запрос на естественном языке) для художников.
если б вы думали не о прибыли, и о том, как много контента для подпищеков вы теперь наклепаете, то поняли бы для чего нужна художка
@@alexej_f для чего? Если бы не такие технологии, человек даже не думал бы заниматься такими вещами, так как нет бюджета на художника и все такое, а сейчас можно попробовать
@@alexej_f Художники в том виде в котором они были исчезнут, как и программисты, менеджеры и прочие прочие, грядёт глобальный перекрой мирового порядка, в течении 5 лет 99% контента в интернете будут генерировать нейросети, пропасть между теми корпорациями в чьих руках будут нейросети и простым человеком непреодалима это означает исчезновение среднего класса...
Спасибо за видос! У мидджорни есть запрос, что бы бот в личку присылал тебе результат. =)
Я пробовал все сетки из этого видео и могу сказать, что Мид генерирует самые годные для последующей работы картинки. СД за которую автор топит выдает очень дикий результат. Нужно очень изголятся, что бы получить что-то годное.
Один из основных аргументов за СД, что она локальная, не тратит денег и тп. В целом да, хочу только заметить, что заставляя тебя искать нужные параметры и подключать новые модели, она тратит твое время, а это куда больше, чем просто деньги. =)
Кстати, забавный момент. Описывая мид, автор говорит мол не удобно, что надо писать аргументы к запросу. И сразу за этим начинает рассказывать, как надо скачать с гита СД и сделать 100500 шагов, что бы просто это запустить.
Хороший канал! Подписочка, однозначно!👍
Да да, сравнение. Норм реклама стеибл дефьюжен 😂
уже ниделю midjourney балуюсь, все норм. но жаль что нельзя на свой пк поставить ее
Большое спасибо! Всё чётко и ясно, а с нюансами всегда можно разобраться
Спасибо! Отличное видео! На 2ГБ видеокарте можно даже не пытаться?
Подписался, уже неделю, как болею ИИ-майнингом картинок, жаль блокируются слова на обнаженку и горэ. В Стайбл Диффузион есть ограничения или там любая самая извращенная картинка может сгенериться?
в стейбл нет никаких ограничений, и есть много моделей на любой вкус)
Stable diffusion отдельно требует установки Github? и как сделать видео из нагенеренных фоток, которое в конце?
🙌
Благодарю за прекрасный выпуск. Скажите, Как в Stable Diffusion делать расширение кадра (outpainting) на основе предыдущего (готового изображения), как Вы это показывали в Dalle на 03:00. Так как вы сказали, что: "...но опять же в Stable Diffusion это тоже есть" но на этом видео это не показали (:
Спасибо. Очень интересно!
Нажать img2img
@@kristallganss2379 а поподробней?
Добрый день! А почему везде такой темный фон? ИИ пытается скрыть огрехи? Картинка сливается с фоном...
Какие нейросети могут генерить 3d или с движением изображения?
хрена ж я не сплю)) спасибо Таймсэйвер блин
Было бы интересно узнать, как поставить нейросеть на мак!
Введите в поисковик "как поставить нейросеть на мак"
Подскажите в начале видео сделана заставка из пикселей - она сгенерирована в нейросетях или в давинчи, с помощью плагинов? Какой плагин? Похоже на Particular в AE...
это мой авторский переход, можно приобрести тут, 3d pixel transition: timesavervfx.com/effects/
посмотрел 7 минут, прям сразу видно что ты топишь dalle и midjorney, так как тебе нравится stable diffusion, мне она тоже больше нравится, просто сразу видно, что это не обзор и сравнение, а скорее подтверждение своей точки зрения))
рад, что ты согласен, что это подтверждение
Автор немного приврал по незнанию.
4 гигабайта можно реализовать только на rtx картах. На gtx при попытке генерации получается зелёная или чёрная заливка на всю картинку зависимо от того от кого скачал нейронкку. Советы использовать тег дополнительной точности не помогает. Он требует доп памяти, выдаёт ошибку об её нехватке. Может и получится генерить на карте где больше 6-ти гигов.
Моя 1650 не справляется. Видел что такие же пробемы были у людей на 1660. Придётся ждать оптимизации нейросети что бы боmжи могли запускать всё это дело на своей микроволновке.
Плюсом ещё не помешал бы обзор того что стейбл можно обучить самому на картах от 12 гигов. Видел два примера. В первом нейронке скормили фоток какого-то мужика с разных ракурсов. Это частично решает извечную проблему что одного и того же персонажа создавать нельзя. Второй пример где стейбл накормили поняшными артами по MLP. Стоковый стейбл генерит ужасные картинки по конкретными запросам mlp но специально откромленная сетка смогла выдать очень достойные результаты с разцноветными лошадями.
у меня всегда черный квадрат при генерации выходит, использую 1660 super с 6гб видеопамяти, как то можно обойти эту ошибку?
4ГБ видео памяти это для комфортной работы или просто чтобы запустилось? Как будет на 2х ГБ себя чувствовать нейросеть
Классно! Не знал, что есть свободная сетка для Линукса. А она через сеть работает или автономно? В каком репозитории искать? Под Дебианом (стабильным) будет работать?
На macOS можно ее установить, не подскажите?
restore faces не всегда улучшает лица, иногда наоборот портит, всё зависит от вашего запроса
в midjourney очень кайфовые аниме фотокарточки получаются
Спасибо за видео, а можно ли на мак установить последнюю нейросеть?
Сколько раз в ролике произносят стабле диффузион?
при установке возникли проблемы - отсутствуют некие torch и torchvision под процессор AMD я так понимаю
я их скачал, а установить их как?
Подскажите, как у меджорни попросить картинку без фона?? Пишу without background, делает белый. Возможно есть настройка?
по миджорни не подскажу, но в стейбл дифьюжн я делаю зелёный фон и потом его кею, посмотрите предыдущие видео
@@TimesaverVFX да. Это я видела и взяла на заметку. Если не разберусь. Буду так и делать.спасибо вам.
Подскажите, пожалуйста, как сделать темную тему?
Спасибо. Так хочется установить поиграться Но времени нет
дядь, спасибо за прогулку по СД. Буду премного благодарен, если ответишь на вопрос: можно ли в СД грузить собственное фото\картинку и производить над ней такие же манипуляции как со сгенерированной картинкой (дорисовывать, замазывать участки, апскейлить)? и можно ли с одной сторонней картинки генерировать стиль на другую стороннюю картинку? Например, перерисовать фото моего дома\лица\авто в стиле того же greg rutkowski, или андрея рублёва или диснея?
Вот, меня это тоже интересует
да
Stable Diffusion 1.5 мне больше нравится, а версия 2.0 вообще реалистик
реалистичные фотографии надо на основе своих фотографий - типа как обучать расскажи по-братски :)
Для обучения надо видеокарта с 12 гб памяти
Привет как на stable соединять две фотки свои что получится и генерировать похожие на основе своей? Вообще можно так делать
как делать анимации, что показаны в конце видео? заранее благодарен