- Видео 8
- Просмотров 27 779
YIUAI - нейросети и дизайн
Россия
Добавлен 18 май 2015
Stable Diffusion, Figma, принципы дизайна, автоматизация
Сочные 3D-логотипы в нейросети Stable Diffusion бесплатно
Создаем красивые логотипы простым способом, доступным каждому абсолютно бесплатно. Не нужно заходить в телеграм-каналы, все материалы есть в видео и описании.
🎯RUclips - youtube.com/@yiu_ai?si=y2SC9nY9z7zeN-Jd
🔥 ВСТУПАЙТЕ В СООБЩЕСТВА:
◾Telegram-канал о нейросетях- t.me/yiu_ai
◾Telegram-канал для развития - t.me/net_normisam
◾DProfile - dprofile.ru/dima.yiu
◾Civitai - civitai.com/user/Dima_yiu
😎 ХАРАКТЕРИСТИКИ МОЕГО ПК:
- CPU: Ryzen 5 7600F
- GPU: RTX 4090 Inno3d Ichill water cooling
- RAM: 32Gb DDR5 6000 Mhz G.Skill Trident Z Neo
- Display: ViewSonic vx2781-4k-pro 27 Inch 4K 150 Hz
❤️ ПРОМПТ ИЗ ВИДЕО
extremely high quality RAW photograph, detailed background, intricate, Exquisite details and textures...
🎯RUclips - youtube.com/@yiu_ai?si=y2SC9nY9z7zeN-Jd
🔥 ВСТУПАЙТЕ В СООБЩЕСТВА:
◾Telegram-канал о нейросетях- t.me/yiu_ai
◾Telegram-канал для развития - t.me/net_normisam
◾DProfile - dprofile.ru/dima.yiu
◾Civitai - civitai.com/user/Dima_yiu
😎 ХАРАКТЕРИСТИКИ МОЕГО ПК:
- CPU: Ryzen 5 7600F
- GPU: RTX 4090 Inno3d Ichill water cooling
- RAM: 32Gb DDR5 6000 Mhz G.Skill Trident Z Neo
- Display: ViewSonic vx2781-4k-pro 27 Inch 4K 150 Hz
❤️ ПРОМПТ ИЗ ВИДЕО
extremely high quality RAW photograph, detailed background, intricate, Exquisite details and textures...
Просмотров: 264
Видео
БЫСТРЫЙ апскейл изображений с помощью нейросети Stable Diffusion. Делаем красоту за секунду
Просмотров 84814 часов назад
В видео будем из пиксельной каши доставать красивые детализированные логотипы в разных стилях. Пригодится всем, кто хочет быстро повышать качество любых изображений в Stable Diffusion за несколько секунд и не париться. 🔥 Если вам нужна консультация по нейросетям или дизайну, пишите в личку: t.me/dmitriy_yiu 2 часа консультации - 3 000 ₽ 🎯RUclips - youtube.com/@yiu_ai?si=y2SC9nY9z7zeN-Jd 🔥 ВСТУП...
Важнее дизайна: как формулировать задачу, генерировать идеи и проводить исследования
Просмотров 22514 дней назад
В видео я рассмотрел альтернативную точку зрения на дизайн и сформулировал, чем он по моему мнению на самом деле полезен для компании. ВАЖНО! В видео есть способ, как обращать на себя внимание руководства и продвигать свои идеи, а также как эффективно продвигать идеи дизайна продукта. Я провел большое исследование и продемонстрировал, как сделал это с помощью нейросетей. После просмотра вы полу...
Nebula Dreams 2024 - 10 часов 4K 60fps | Атмосферный Vaporwave | Музыка для работы
Просмотров 80021 день назад
Я сгенерировал музыку в жанре vaporwave в стиле трека "HOME - Resonance" и видео от Visualdon. Я использовал Stable Diffusion для генерации картинок и Riffusion для генерации трека. Изображения сгенерированы с помощью моей модели LoRA в QHD разрешении с последующим апскейлом до 16K. Нейронные сети заставляют мое сердце биться чаще, а глаза гореть от новой задачи или нового применения алгоритмов...
Польза от нейросетей в бизнесе. Как найти работу мечты с помощью нейронок. Отличия нейросетей
Просмотров 82511 месяцев назад
Привет-привет, вот и новое видео, в котором я расскажу, как именно и какие нейронки могут пригодиться вам в компании, а также отвечу на вопрос, почему искусственный интеллект в ближайшем и не очень будущем не собирается заменять специалистов. А это значит, что вам придется работать с людьми, дорогие hr-менеджеры, арт-директоры и основатели. Не получится доверить все процессы ИИ без участия чело...
Как формировать свой визуальный стиль нейро-художнику
Просмотров 1,2 тыс.11 месяцев назад
В этом видео поделюсь инструкцией, как сформировать свой визуальный художественный стиль, расскажу, для чего это нужно и главное зачем. Поговорим параллельно о нейросетях, NeuroCamp от JCenterS, работах наших учеников. Расскажу пару примеров, как Stable Diffusion помогает устроиться на работу с минимальным вообще опытом и знаниями. Ухх, ребята, долго же я работал над этой схемкой: оптимизировал...
LoRA или Dreambooth - все отличия, фокусы и трюки, обучение и тренировка
Просмотров 4,4 тыс.Год назад
В этом видео я расскажу вам, друзья, что не так с LoRA и почему вас обманывают нейронщики. Для чего же предназначена LoRA, а для чего полноценный Checkpoint. Как уже, черт возьми, обучить модель на своем лице так, чтобы и без нервов, и качественно, и быстро, и автоматически? Покажу сегодня в видео. Продемонстрирую свои датасеты, разберу их ошибки и поведаю, как их исправить. Дам лучшие по своем...
Улучшаем качество ваших генераций в Stable Diffusion в десятки раз. Советы, лайфхаки и полезности
Просмотров 19 тыс.Год назад
Привет, сегодня поговорим о реальных методах того, как повысить качество результатов работы в нейросети Stable Diffusion во много раз. Я дошел до этих советов через многие месяцы и бессонные недели и сегодня решил поделиться ими с вами. Также обсудим тренировку моделей LoRA и Dreambooth. В видео вы найдете для себя полезные расширения, ресурсы, плагины и ссылки. Мой канал телеграм - t.me/yiu_ai...
Дизайнерский лайк тебе ❤
Почаще выпускайте видосики. Ждем!
🤩
Народ кто генерит Арты через SD . мож сказать как вывести вкладку VAE рядом с вкладкой выбора Модели. у многих видел как он там стоит. сам не шарю мож это расширение или в настройках над копатся! тут по сути в видео так же. и как поставить тоже вклдаку пропуска клипа!
Вкладка Settings - User intarface - Quicksettings list (в списке выбираем нужные пункты)
@@yiu_ai спасибо большое. поставил
бомба!
😌
Техника отлично подходит для первого этапа восстановления старых фотографий - сразу за один проход улучшает резкость, убирает мелкие артефакты, восстанавливает детализацию на фоне и одежде, также лица без искажений, лучше, чем GFPGAN, даже делает на черно-белых фото голубоватые глаза и розоватые губы. Большие фото, для которых не хватает памяти, можно наоборот при этом уменьшать, а потом уже апскейлить.
подскажите а какие настройки выставляете для восстановления фото?
Лучше используйте апсекйл на Stable SR, или Supir
Требует больше видеопамяти и не отличается каким-то скачком в качестве. Пробовал на логотипах его использовать, но мои ожидания оказались завышенными...
Я апскейлил таким способом, но кроме лого его не применить особо, так как замыливпется картинка по жести.
Вот с фото все сложнее, это да...
Было интересно, спасибо
Ну так этому способу минимум год. Правда, использовался он на DPM SDE Kansas, SFG от 1 до 3, пастей RealSR Anime 6b. Да и в целом, попробуйте запустить генерацию на 5-8 шагах с DPM SDE Karras и SGC 2,5, будете также поражены качеством и скоростью. Всё до сих пор думают, что SDE медленный, но ошибаются, и просто не правильно им пользуются. SDE даёт самый качественный результат.
Запустил генерацию на DPM++ 2M SDE Karras на 6 шагах - пиксельная каша... Только на 32 шагах результат устроил. С ControlNet как он работает мне тоже не нравится - не учитывает мелкие детали Canny. Где этому способу год? Покажите пальцем
@@yiu_ai на форумах реддита в августе 23 шло обсуждение апскейлинга 2d графики, в частности, аниме. Подобный способ, как и десяток других, обсуждался уже давно. Разумеется, я не буду искать эту ветку на форуме спустя почти год. Да и смысла в этом нет, если только автор ролика не претендует на звание первооткрывателя и хочет "запатентовать" этот способ. А то, что получилась пиксельная каша, это скорее нежелание или обида на мой комментарии. Не надо воспринимать то, что я пишу, как нападки на автора канала, т.к. это скорее призыв смотреть трезвее на то, что вы делаете, и на ценность вашей деятельности. 2D графику любой классический апскейлер для аниме превратит в шедевр. Напомните, сколько лет технологии Real-ESRGAN? Пару лет точно наберётся. Так вот, он уже пару лет назад "мог" творить подобное с 2D графикой. Не буду разрушать ваш уютный мирок, где всё с восторгом воспринимают всё, что вы говорите. В то же время, не планировал как-то зацепить или обидеть, но всего лишь поделился личным опытом.
Попробуйте Real-ESRGAN-ом сделать подобное без SD Upscale) При чем тут аниме?
На какой модели доступна качественная генерация в 6 шагов на SDE Karras?)
Я вас удивлю, но даже на Euler a при 6 шагах и 2 CFG получится "поразительное" качество) Если вам нужны картинки без гибкости в генерации, то Welcome. Подключите ControlNet, LoRA и вы поймете, что метод лажа) А прикольнуться норм)
спасибо! очень нужен урок по обложкам для видосов!
Обязательно будет, благодарю за комментос!)
А модель любую можно использовать?
Лучше использовать универсальную, например, Deliberate. Но вообще у меня получалось на любой. Единственное, если брать модельку для иллюстраций, то она не будет справляться с фотореализмом - поэтому +1 балл универсальным моделям)
@@yiu_ai понял, спасибо!)
Спасибо за способ ❤
Обнял, приподнял, спину хрустнул ❤❤
Спасибо!
D:\SD\webui\models\ESRGAN\4x-AnimeSharp.pth
классный видос ! Спасибо 🔥
Блин столько воды, заснул пока смотрел
Работаем! Избавляюсь от этого, спасибо за обратку!
Онейросительно!🎉❤
СпасИИбо!
Спасибо за видос. Очень позновательно. Лично я тренил Лору со своим личиком по методу Христа ( на 3х эпохах). Получилось вполне себе сносная картинка, если подключить Адеталиер.
Кое-что есть полезное в видео, но гуляй лучше с подругами, а не с друзьями.
Конечно, уже ищу девушку, похожую на маму)
Доброго времени! А это видео актуально? я попытался повторить, но при установке куды выдал ошибку, плюс ругался на версию торча ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. torchaudio 2.1.0+cu121 requires torch==2.1.0, but you have torch 2.2.0 which is incompatible. torchdata 0.7.0 requires torch==2.1.0, but you have torch 2.2.0 which is incompatible. torchtext 0.16.0 requires torch==2.1.0, but you have torch 2.2.0 which is incompatible. torchvision 0.16.0+cu121 requires torch==2.1.0, but you have torch 2.2.0 which is incompatible. ,,,,,,, from .autograd._functions import ( File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/autograd/_functions.py", line 5, in <module> import bitsandbytes.functional as F File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/functional.py", line 13, in <module> from .cextension import COMPILED_WITH_CUDA, lib File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/cextension.py", line 41, in <module> lib = CUDALibrary_Singleton.get_instance().lib File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/cextension.py", line 37, in get_instance cls._instance.initialize() File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/cextension.py", line 27, in initialize raise Exception('CUDA SETUP: Setup Failed!') Exception: CUDA SETUP: Setup Failed!
ждем новые видео!
А если нужно sdxl Лору натренировать? Что нужно сделать в блокноте?
Ребят, я выставил максимально низкие настройки, но при генерации картинка получается плохая(Результат один даже при высоких настройках). Что я только не делал, но 3050 не хватает для приемлемого результата. Я мог что-то упустить и есть ли какое-то волшебное средство?
Попробуй скачать Forge для работы со Stable Diffusion и сгенерить в нем что-нибудь для эксперимента. 3050 должна норм работать
Здравствуйте подскажите пожалуйста где скачать скрипт Revision?
скрипт платный
@@user-np1fb6wh8g да, спасибо. Нашёл, что платный, уже приобрёл
Приятным голосом так беззастенчиво матюгаться - я даже не стал досматривать видео. Как будто на благоухающем лугу вляпался в дерьмо. Уважайте себя и зрителя. Не всем приятно слушать мат, потому что еще не все бессовестные ушлепки в русскоязычном сообществе.
Да как у вас всех так быстро модели переключаются? Я когда другую модель выбираю, можно идти чай пить - минуты 2-3 гарантированно ждать
Это называется магия SSD
Ты очень добрый человек.По крайне мере подача контента.Ты случайно не нейронкой сделан по промту - чистая душа? У меня прям диссонанс какой то в наше то время.В любом случае спасибо за науку и желаю процветания канала.Главное не меняйся подражая кого-то.Или скажи хозяину чтобы не менял твой промт)))
Хозяин отошел от своего ПК, поэтому я могу крутиться в видеопамяти в свое удовольствие. Надеюсь, что он прочитает этот коммент и не будет скручивать параметры)
Не смогла нигде найти плагин Revision(
Я думаю эра фотостоков приходит к завершению, это можно сравнить с тем как цифровая фотография убила пленочную фотографию.
Эксперименты это хорошо, но не когда генерит по 7 минут одну картинку, переключает модели подолгу, а иногда выдаёт серый прямоугольник как результат генерации((( GTX 1650, а толку...
тебе минимум надо 3060.
насчет лор персонажей ,очень многое зависит от исходного материала, чисто мое имхо конечно ,основанное на тренировках по моему с мая месяца штук 300 моделей дримбусом и лорой -) ,для лучшего результата - 1024х1024 датасет ,разбавлять 1024х768 , upper body-full body,и да все это на модели 1.5 для персонажа 80 шагов ,при том пофигу какой датасет по размеру 16-или 40 фоток , вот вообще никакой разницы лучшие результаты у меня получались на realistic vision2.0 и photon на остальных не предсказуемо ,про базовой 1,5 -на выходе всегда лютая дичь и еще нормализационные изображения они у меня лично портят результат , почему не знаю но портят,хотя все обзорщики прям настоятельно рекомендуют ну еще плюс лоры в том что его можно применять в разными моделями
Не могли бы вы на своем примере показать, как создавать SDXL модель через гугл колаб или Dreambooth на компе пошагово? Чтобы можно было за вами для начала повторять, как обезьяна. Через время, становится понятно, но изначально пока это все какой то дурдом))) С Лорой немного разобрался, модель выходит похожая, но есть свои но... сейчас интересует Чекпоинт SDXL.
Самое сложное это понять как в привычную работу внедрить такой инструмент. Ломать сформированный алгоритм
Есть три типа внедрения: плавный, тестовый и радикальный. Можно начать с себя, потихоньку ускоряя свои задачи. Затем и к начальству подойти, показать пайплайны - а там и до массового применения недалеко (если найдутся мощные компы)
хочу генерить картинки с муз инструментом которого нет в моделях. с тегами которые его описывают. в лоре их добавить можно, а в такую модель нет... либо я не разобралась?
, скажи пожалуйста какая у тебя видеокарта?
Была 3080, сейчас 4090
У меня видюха gtx1660 super😊, Хотел бы я натренировать дримбуф на одном человеке, но у меня только 20 его фотографий. Этого очень мало, да и сняты они не в одном сеттинге)
А размер фотографий какой ,когда нейросеть учится ? 512-512
784 желательно брать, так как новые модели уже обучаются на данном размере и именно на нем выходят наиболее лучшие результаты. 512 уже давно устаревшее разрешение.
Я LoRA треню только на 1024, чтобы потом можно было генерить в разрешении ~1024px
почему явно не 4090? у меня 4090 ...хм
лучшее или одно из лучших, гибкость сильно увеличивается и не только
Блин. У меня замечательно лора повторяет людей, на которых я тренировал. Причем достаточно 7-15 фотографий.
Чувак сам не понимает что несет. Предлагает засорять пк дубликатами базовой модели, приводя в пример неудачные лоры. Так вот, вес лоры можно регулировать и в теории, чем больше вес лоры, тем лучше сходство. И то, как лора работает, очень сильно зависит от того, с какими настройками её обучали и на каких дата сетах. У меня в целом на 8 метрах практически не было проблем, хотя иногда не выходило обучить модель мелким деталям, вроде определенным татуировкам на лице. Делать их жирнее имеет смысл если лора игнорирует какие либо детали оригинала, или если вы обучайте модель стилю.
Спасибо за видео! А то я думал что криворукий, потому что идеальной похожести сложно было добиться. Где-то похож, а где нет. Можно подробнее по настройкам. Можешь выпустить видео пошагово по чекпойнту?
Так тут все ещё от качества самой Lora зависит и как её обучали. Если вы взяли какие то лоры с нижнего интернета весящие по 2 метра, а потом жалуйтесь что нет сходства, тут уже проблема банального непонимания. Лора более гибкая и компактная вещь. Засорять пк 2 гигобайтовыми чекпоинтами это себя не уважать. Ищите нормальные лоры, и чем больше размер, тем более сходство будет (но это снова субъективно. У меня очень хорошее сходство с стилизованными персонажами было на 8 мегабайтах. Возможно что людям нужно больше выделять.) А Чекпоинт по сути это просто дообученая базовая модель. Нафига вам срать дубликатами базовых моделей, если есть Лора.
не пропадай!...запиши видео подробно по тренировки лора на реального человека..вот допустим я тренировал много фотографий 100_имя папка все по стандарту кроме дим и альфа 8-1 качество бешенное получилось....а вот 128-128 в пикселях либо размыто похоже на перетрен и еще плохо слушается если допустим на 8-1 человек был в кимоно прописан задний фон красный то на 128-128 почти как в оригинале фото все комната вещи итд...128-64 тоже не то..128-32 тоже 128-16 тоже дак как добиться качества как бы 8-1 понимаю что мало хоть и качество супер тогда какой смысл крутить настройки? жду видео...)
смотрящим и положенцам! спасибо за лайфхаки
Пожалуйста, объясните кто-нибудь, как пользоваться этим блокнотом? Где какие параметры задавать, что за что отвечает и тд
Много воды, затянутое видео и при этом нифига нет чо как делать. Типа вот такая штука, а разбирайся сам гыгы
Автор молодец и очень хорошо всё объяснил!)), но всё же я хочу чууутка до*баться))) именно до фразы "Никто не знает как нейронка работает". Ты её повторил раз 10 и именно поэтому я пишу. Ну например я знаю как она работает, но не совсем по факту это получается так, но именно теория нейросетей простыми словами для обывателя. Ещё раз говорю что тут всё супер упрощённо и утрированно для лучшего понимания. Например: берём 10 картинок стола и присваиваем ему слово table обучая нейронку, каждая картинка перестраивается в массив данных аля [1 0 0 1 0 1 0 1 4 0 5] другая [0 1 0 1 0 1 0 1 4 0 7] и так далее, если мы переведём эту матрицу через декодер мы получим тоже самое изображение что и было. из этих матриц выводится единая матрица "усреднённая" и мы получим что то около [0 0 0 0 0 0 0 1 4 0 0] эта матрица и будет чистым усреднённым значением равным слову table но необработанным декодером, это примерно как и у человека ты же представляешь примерно как выглядит стол на основе виденья многих столов, то есть тот же самый усреднённый результат а не картинка определённого стола. Так мы запомнили одно слово Table. Теперь тоже самое но со словом чашка, т.е. cup. Ну тоже например 10 картинок [0 2 0 4 0 0 0 3 0 5 0], [0 2 0 4 0 3 0 7 1 9 0], [0 2 0 4 0 1 0 1 4 0 7] и тд, и получаем усреднённый результат [0 2 0 4 0 0 0 0 0 0 0]. И теперь если нам надо Cup on Table это будет [0 2 0 4 0 0 0 1 4 0 0] и прогоняя его через декодер мы получим нужную нам картинку. Надеюсь вы поняли)))Апахахахп. конечно там не одномерные массивы и не так такие короткие , + всё это прогоняется через несколько слоёв декодеров, но надеюсь суть вы уловили) Если ты это прочитал до конца - Низкий тебе поклон.
И именно поэтому, меня очень сильно тригерить от обучающих видео по лорам от Хачатура. Он молодец конечно и выходит у него не плохо, нооо бля он принципиально не использует триггер слова приобучении, что в результате породило в интернете 2 типа лор аля стилизированые и тригерные, хотя такого быть не должно. Лора должна тригерится на слова и понимать что она должна делать и что от неё хотят, а у него (по его способу обучения), лора воспринимает только силу. В результате чего если лора по его принципу обучены на персонажа то ей невозможно сменить цвет волос или впринципе одежду не снижая силу, но снижая силу мы ухуджаем сходство. Бля пол Civitai засрано лорами по его методичке🤢😭 которые в априори не понимают триггер слов, чем перекрывают веса самой модели и как результат = мы получаем парашу. Его комьюнити меня конечно с говном сожрёт) 😅😂
Проблемы со здоровьем у вас не от труда начались, а от негативного влияния г-на историка поносенкова. ))))))))
Плагин Revision - что за расширение такое, не нахожу его ?(
Спасибо за полезное видео!
Забегая наперед - у меня Lora успешно натренилась на фотах с инстаграмма 30 штук. А вот дримбут на тех же фотах меня расстроил. Хотел больше 30-ти но муза перестала себя снимать в инсте крупным планом.))
Занятное видео. Попробовал сделать по этому мануалу,но упёрся в концепты. В концепт листе второй блок задокументирован. Если его открыть, то сразу ошибки в концепт листе появляются. Соответственно если добавить ещё концепт, то получается то же самое. У автора видео смотрю таких проблем нет. Где собака порылась?