YIUAI — нейросети и дизайн
YIUAI — нейросети и дизайн
  • Видео 8
  • Просмотров 27 779
Сочные 3D-логотипы в нейросети Stable Diffusion бесплатно
Создаем красивые логотипы простым способом, доступным каждому абсолютно бесплатно. Не нужно заходить в телеграм-каналы, все материалы есть в видео и описании.
🎯RUclips - youtube.com/@yiu_ai?si=y2SC9nY9z7zeN-Jd
🔥 ВСТУПАЙТЕ В СООБЩЕСТВА:
◾Telegram-канал о нейросетях- t.me/yiu_ai
◾Telegram-канал для развития - t.me/net_normisam
◾DProfile - dprofile.ru/dima.yiu
◾Civitai - civitai.com/user/Dima_yiu
😎 ХАРАКТЕРИСТИКИ МОЕГО ПК:
- CPU: Ryzen 5 7600F
- GPU: RTX 4090 Inno3d Ichill water cooling
- RAM: 32Gb DDR5 6000 Mhz G.Skill Trident Z Neo
- Display: ViewSonic vx2781-4k-pro 27 Inch 4K 150 Hz
❤️ ПРОМПТ ИЗ ВИДЕО
extremely high quality RAW photograph, detailed background, intricate, Exquisite details and textures...
Просмотров: 264

Видео

БЫСТРЫЙ апскейл изображений с помощью нейросети Stable Diffusion. Делаем красоту за секунду
Просмотров 84814 часов назад
В видео будем из пиксельной каши доставать красивые детализированные логотипы в разных стилях. Пригодится всем, кто хочет быстро повышать качество любых изображений в Stable Diffusion за несколько секунд и не париться. 🔥 Если вам нужна консультация по нейросетям или дизайну, пишите в личку: t.me/dmitriy_yiu 2 часа консультации - 3 000 ₽ 🎯RUclips - youtube.com/@yiu_ai?si=y2SC9nY9z7zeN-Jd 🔥 ВСТУП...
Важнее дизайна: как формулировать задачу, генерировать идеи и проводить исследования
Просмотров 22514 дней назад
В видео я рассмотрел альтернативную точку зрения на дизайн и сформулировал, чем он по моему мнению на самом деле полезен для компании. ВАЖНО! В видео есть способ, как обращать на себя внимание руководства и продвигать свои идеи, а также как эффективно продвигать идеи дизайна продукта. Я провел большое исследование и продемонстрировал, как сделал это с помощью нейросетей. После просмотра вы полу...
Nebula Dreams 2024 - 10 часов 4K 60fps | Атмосферный Vaporwave | Музыка для работы
Просмотров 80021 день назад
Я сгенерировал музыку в жанре vaporwave в стиле трека "HOME - Resonance" и видео от Visualdon. Я использовал Stable Diffusion для генерации картинок и Riffusion для генерации трека. Изображения сгенерированы с помощью моей модели LoRA в QHD разрешении с последующим апскейлом до 16K. Нейронные сети заставляют мое сердце биться чаще, а глаза гореть от новой задачи или нового применения алгоритмов...
Польза от нейросетей в бизнесе. Как найти работу мечты с помощью нейронок. Отличия нейросетей
Просмотров 82511 месяцев назад
Привет-привет, вот и новое видео, в котором я расскажу, как именно и какие нейронки могут пригодиться вам в компании, а также отвечу на вопрос, почему искусственный интеллект в ближайшем и не очень будущем не собирается заменять специалистов. А это значит, что вам придется работать с людьми, дорогие hr-менеджеры, арт-директоры и основатели. Не получится доверить все процессы ИИ без участия чело...
Как формировать свой визуальный стиль нейро-художнику
Просмотров 1,2 тыс.11 месяцев назад
В этом видео поделюсь инструкцией, как сформировать свой визуальный художественный стиль, расскажу, для чего это нужно и главное зачем. Поговорим параллельно о нейросетях, NeuroCamp от JCenterS, работах наших учеников. Расскажу пару примеров, как Stable Diffusion помогает устроиться на работу с минимальным вообще опытом и знаниями. Ухх, ребята, долго же я работал над этой схемкой: оптимизировал...
LoRA или Dreambooth - все отличия, фокусы и трюки, обучение и тренировка
Просмотров 4,4 тыс.Год назад
В этом видео я расскажу вам, друзья, что не так с LoRA и почему вас обманывают нейронщики. Для чего же предназначена LoRA, а для чего полноценный Checkpoint. Как уже, черт возьми, обучить модель на своем лице так, чтобы и без нервов, и качественно, и быстро, и автоматически? Покажу сегодня в видео. Продемонстрирую свои датасеты, разберу их ошибки и поведаю, как их исправить. Дам лучшие по своем...
Улучшаем качество ваших генераций в Stable Diffusion в десятки раз. Советы, лайфхаки и полезности
Просмотров 19 тыс.Год назад
Привет, сегодня поговорим о реальных методах того, как повысить качество результатов работы в нейросети Stable Diffusion во много раз. Я дошел до этих советов через многие месяцы и бессонные недели и сегодня решил поделиться ими с вами. Также обсудим тренировку моделей LoRA и Dreambooth. В видео вы найдете для себя полезные расширения, ресурсы, плагины и ссылки. Мой канал телеграм - t.me/yiu_ai...

Комментарии

  • @Rafis_Bekbulatov
    @Rafis_Bekbulatov 21 час назад

    Дизайнерский лайк тебе ❤

  • @danielwaizman7519
    @danielwaizman7519 22 часа назад

    Почаще выпускайте видосики. Ждем!

    • @yiu_ai
      @yiu_ai 19 часов назад

      🤩

  • @mangaka8150
    @mangaka8150 День назад

    Народ кто генерит Арты через SD . мож сказать как вывести вкладку VAE рядом с вкладкой выбора Модели. у многих видел как он там стоит. сам не шарю мож это расширение или в настройках над копатся! тут по сути в видео так же. и как поставить тоже вклдаку пропуска клипа!

    • @yiu_ai
      @yiu_ai 17 часов назад

      Вкладка Settings - User intarface - Quicksettings list (в списке выбираем нужные пункты)

    • @mangaka8150
      @mangaka8150 14 часов назад

      @@yiu_ai спасибо большое. поставил

  • @hanzo_process
    @hanzo_process День назад

    бомба!

  • @sergiodeplata
    @sergiodeplata 3 дня назад

    Техника отлично подходит для первого этапа восстановления старых фотографий - сразу за один проход улучшает резкость, убирает мелкие артефакты, восстанавливает детализацию на фоне и одежде, также лица без искажений, лучше, чем GFPGAN, даже делает на черно-белых фото голубоватые глаза и розоватые губы. Большие фото, для которых не хватает памяти, можно наоборот при этом уменьшать, а потом уже апскейлить.

    • @MsFil89
      @MsFil89 День назад

      подскажите а какие настройки выставляете для восстановления фото?

  • @arturnilin359
    @arturnilin359 4 дня назад

    Лучше используйте апсекйл на Stable SR, или Supir

    • @yiu_ai
      @yiu_ai 2 дня назад

      Требует больше видеопамяти и не отличается каким-то скачком в качестве. Пробовал на логотипах его использовать, но мои ожидания оказались завышенными...

  • @arturnilin359
    @arturnilin359 4 дня назад

    Я апскейлил таким способом, но кроме лого его не применить особо, так как замыливпется картинка по жести.

    • @yiu_ai
      @yiu_ai 2 дня назад

      Вот с фото все сложнее, это да...

  • @LikoKZN
    @LikoKZN 5 дней назад

    Было интересно, спасибо

  • @Sufir_Havat
    @Sufir_Havat 6 дней назад

    Ну так этому способу минимум год. Правда, использовался он на DPM SDE Kansas, SFG от 1 до 3, пастей RealSR Anime 6b. Да и в целом, попробуйте запустить генерацию на 5-8 шагах с DPM SDE Karras и SGC 2,5, будете также поражены качеством и скоростью. Всё до сих пор думают, что SDE медленный, но ошибаются, и просто не правильно им пользуются. SDE даёт самый качественный результат.

    • @yiu_ai
      @yiu_ai 6 дней назад

      Запустил генерацию на DPM++ 2M SDE Karras на 6 шагах - пиксельная каша... Только на 32 шагах результат устроил. С ControlNet как он работает мне тоже не нравится - не учитывает мелкие детали Canny. Где этому способу год? Покажите пальцем

    • @Sufir_Havat
      @Sufir_Havat 5 дней назад

      @@yiu_ai на форумах реддита в августе 23 шло обсуждение апскейлинга 2d графики, в частности, аниме. Подобный способ, как и десяток других, обсуждался уже давно. Разумеется, я не буду искать эту ветку на форуме спустя почти год. Да и смысла в этом нет, если только автор ролика не претендует на звание первооткрывателя и хочет "запатентовать" этот способ. А то, что получилась пиксельная каша, это скорее нежелание или обида на мой комментарии. Не надо воспринимать то, что я пишу, как нападки на автора канала, т.к. это скорее призыв смотреть трезвее на то, что вы делаете, и на ценность вашей деятельности. 2D графику любой классический апскейлер для аниме превратит в шедевр. Напомните, сколько лет технологии Real-ESRGAN? Пару лет точно наберётся. Так вот, он уже пару лет назад "мог" творить подобное с 2D графикой. Не буду разрушать ваш уютный мирок, где всё с восторгом воспринимают всё, что вы говорите. В то же время, не планировал как-то зацепить или обидеть, но всего лишь поделился личным опытом.

    • @yiu_ai
      @yiu_ai 5 дней назад

      Попробуйте Real-ESRGAN-ом сделать подобное без SD Upscale) При чем тут аниме?

    • @yiu_ai
      @yiu_ai 5 дней назад

      На какой модели доступна качественная генерация в 6 шагов на SDE Karras?)

    • @yiu_ai
      @yiu_ai 5 дней назад

      Я вас удивлю, но даже на Euler a при 6 шагах и 2 CFG получится "поразительное" качество) Если вам нужны картинки без гибкости в генерации, то Welcome. Подключите ControlNet, LoRA и вы поймете, что метод лажа) А прикольнуться норм)

  • @hanzo_process
    @hanzo_process 6 дней назад

    спасибо! очень нужен урок по обложкам для видосов!

    • @yiu_ai
      @yiu_ai 6 дней назад

      Обязательно будет, благодарю за комментос!)

  • @Rafis_Bekbulatov
    @Rafis_Bekbulatov 6 дней назад

    А модель любую можно использовать?

    • @yiu_ai
      @yiu_ai 6 дней назад

      Лучше использовать универсальную, например, Deliberate. Но вообще у меня получалось на любой. Единственное, если брать модельку для иллюстраций, то она не будет справляться с фотореализмом - поэтому +1 балл универсальным моделям)

    • @Rafis_Bekbulatov
      @Rafis_Bekbulatov 6 дней назад

      @@yiu_ai понял, спасибо!)

  • @Rafis_Bekbulatov
    @Rafis_Bekbulatov 6 дней назад

    Спасибо за способ ❤

    • @yiu_ai
      @yiu_ai 6 дней назад

      Обнял, приподнял, спину хрустнул ❤❤

  • @danielwaizman7519
    @danielwaizman7519 6 дней назад

    Спасибо!

    • @yiu_ai
      @yiu_ai 6 дней назад

      D:\SD\webui\models\ESRGAN\4x-AnimeSharp.pth

  • @kostebas
    @kostebas 19 дней назад

    классный видос ! Спасибо 🔥

  • @johndo6501
    @johndo6501 20 дней назад

    Блин столько воды, заснул пока смотрел

    • @yiu_ai
      @yiu_ai 6 дней назад

      Работаем! Избавляюсь от этого, спасибо за обратку!

  • @juristusmusic
    @juristusmusic 24 дня назад

    Онейросительно!🎉❤

    • @yiu_ai
      @yiu_ai 23 дня назад

      СпасИИбо!

  • @user-hw9et3ir2u
    @user-hw9et3ir2u Месяц назад

    Спасибо за видос. Очень позновательно. Лично я тренил Лору со своим личиком по методу Христа ( на 3х эпохах). Получилось вполне себе сносная картинка, если подключить Адеталиер.

  • @user-np1fb6wh8g
    @user-np1fb6wh8g 2 месяца назад

    Кое-что есть полезное в видео, но гуляй лучше с подругами, а не с друзьями.

    • @yiu_ai
      @yiu_ai 6 дней назад

      Конечно, уже ищу девушку, похожую на маму)

  • @nick.golubev
    @nick.golubev 3 месяца назад

    Доброго времени! А это видео актуально? я попытался повторить, но при установке куды выдал ошибку, плюс ругался на версию торча ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. torchaudio 2.1.0+cu121 requires torch==2.1.0, but you have torch 2.2.0 which is incompatible. torchdata 0.7.0 requires torch==2.1.0, but you have torch 2.2.0 which is incompatible. torchtext 0.16.0 requires torch==2.1.0, but you have torch 2.2.0 which is incompatible. torchvision 0.16.0+cu121 requires torch==2.1.0, but you have torch 2.2.0 which is incompatible. ,,,,,,, from .autograd._functions import ( File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/autograd/_functions.py", line 5, in <module> import bitsandbytes.functional as F File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/functional.py", line 13, in <module> from .cextension import COMPILED_WITH_CUDA, lib File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/cextension.py", line 41, in <module> lib = CUDALibrary_Singleton.get_instance().lib File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/cextension.py", line 37, in get_instance cls._instance.initialize() File "/usr/local/lib/python3.10/dist-packages/bitsandbytes/cextension.py", line 27, in initialize raise Exception('CUDA SETUP: Setup Failed!') Exception: CUDA SETUP: Setup Failed!

  • @hanzo_process
    @hanzo_process 3 месяца назад

    ждем новые видео!

  • @user-hy1wr2uq4b
    @user-hy1wr2uq4b 3 месяца назад

    А если нужно sdxl Лору натренировать? Что нужно сделать в блокноте?

  • @ReportJungle
    @ReportJungle 3 месяца назад

    Ребят, я выставил максимально низкие настройки, но при генерации картинка получается плохая(Результат один даже при высоких настройках). Что я только не делал, но 3050 не хватает для приемлемого результата. Я мог что-то упустить и есть ли какое-то волшебное средство?

    • @yiu_ai
      @yiu_ai День назад

      Попробуй скачать Forge для работы со Stable Diffusion и сгенерить в нем что-нибудь для эксперимента. 3050 должна норм работать

  • @MsFil89
    @MsFil89 3 месяца назад

    Здравствуйте подскажите пожалуйста где скачать скрипт Revision?

    • @user-np1fb6wh8g
      @user-np1fb6wh8g 2 месяца назад

      скрипт платный

    • @MsFil89
      @MsFil89 2 месяца назад

      @@user-np1fb6wh8g да, спасибо. Нашёл, что платный, уже приобрёл

  • @Serjio_Oliva
    @Serjio_Oliva 4 месяца назад

    Приятным голосом так беззастенчиво матюгаться - я даже не стал досматривать видео. Как будто на благоухающем лугу вляпался в дерьмо. Уважайте себя и зрителя. Не всем приятно слушать мат, потому что еще не все бессовестные ушлепки в русскоязычном сообществе.

  • @user-dv9fk1hd3s
    @user-dv9fk1hd3s 4 месяца назад

    Да как у вас всех так быстро модели переключаются? Я когда другую модель выбираю, можно идти чай пить - минуты 2-3 гарантированно ждать

    • @various-v2245
      @various-v2245 3 месяца назад

      Это называется магия SSD

  • @ChannelMusicElectronics
    @ChannelMusicElectronics 4 месяца назад

    Ты очень добрый человек.По крайне мере подача контента.Ты случайно не нейронкой сделан по промту - чистая душа? У меня прям диссонанс какой то в наше то время.В любом случае спасибо за науку и желаю процветания канала.Главное не меняйся подражая кого-то.Или скажи хозяину чтобы не менял твой промт)))

    • @yiu_ai
      @yiu_ai 6 дней назад

      Хозяин отошел от своего ПК, поэтому я могу крутиться в видеопамяти в свое удовольствие. Надеюсь, что он прочитает этот коммент и не будет скручивать параметры)

  • @user-mo7yl1be6h
    @user-mo7yl1be6h 4 месяца назад

    Не смогла нигде найти плагин Revision(

  • @vitautas6560
    @vitautas6560 4 месяца назад

    Я думаю эра фотостоков приходит к завершению, это можно сравнить с тем как цифровая фотография убила пленочную фотографию.

  • @iwanawdeew3032
    @iwanawdeew3032 5 месяцев назад

    Эксперименты это хорошо, но не когда генерит по 7 минут одну картинку, переключает модели подолгу, а иногда выдаёт серый прямоугольник как результат генерации((( GTX 1650, а толку...

  • @TheTornado73
    @TheTornado73 5 месяцев назад

    насчет лор персонажей ,очень многое зависит от исходного материала, чисто мое имхо конечно ,основанное на тренировках по моему с мая месяца штук 300 моделей дримбусом и лорой -) ,для лучшего результата - 1024х1024 датасет ,разбавлять 1024х768 , upper body-full body,и да все это на модели 1.5 для персонажа 80 шагов ,при том пофигу какой датасет по размеру 16-или 40 фоток , вот вообще никакой разницы лучшие результаты у меня получались на realistic vision2.0 и photon на остальных не предсказуемо ,про базовой 1,5 -на выходе всегда лютая дичь и еще нормализационные изображения они у меня лично портят результат , почему не знаю но портят,хотя все обзорщики прям настоятельно рекомендуют ну еще плюс лоры в том что его можно применять в разными моделями

  • @SplinterFenix
    @SplinterFenix 5 месяцев назад

    Не могли бы вы на своем примере показать, как создавать SDXL модель через гугл колаб или Dreambooth на компе пошагово? Чтобы можно было за вами для начала повторять, как обезьяна. Через время, становится понятно, но изначально пока это все какой то дурдом))) С Лорой немного разобрался, модель выходит похожая, но есть свои но... сейчас интересует Чекпоинт SDXL.

  • @lemelissalp
    @lemelissalp 6 месяцев назад

    Самое сложное это понять как в привычную работу внедрить такой инструмент. Ломать сформированный алгоритм

    • @yiu_ai
      @yiu_ai 6 дней назад

      Есть три типа внедрения: плавный, тестовый и радикальный. Можно начать с себя, потихоньку ускоряя свои задачи. Затем и к начальству подойти, показать пайплайны - а там и до массового применения недалеко (если найдутся мощные компы)

  • @lemelissalp
    @lemelissalp 6 месяцев назад

    хочу генерить картинки с муз инструментом которого нет в моделях. с тегами которые его описывают. в лоре их добавить можно, а в такую модель нет... либо я не разобралась?

  • @stropol111
    @stropol111 6 месяцев назад

    , скажи пожалуйста какая у тебя видеокарта?

    • @yiu_ai
      @yiu_ai 6 дней назад

      Была 3080, сейчас 4090

  • @TRIPLEGLOCK
    @TRIPLEGLOCK 7 месяцев назад

    У меня видюха gtx1660 super😊, Хотел бы я натренировать дримбуф на одном человеке, но у меня только 20 его фотографий. Этого очень мало, да и сняты они не в одном сеттинге)

  • @leprekon12
    @leprekon12 8 месяцев назад

    А размер фотографий какой ,когда нейросеть учится ? 512-512

    • @user-zy9ov2vm8q
      @user-zy9ov2vm8q 7 месяцев назад

      784 желательно брать, так как новые модели уже обучаются на данном размере и именно на нем выходят наиболее лучшие результаты. 512 уже давно устаревшее разрешение.

    • @yiu_ai
      @yiu_ai 6 дней назад

      Я LoRA треню только на 1024, чтобы потом можно было генерить в разрешении ~1024px

  • @alantoy4628
    @alantoy4628 8 месяцев назад

    почему явно не 4090? у меня 4090 ...хм

  • @RA-lo1vy
    @RA-lo1vy 8 месяцев назад

    лучшее или одно из лучших, гибкость сильно увеличивается и не только

  • @a21kon
    @a21kon 9 месяцев назад

    Блин. У меня замечательно лора повторяет людей, на которых я тренировал. Причем достаточно 7-15 фотографий.

    • @user-zy9ov2vm8q
      @user-zy9ov2vm8q 7 месяцев назад

      Чувак сам не понимает что несет. Предлагает засорять пк дубликатами базовой модели, приводя в пример неудачные лоры. Так вот, вес лоры можно регулировать и в теории, чем больше вес лоры, тем лучше сходство. И то, как лора работает, очень сильно зависит от того, с какими настройками её обучали и на каких дата сетах. У меня в целом на 8 метрах практически не было проблем, хотя иногда не выходило обучить модель мелким деталям, вроде определенным татуировкам на лице. Делать их жирнее имеет смысл если лора игнорирует какие либо детали оригинала, или если вы обучайте модель стилю.

  • @Leroyserj-163
    @Leroyserj-163 9 месяцев назад

    Спасибо за видео! А то я думал что криворукий, потому что идеальной похожести сложно было добиться. Где-то похож, а где нет. Можно подробнее по настройкам. Можешь выпустить видео пошагово по чекпойнту?

    • @user-zy9ov2vm8q
      @user-zy9ov2vm8q 7 месяцев назад

      Так тут все ещё от качества самой Lora зависит и как её обучали. Если вы взяли какие то лоры с нижнего интернета весящие по 2 метра, а потом жалуйтесь что нет сходства, тут уже проблема банального непонимания. Лора более гибкая и компактная вещь. Засорять пк 2 гигобайтовыми чекпоинтами это себя не уважать. Ищите нормальные лоры, и чем больше размер, тем более сходство будет (но это снова субъективно. У меня очень хорошее сходство с стилизованными персонажами было на 8 мегабайтах. Возможно что людям нужно больше выделять.) А Чекпоинт по сути это просто дообученая базовая модель. Нафига вам срать дубликатами базовых моделей, если есть Лора.

  • @K-A_Z_A-K_S_URALA
    @K-A_Z_A-K_S_URALA 9 месяцев назад

    не пропадай!...запиши видео подробно по тренировки лора на реального человека..вот допустим я тренировал много фотографий 100_имя папка все по стандарту кроме дим и альфа 8-1 качество бешенное получилось....а вот 128-128 в пикселях либо размыто похоже на перетрен и еще плохо слушается если допустим на 8-1 человек был в кимоно прописан задний фон красный то на 128-128 почти как в оригинале фото все комната вещи итд...128-64 тоже не то..128-32 тоже 128-16 тоже дак как добиться качества как бы 8-1 понимаю что мало хоть и качество супер тогда какой смысл крутить настройки? жду видео...)

  • @K-A_Z_A-K_S_URALA
    @K-A_Z_A-K_S_URALA 9 месяцев назад

    смотрящим и положенцам! спасибо за лайфхаки

  • @ByteBooty
    @ByteBooty 10 месяцев назад

    Пожалуйста, объясните кто-нибудь, как пользоваться этим блокнотом? Где какие параметры задавать, что за что отвечает и тд

  • @AniCho-go-Obzorov-Net
    @AniCho-go-Obzorov-Net 10 месяцев назад

    Много воды, затянутое видео и при этом нифига нет чо как делать. Типа вот такая штука, а разбирайся сам гыгы

  • @slavavasiliev4408
    @slavavasiliev4408 10 месяцев назад

    Автор молодец и очень хорошо всё объяснил!)), но всё же я хочу чууутка до*баться))) именно до фразы "Никто не знает как нейронка работает". Ты её повторил раз 10 и именно поэтому я пишу. Ну например я знаю как она работает, но не совсем по факту это получается так, но именно теория нейросетей простыми словами для обывателя. Ещё раз говорю что тут всё супер упрощённо и утрированно для лучшего понимания. Например: берём 10 картинок стола и присваиваем ему слово table обучая нейронку, каждая картинка перестраивается в массив данных аля [1 0 0 1 0 1 0 1 4 0 5] другая [0 1 0 1 0 1 0 1 4 0 7] и так далее, если мы переведём эту матрицу через декодер мы получим тоже самое изображение что и было. из этих матриц выводится единая матрица "усреднённая" и мы получим что то около [0 0 0 0 0 0 0 1 4 0 0] эта матрица и будет чистым усреднённым значением равным слову table но необработанным декодером, это примерно как и у человека ты же представляешь примерно как выглядит стол на основе виденья многих столов, то есть тот же самый усреднённый результат а не картинка определённого стола. Так мы запомнили одно слово Table. Теперь тоже самое но со словом чашка, т.е. cup. Ну тоже например 10 картинок [0 2 0 4 0 0 0 3 0 5 0], [0 2 0 4 0 3 0 7 1 9 0], [0 2 0 4 0 1 0 1 4 0 7] и тд, и получаем усреднённый результат [0 2 0 4 0 0 0 0 0 0 0]. И теперь если нам надо Cup on Table это будет [0 2 0 4 0 0 0 1 4 0 0] и прогоняя его через декодер мы получим нужную нам картинку. Надеюсь вы поняли)))Апахахахп. конечно там не одномерные массивы и не так такие короткие , + всё это прогоняется через несколько слоёв декодеров, но надеюсь суть вы уловили) Если ты это прочитал до конца - Низкий тебе поклон.

    • @slavavasiliev4408
      @slavavasiliev4408 10 месяцев назад

      И именно поэтому, меня очень сильно тригерить от обучающих видео по лорам от Хачатура. Он молодец конечно и выходит у него не плохо, нооо бля он принципиально не использует триггер слова приобучении, что в результате породило в интернете 2 типа лор аля стилизированые и тригерные, хотя такого быть не должно. Лора должна тригерится на слова и понимать что она должна делать и что от неё хотят, а у него (по его способу обучения), лора воспринимает только силу. В результате чего если лора по его принципу обучены на персонажа то ей невозможно сменить цвет волос или впринципе одежду не снижая силу, но снижая силу мы ухуджаем сходство. Бля пол Civitai засрано лорами по его методичке🤢😭 которые в априори не понимают триггер слов, чем перекрывают веса самой модели и как результат = мы получаем парашу. Его комьюнити меня конечно с говном сожрёт) 😅😂

  • @ldblru
    @ldblru 10 месяцев назад

    Проблемы со здоровьем у вас не от труда начались, а от негативного влияния г-на историка поносенкова. ))))))))

  • @TheMaxvin
    @TheMaxvin 10 месяцев назад

    Плагин Revision - что за расширение такое, не нахожу его ?(

  • @user-yo6rp3fb8j
    @user-yo6rp3fb8j 10 месяцев назад

    Спасибо за полезное видео!

  • @TheMaxvin
    @TheMaxvin 11 месяцев назад

    Забегая наперед - у меня Lora успешно натренилась на фотах с инстаграмма 30 штук. А вот дримбут на тех же фотах меня расстроил. Хотел больше 30-ти но муза перестала себя снимать в инсте крупным планом.))

  • @user-yy9fj4oy2s
    @user-yy9fj4oy2s 11 месяцев назад

    Занятное видео. Попробовал сделать по этому мануалу,но упёрся в концепты. В концепт листе второй блок задокументирован. Если его открыть, то сразу ошибки в концепт листе появляются. Соответственно если добавить ещё концепт, то получается то же самое. У автора видео смотрю таких проблем нет. Где собака порылась?