Как обучить нейросеть на собственных работах | Stable Diffusion + DreamBooth + Colab + AUTOMATIC1111

Поделиться
HTML-код
  • Опубликовано: 14 янв 2023
  • Стоимость обучения модели ИИ Stable Diffusion исчисляется сотнями тысяч долларов, что, безусловно, не по карману большинству пользователей. Вместе с тем, технологии от Google Dreambooth и Colab позволяют проводить тонкую настройку этой нейросети в облаке бесплатно каждому желающему и создавать собственные ИИ модели с уникальным стилем.
    Как иллюстратору задействовать названные технологии для обучения Stable Diffusion на собственных работах показано в этом ролике. AUTOMATIC1111 позволит протестировать результат, вы увидите как это делается.
    Если видео понравилось, не забудьте поддержать его лайком.
    С уважением,
    Андрей Турцевич
    Обратите внимание на апдейт при запуске Colab: графа "токен" упразднена за ненадобностью, работать стало проще - пропускайте описанные шаги по созданию и вводу токена Hugging Face, код теперь функционирует без них.
    Ссылки по теме:
    Hugging Face:
    huggingface.co
    Fast DreamBooth Colab:
    colab.research.google.com/git...
    Внимание: в последнее время наблюдается нестабильность работы ячейки блокнота Test The Trained Model, предназначенной для проверки результатов обучения (запускающей Automatic 1111 в Colab). Проблема, возможно, связана с наплывом пользователей и желанием ввести ограничения. В качестве альтернативы для проверки работы обученной модели Stable Diffusion с ControlNet вы можете использовать бесплатный Colab для ComfyUI, не имеющий данной проблемы: • Stable Diffusion с Com...
    ArtBot powered by Stable Horde:
    tinybots.net/artbot
    Если вы еще не зарегистрировались на Adobe Stock и Shutterstock, делайте это прямо сейчас - присоединяйтесь к сообществу авторов, получающих постоянный доход от своих изображений и начинайте зарабатывать уже сегодня.
    Adobe Stock: bit.ly/stockreg
    Shutterstock: bit.ly/atshutterstock
    Не пропустите на канале другие обучающие видео для иллюстраторов и фотографов, работающих с фотобанками.
    Мой блог: atdigit.blogspot.com/
    Я на Behance: www.behance.net/atdigit
    RUclips atDigit: bit.ly/ytatdigit Подписывайтесь!
  • НаукаНаука

Комментарии • 204

  • @wildfilms7885
    @wildfilms7885 Год назад +1

    Очень подробно и понятно. Спасибо!

    • @atdigit
      @atdigit  Год назад

      Пожалуйста!

  • @MsNadezhda2011
    @MsNadezhda2011 Год назад +1

    Благодарю! Вы так хорошо объясняете!

    • @atdigit
      @atdigit  Год назад +1

      Пожалуйста, приятно, что цените.

  • @user-ti7nn3my8x
    @user-ti7nn3my8x Год назад +5

    Прикольно. Спасибо за урок, очень помогло разобраться)

    • @atdigit
      @atdigit  Год назад +1

      Пожалуйста, рад, что есть польза.

  • @NataliaMaier-oh3bb
    @NataliaMaier-oh3bb 7 месяцев назад

    Спасибо за видео! Скажите, если у меня разноплановые изображения, но в едином стиле. Для каждой картинки есть ещё и текстовое описание. Мне картинку каждую грузить отдельно и к ней ниже давать текст или грузить все картинки, а текст куда? И ещё один вопрос - нужно ли в окне при вводе текста указывать название модели вначале? Как с изображениями?

  • @allamay9287
    @allamay9287 11 месяцев назад +1

    Большое спасибо за очень полезный ролик!

    • @atdigit
      @atdigit  11 месяцев назад +1

      Я рад, что Вам понравилось мое видео. Спасибо за отзыв и поддержку. 😊

  • @user-rt3sq3gv8k
    @user-rt3sq3gv8k Год назад +1

    Очень крутое видео! Спасибо!!!

    • @atdigit
      @atdigit  Год назад

      Пожалуйста!

  • @ekaterinavolkova8780
    @ekaterinavolkova8780 2 месяца назад

    Здравствуйте! Спасибо за видео! Я только начала обучаться работать в стейбл, поставила на комп, подскажите пожалуйста, отличается ли порядок обучения нейросети через гугл коллаб и на пк? Спасибо!

  • @leilagi1345
    @leilagi1345 Год назад +9

    Здравствуйте еще раз)) вы кажется очень хорошо осведомлены о работе SD, могли бы пожалуйста подсказать можно ли в Google Collab сделать embedding (textual inversion) своего персонажа? Весь ютуб переискала и не нашла ни одного толкового туториала на это (только локально кто делал и то как то сумбурно всё). Вот смотрите я сделала по вашему этому видео модель моего стиля и теперь хочу в этом стиле моего персонажа...делать отдельно еще 2 гб модель на персонажа и как то сливать эти две модели мне кажется нецелесообразным. Как лучше подступиться в этом случае : модель стиля+ embedding персонажа или модель персонажа+embedding стиля... извините если неумные вопросы задаю, только начала разбираться в этом всём, еще и приходится делать все через коллаб

    • @atdigit
      @atdigit  Год назад +8

      Добрый день. Вы правильно мыслите - встраивание текстовой инверсии возможно комбинировать с тонко настроенной моделью и таким образом создавать узнаваемых персонажей в собственном стиле. Сделаю на эту тему подробное руководство. Сейчас могу коротко пояснить как действовать через Google Colab - для этого необходимо в стандартном режиме (у меня есть видео, показывающее как это делается) запустить через Colab интерфейс AUTOMATIC1111 - там есть отдельная вкладка для обучения нейросети. На ней необходимо создать embedding, подготовить и загрузить изображения и запустить процесс обучения для созданной текстовой инверсии. Обучать лучше чистую стандартную модель Stable Diffusion. Когда будет готово, Вы тут же сможете использовать новый embedding с вашей тонко настроенной моделью и другими.

    • @leilagi1345
      @leilagi1345 Год назад +2

      @@atdigit ага поняла! попробую через коллаб как вы сказали, то видео где вы устанавливали SD через коллаб я посмотрела да)) спасибо большое за отзывчивость!)

    • @atdigit
      @atdigit  Год назад +4

      @@leilagi1345 Пожалуйста. Удачи Вам в ваших экспериментах.

    • @user-uj7gl8td3t
      @user-uj7gl8td3t Год назад

      Вы бы могли поделиться вашими контактами

  • @nomumomu4890
    @nomumomu4890 6 месяцев назад

    Спасибо за ваши видео, вы один из немногих, кто объясняет настолько просто и доходчиво, что все эти штуки не вызывают паники :D А вы не могли бы подумать над видео, как можно обучить нейросеть на своих работах для последующего использования результатов в комиксах? Я примерно понимаю, что там должно быть, но вы, как специалист, увидите всякие нюансы, о которых другие даже не догадываются. Хотелось бы знать, как нужно обучать нейросеть на рисование заданных эмоций, разных ракурсов, динамичных и статичных сцен и все такое. Все ИИ комиксы, которые я видела до сих пор, выглядят очень кирпичными и скучными.

  • @valdis1347
    @valdis1347 18 дней назад +1

    А можно обучить её делать иконки, если исходные картинки иконок у меня размером 32 на 32 и при конвертации на 512 они все размытые получаются? пока все попытки неудачные

  • @user-mq8zo8ry8k
    @user-mq8zo8ry8k Год назад +1

    Промт:Добавил в избранное подписался жду продолжений))))

    • @atdigit
      @atdigit  Год назад

      Спасибо, продолжение следует...

  • @ergai
    @ergai Год назад +1

    Спасибо за урок, но не подскажите как использовать полученную модель потом на google colab сессия же заканчивается и можно ли как то обучать дальше на тех же рисунках?

    • @atdigit
      @atdigit  Год назад +1

      Пожалуйста. Да, модель после первого обучения целиком ваша. В ролике показывается откуда ее можно забрать. Скачивайте себе на ПК, используйте в последующих сессиях AUTOMATIC1111, или дообучайте в том же блокноте в режиме повторного запуска.

  • @leilagi1345
    @leilagi1345 Год назад +10

    у меня все получилось!!!! не верится что бесплатно и так быстро! спасибо огромное! у меня ничего не вылетало, наверное уже исправили Коллаб! только я сначала глупанула и у меня при генерации через раз выпадали картинке в нужном стиле, а я просто элементарно в промте еще раз не написала триггер слово (имя своей модели). идеально... я ускорю свою работу в разы

    • @atdigit
      @atdigit  Год назад +1

      Пожалуйста, пользуйтесь! Отличная история, желаю и другим, чтобы все сразу получилось. Вам творческих и деловых успехов.

    • @EditArtDesign
      @EditArtDesign Год назад

      А для чего делать этот ( embedding (textual inversion) вы как бы в курсе уже,и что делать в вкладке "train" in sd и как свою модель совместить с этой вкладкой?? Заранее спасибо!

    • @atdigit
      @atdigit  Год назад +1

      @@EditArtDesign Встраивание текстовой инверсии - один из вариантов тонкой настройки нейросети. Его преимущество в том, что такое возможно использовать в различных комбинациях в одной текстовой подсказке и с разными тонко-настроенными нейросетями. Со временем сделаю на эту тему видео. На Discord atDigit следите за анонсами на канале "announcements-анонсы", в "google-colab-ru", "automatic1111-ru" и "stable-diffusion-ru" вы найдете информацию об изменениях и узнаете ответы на распространенные вопросы: discord.gg/5wcpQgxgQ7

  • @AdamMaykov
    @AdamMaykov Год назад +2

    Отлично как всегда. Скажите пожалуйста сколько дней идет рассмотрении работ на Adobe Stock ? У меня уже неделю висят

    • @atdigit
      @atdigit  Год назад

      Пожалуйста, приятно, что оценили. Что касается фотобанка, то обычно Adobe в течение нескольких дней утверждают. Иногда быстрее, иногда медленнее. Неделя? Не засекал, но мне кажется да, вполне нормально.

  • @keksocat
    @keksocat 4 месяца назад

    Здравствуйте, решил разобраться в генеративных сетях, наткнулся на ваши видео. Но у меня возникли проблемы с Гугл колаб, решил развернуть локально. Установил dreambooth, но там совсем другие параметры…нет ли подходящего мануала или чем-то можете помочь?

  • @julianachu767
    @julianachu767 Год назад +1

    Здравствуйте! Спасибо за видео! Очень интересно...не могли бы подсказать еще раз как рассчитывать шаги из ходя из количества изображений? По видео 10 изобр = 650 шагов, 30 изобр = 650*3 = 1950 шагов и должно быть кратно 150, получается например для 46 изоб = примерно 2850 шагов (650*4.5)? 81 изобр = 5250 шагов (650*8)? Я наверное логику не так понимаю потому что мне кажется что для 81 изобр 5250 шагов много.. но тогда я не понимаю как определять... помогите пожалуйста

    • @atdigit
      @atdigit  Год назад +1

      Для простоты число шагов выбирайте, как кол-во картинок умноженное на 100. Т.е. для 10 картинок - 1000 шагов, для 30 - 3000 шагов, для 40 - 4000 шагов. Больше 40 изображений для данного типа обучения не берется. Количеством здесь не возьмете, гораздо важнее качество. Также при большом количестве картинок, как я сказал в ролике, вы рискуете потерять работу, т.к. возрастает шанс быть отключенным от системы из-за превышения лимитов. Авторы колаба для DreamBooth, это написано в самом блокноте, просто цитирую - рекомендуют для десяти картинок начинать не с 1000, а с 650, во избежание переобучения. Далее, при необходимости добавлять по 150 шагов, пока результат не удовлетворит. Для большего количества картинок не обязательно точно попадать в этот интервал, если захотите выбрать кратность меньше 100, выбирайте значение, удобное для счета - главное, чтобы на одну картинку не приходилось дробное число шагов.

    • @julianachu767
      @julianachu767 Год назад

      @@atdigit а понятно спасибо за разъяснение! Хорошо тогда не буду больше 40 картинок делать.

  • @tatyanang6424
    @tatyanang6424 Год назад +2

    Спасибо за ваш труд =) Хочу спросить ,модель которая создана по моим рисункам ,она в моём личном распоряжении, и никуда в публичный доступ не улетит ?)

    • @atdigit
      @atdigit  Год назад

      Пожалуйста. Google выделяет рабочую среду Colab, как и дисковое пространство в рамках аккаунта исключительно для приватного использования. Если Вы сами не поделитесь информацией, то ее кроме Вас никто не увидит.

  • @ASD-sz3mn
    @ASD-sz3mn 2 месяца назад

    Здравствуйте, спасибо за материал! Подскажите могу ли я в дальнейшем скачать дообученную модель и использовать ее в своих проектах локально?

    • @atdigit
      @atdigit  2 месяца назад

      Пожалуйста. Да, конечно Вы можете модель скачать и использовать дальше по своему усмотрению - это же результат фактически вашего труда.

  • @user-he5ke1tm8x
    @user-he5ke1tm8x 5 месяцев назад +1

    Не появилась ячейка start stable diffusion. Хз как перейти по ссылке уже в саму нейронка((

  • @koditonperhe3339
    @koditonperhe3339 8 месяцев назад +3

    Огромное спасибо за видео!
    Подскажите пожалуйста, пишет ошибку в блоке Загрузки Модели:
    ModuleNotFoundError Traceback (most recent call last)
    in ()
    3 from IPython.utils import capture
    4 from IPython.display import clear_output
    ----> 5 import wget
    6 from subprocess import check_output
    7 import urllib.request
    ModuleNotFoundError: No module named 'wget'
    Спасибо

    • @A1TA_chan
      @A1TA_chan 7 дней назад

      та же проблема

  • @dars-kiwisa
    @dars-kiwisa Год назад +4

    Здравствуйте. Тоже нет по ссылке строки hugging face token, только model version, custom version и дальше path to hugging face. Подскажите как в этом случае добавить адрес токена или мб есть другая ссылка на код? Спасибо

    • @atdigit
      @atdigit  Год назад +4

      Доброго времени суток. Блокнот упростили и теперь запускать возможно без регистрации на Hugging Face, без токена.

    • @dars-kiwisa
      @dars-kiwisa Год назад +1

      @@atdigit поняла, попробую ещё раз, спасибо)

  • @user-et3iu6el4g
    @user-et3iu6el4g Год назад +1

    А с "img to img" такая штука работает, чтобы по готовому изображению применялся такой эффект?

    • @atdigit
      @atdigit  Год назад

      Да, работает. В конце этого ролика есть подобный пример с тонко настроенной моделью "Midjourney paint art" ruclips.net/video/mAi40uyhCRk/видео.html

  • @dimalepashov7498
    @dimalepashov7498 9 месяцев назад +1

    Спасибо большое за туториал! Очень круто и понятно объясняете. Но у меня вопросик. Вы показали пример на черно-белых фотках. Но что делать, если картинка цветная, с деталями и прямоугольная. А с помощью фотошопа получается какая-то хрень. Что делать в таком случае?

    • @atdigit
      @atdigit  9 месяцев назад

      Здравствуйте, спасибо за ваш комментарий и интерес к моему видео. Я рад, что вам понравился туториал. Для цветных, детализированных и прямоугольных подходы не меняются - все делается аналогично. И даже если Вы захотите дообучить модель не на конкретный стиль, а на определенного персонажа это также делается по принципу, показанному в видео.

  • @user-mh9rx4xe4v
    @user-mh9rx4xe4v 2 месяца назад

    в блокноте по ссылке не то содержание, что в видео :(

  • @DmitryTarasik
    @DmitryTarasik 5 месяцев назад

    Доброго времени Суток) После нажатия на Test the Trained Model Процесс начинается, в конце выдает Вот такое: TypeError: check_deprecated_parameters() missing 1 required keyword-only argument: 'kwargs', что можно сделать?

  • @user-ml7zx5xn5d
    @user-ml7zx5xn5d 11 месяцев назад +1

    Спасибо за видео! подскажите, пожалуйста, у меня, почему-то нет строки Token в блокноте, есть только Path_to_HuggingFace. Соответственно команда Model Download не выполняется(((

    • @atdigit
      @atdigit  11 месяцев назад

      Пожалуйста! Названную строку упразднили, поэтому всё теперь работает и без неё.

  • @aleksandrshchepkin2524
    @aleksandrshchepkin2524 Год назад +1

    Почему-то стала выскакивать ошибка при создании модели во вкладке create Dreambooth, если работать со стандартным automatic1111 через collab с установкой dreambooth.

    • @atdigit
      @atdigit  Год назад

      Не рекомендую так делать - по отзывам пользователей много нареканий на нестабильную работу.

  • @chelnoise7613
    @chelnoise7613 Год назад +2

    Спасибо ! Очень интересно. Но ! Дошел до тренировки - загрузил вроде изображения. Но в процессе тренировки пишет - Something went wrong. Куда лезть с исправлениями ?

    • @atdigit
      @atdigit  Год назад +1

      Понятно. Тут от Вас мало что зависит в плане настроек самого блокнота Google Colab, поэтому еще раз убедитесь, что изображения подготовлены в одинаковом размере и он совпадает с тем, что указан в параметрах тренировки, что на вашем Гугл диске есть свободное место, что включен GPU ускоритель. Если проблема сохраняется, сделайте паузу на несколько часов и повторите попытку. Также читайте на Discord atDigit в "google-colab-ru" и "automatic1111-ru" ответы на популярные вопросы зрителей: discord.gg/5wcpQgxgQ7

    • @atdigit
      @atdigit  Год назад +1

      Пожалуйста, рад что интересно.

    • @chelnoise7613
      @chelnoise7613 Год назад +1

      @@atdigit Все получилось, сделал пробную сетку с изображениями своей собаки (30 картинок) . но она выводит почему-то только изображение моей собаки (в запрашиваемых стилях , тут все ок) , хотя в промте указываю дополнительные объекты. А так стилизация, цвета и прочее все четко. А доп объекы не рисует почему-то

    • @atdigit
      @atdigit  Год назад +1

      @@chelnoise7613 Отлично, спасибо за информацию, рад, что Вы преодолели препятствие. Как отметил в ролике, в нашем случае еще важно подобрать удачное текстовое описание, которое бы раскрывало потенциал модели. Без сомнения, наши обученные нейросети способны на большее, чем мы думает. Здесь пока возможно продвигаться только методом проб и ошибок.

  • @dait2004dait2004
    @dait2004dait2004 Год назад +1

    Спасибо! Запустил, но поля для ввода токена не нашел. Хотя это не помешало пройти остальные пункты.

    • @atdigit
      @atdigit  Год назад

      Пожалуйста, Вы правы, поле для токена упразднено, он теперь не требуется. Удачи в ваших экспериментах.

  • @user-uroki
    @user-uroki 3 месяца назад

    какая у вас видеокарта ?

  • @ekasaru7583
    @ekasaru7583 Год назад

    Большое спасибо за видео, очень лёгкая и понятная подача информации на примере. Подскажите, пожалуйста, как более опытный, в чем координальная разница в обучении модели определенному стилю и в обучении Hypernetwork стилю, и, соответственно, если обучил модель, имеет ли смысл как то реализовывать и выбирать Hypernetwork в случае удачного обучения самой модели, ведь по сути обучение Hypernetwork идёт на базе самой модели?

    • @atdigit
      @atdigit  Год назад +1

      Пожалуйста, приятно, что Вам понравилось, спасибо за тёплые слова. Что касается сравнения, не работаю с технологией hypernetwork, в рамках моих экспериментов она себя не очень хорошо показала и я пришёл к выводу что её не стоит задействовать, поэтому и экспертом в этом плане не могу служить. Если Вам действительно нужно сравнение обратитесь к специалисту, я же могу сказать что тот способ, который показываю более эффективен.

    • @ekasaru7583
      @ekasaru7583 Год назад +1

      @@atdigit спасибо за ответ

    • @atdigit
      @atdigit  Год назад

      @@ekasaru7583 Пожалуйста.

    • @user-yv7qn2tw4m
      @user-yv7qn2tw4m Год назад

      гипер нетворк, дреамбуст и ещё какаято это по сути одно и тоже, например в автоматик1111 дреабуст не работает как альтернатива гипернетворк наилучшее решение, дреамбуст это в блокноте работает по большей части корректно а в автоматике нивкакую сплошные глюки.

  • @ChernavskihLife
    @ChernavskihLife 11 месяцев назад

    Подскажите, а как загрузить в colab другую модель , на которой будет происходить обучение?

    • @atdigit
      @atdigit  11 месяцев назад

      Есть несколько способов это сделать - один из вариантов - вставить путь к модели из Hugging Face в ячейку Path_to_HuggingFace, используя формат «профиль/модель», например: runwayml/stable-diffusion-v1-5.

  • @AdamMaykov
    @AdamMaykov Год назад +1

    Правильно яли я понял, что AtDigit я вялется тем самым ключевым словом по которому нейросеть понимает что нужно генерировать. Допустим у меня будет 30 картинок дерева и назову я их tree1. tree2 итд и потом при запрове tree она будет генерировать деревья по мои картинкам?

    • @atdigit
      @atdigit  Год назад

      Вы правильно описали, только необходимо иметь ввиду, что нейросеть, безусловно не будет извлекать смысл из ключевого слова "tree", вставленного в подсказку. Если скажем, Вы обучили нейросеть на изображениях цветов, то по ключевому слову "tree" она будет рисовать цветы, а не деревья.

    • @AdamMaykov
      @AdamMaykov Год назад +1

      @@atdigit а если это будут именно деревья?) ведь именно картинки деревьев я назвал tree 1 tree 2 итд

    • @atdigit
      @atdigit  Год назад

      @@AdamMaykov Все должно получиться. Рассказывайте.

    • @AdamMaykov
      @AdamMaykov Год назад

      @@atdigit не очень понятно к чему В н6аписали рассказывайте) А что за вкладка TRAIN есть в интерфейсе SD как с помощью ее тренировать у Вас есть видео?

  • @User-pq2yn
    @User-pq2yn Год назад +1

    Спасибо! Только начал осваивать СД. День проходит как минута. Скачал портативную версию от "Христ"-а. Но вариант запуска через инет довольно привлекательный, тем более что смогу запускать даже со своего старенького ноута. Правда есть один минус, гугл дает 15гб, из которых почти половина у меня забита, а у меня одних только моделей накопилось гигов где-то на 25

    • @atdigit
      @atdigit  Год назад +2

      Пожалуйста, приятно что Вас также увлекается Stable Diffusion. Желаю успехов. Если осваиваете нейросети с добрыми намерениями, думаю, Google будет не против, если Вы откроете отдельный аккаунт для работы с нейросетью и задействуете новый Google Drive целиком под нее.

    • @TheMaxvin
      @TheMaxvin 10 месяцев назад

      @@atdigit Не сильно поможет, размеры аккаунтов не суммируются. Однако можно перегонять тяжелые файлы(модели) через зашаренные папки.

    • @atdigit
      @atdigit  10 месяцев назад

      Согласен, что деньги решают многие проблемы и если согласится на платную версию то неудобств будет меньше, но в данном случае зритель задаёт вопрос, что делать если у него половина диска заполнена, я предложил бесплатный вариант при котором всё дисковое пространство целиком будет в его распоряжении под задачи нейроиллюстрации, поэтому этот совет гарантированно поможет.

  • @user-mh1dz6xv5z
    @user-mh1dz6xv5z Год назад

    Гуголь)) просто улыбнуло произношение)

  • @liusaart9002
    @liusaart9002 Год назад +1

    Здравсствуйте. Возникает проблема когда я пытаюсь использовать сгенерированный Tokens. Model Download выдает ошибку. При этом модель 1.5 без патча на токен загружается без проблемм. И возможно дальнейшее продолжение действий.

    • @atdigit
      @atdigit  Год назад +2

      Добрый день, вопрос понятен. Обратите внимание, в последней версии Google Colab уже нет поля для ввода Token, теперь он попросту не нужен. Так что если Вы случайно вписали его в какое-то другое место, блокнот выдаст ошибку. Просто игнорируйте токен Hugging Face и продолжайте работу, все должно получиться. Также смотрите на Discord atDigit в каналах "google-colab-ru" и "automatic1111-ru" ответы на популярные вопросы зрителей: discord.gg/5wcpQgxgQ7

    • @liusaart9002
      @liusaart9002 Год назад

      @@atdigit Спасибо

  • @IgorOlyunin
    @IgorOlyunin Год назад +1

    Добрый день, подскажите как повторно зайти на свою модель, на Google диске , заранее спасибо.

    • @atdigit
      @atdigit  Год назад

      Добрый день ищите вашу модель в одной из этих папок: Мой диск > sd > stable-diffusion-webui > models > Stable-diffusion или Мой диск > Fast-DreamBooth > Sessions > "папка с именем вашей сессии" (Соответствующий эпизод ролика ruclips.net/video/pBHv0luw_-k/видео.html)

  • @bolatmukashev2830
    @bolatmukashev2830 Год назад +6

    На 10 картинок - 650 шагов на обучение наверное хватает, если обучаешь стилю, но этого МАЛО если обучать "лицу". Нужно около 1000 шагов, если хотите чтобы модель более менее адекватно воспроизводила ваше лицо

    • @atdigit
      @atdigit  Год назад +1

      Техника новая, так что спасибо, что делитесь опытом. Судя по комментариям создателя показанного блокнота Google Colab, он именно это число для лиц указал, видимо у него другое мнение.

  • @youtobeless
    @youtobeless 10 месяцев назад +1

    Как же вы хорошо объясняете! Большое спасибо. Как вы думаете, возможно ли обучить нейросеть не созданию, а именно ретуши фотографии? Я делаю из фотографий портретные черно-белые клипарты(надеюсь понятно выразился, т.е. из фото делаю что-то вроде черно белого наброска с тенями без оттенков с помощью трассировки или порога в фотошопе) очень хотел такого помощника себе, как у вас теперь:)

    • @atdigit
      @atdigit  10 месяцев назад

      Пожалуйста, приятно, что Вам видео принесло пользу и помогло разобраться, благодарю за теплые слова в мой адрес. Редактирование изображений - более сложная задача, но у меня есть несколько роликов на эту тему. Премьера одного из них сегодня, приглашаю: ruclips.net/video/4JRnVRTKgh4/видео.html

    • @youtobeless
      @youtobeless 10 месяцев назад +1

      @@atdigit благодарю. Обязательно присоединюсь!

    • @miiilfhunteer
      @miiilfhunteer 9 месяцев назад

      Я думаю что так, как адобе фотошоп уже ИИшку для генерации обьектов/замены фона и ретушь фотографии использует в бета версии, то можно взять хорошего прогера, который сможет закодить функцию фотошопа и как-то с этим поработать. То есть что бы картинка автоматически обрабатывалась исходя из каких-то признаков и вы получали готовый результат

    • @youtobeless
      @youtobeless 9 месяцев назад

      @@miiilfhunteer пробовал уже поэтапное наложение фильтров, запрограммированное, на идеальных фото получается нормально, но редко идеальное фото бывает(

    • @miiilfhunteer
      @miiilfhunteer 9 месяцев назад

      @@youtobeless Спасибо за ответ, я думал мне никто не ответит, потому что комменту 1 месяц был) А я для себя только открываю СД, хочу попробовать денег заработать при помощи нейросеток. У вас есть может опыт какой-то? Если что, поделитесь)

  • @KiR_3d
    @KiR_3d Год назад +1

    Почему нельзя обучать на версии 2.1? Или тогда это еще не было доступно?

    • @atdigit
      @atdigit  Год назад +1

      Это возможно и было возможно на момент выпуска ролика, но я не рекомендую.

  • @user-lv1fe8qb6m
    @user-lv1fe8qb6m Год назад +1

    Привет, отличное видео только у меня при запуске model devold выдает такую ошибку Check the link you provided

    • @atdigit
      @atdigit  Год назад

      Пожалуйста, пользуйтесь, присоединяйтесь к Discord ATDIGIT, присылайте скриншот с ошибкой, подскажу в чем может быть проблема.

  • @picservice7872
    @picservice7872 Год назад +1

    а результат до обучения с ключом "continius line"?

    • @atdigit
      @atdigit  Год назад

      Он получается не в моей стилистике.

  • @kittysazonova8921
    @kittysazonova8921 10 месяцев назад

    Первый раз когда делала, все получилось, ссылка работала и даже сгенерила пару раз то что нужно, но потом резко ссылка слетела и больше не работала( повторно все пыталась сделать, на этапе теста кружочек красный был и ссылки в результате не было( почему блин так?:(

    • @atdigit
      @atdigit  10 месяцев назад

      Добрый день, возможно на линии поломка или идет обновление, сделайте паузу на несколько дней и повторите попытку. Если Colab для Automatic 1111 по какой то причине не запускается, Вы можете для тестирования вашей обученной модели воспользоваться Colab для ComfyUI, вот видео где рассказано как это делается ruclips.net/video/Ij8k6mBgL3o/видео.html

  • @user-gs1mo6ts7z
    @user-gs1mo6ts7z Год назад +1

    Здравствуйте в колабе нет строчки хагенфейс. Только строчка патч то хагенфейс

    • @atdigit
      @atdigit  Год назад +1

      Добрый день, новая версия Colab уже не требует ввода токена Hugging Face, так что смело пропускайте эту часть. Path_to_HuggingFace используется для особого случая Custom_model, поэтому, чтобы следовать примеру из видео, оставляйте поле незаполненным. Возможно, Вам также пригодится - на Discord atDigit в каналах "google-colab-ru" и "automatic1111-ru" собраны ответы на популярные вопросы зрителей: discord.gg/5wcpQgxgQ7

    • @user-gs1mo6ts7z
      @user-gs1mo6ts7z Год назад

      @@atdigit Спасибо за ответ. Model Dowloand грузит уже 4й час.Так тоже бывает?

    • @atdigit
      @atdigit  Год назад

      Пожалуйста. Это слишком долго для такогоо процесса. Обычно процесс скачивания занимает несколько минут. Если в течении 20 мин. не наблюдается сдвигов, то необходимо проверить, имеется ли свободное место на Google Drive, если нет, освободить и повторить попытку. Если свободного места достаточно, то тогда стоит сделать паузу на несколько часов (могут вестись техничнеские работы или заняты серверы) и повторить попытку.

    • @user-gs1mo6ts7z
      @user-gs1mo6ts7z Год назад

      Спасибо

  • @TRX_144
    @TRX_144 Год назад +1

    Привет! спасибо за видео - я единственно не понял момент с дообучением модели, мы если модель уже первоначально обучили - должны ее перенести в основную папку и уже обучение вести на основе ее, или же продолжать все тоже самое с базовой моделью и новым набором картинок?

    • @atdigit
      @atdigit  Год назад

      Привет, пожалуйста. Касательно дообучения, где располагать - никуда ничего переносить не нужно, достаточно продолжать, в блокноте Colab описано, что именно достаточно изменить, чтобы запустить второй раз не по новой, а именно в режиме дообучения, задействуя тот файл, который есть.

    • @TRX_144
      @TRX_144 Год назад

      ​@@atdigit Спасибо за ответ

    • @TRX_144
      @TRX_144 Год назад

      @@atdigit Да еще момент - как долго Гугл колабс будет бесплатно давать доступ к тренировкам модели, а то у меня после первой написало что лимит исчерпан и нужно покупать, для дальнейшего использования

  • @GuardCleaner
    @GuardCleaner Год назад

    переименование пачки файлов также можно сделать в файловом менеджере Total Commander, если кому привычнее будет) хоткей Ctrl-M

    • @atdigit
      @atdigit  Год назад

      Спасибо за комментарий.

  • @user-uq3mp2ht6s
    @user-uq3mp2ht6s Год назад +1

    Что делать если в ссылке на колаб нет графы для токена?

    • @atdigit
      @atdigit  Год назад

      Эту графу отменили, поэтому Вам теперь должно быть более удобно - токен не нужно создавать и никуда вводить, просто пропускайте этот пункт и всё будет работать.

  • @elookyanchikai
    @elookyanchikai Год назад +1

    Отсутствует строка custom_model_version 1.5 Действие не выполняется, что делать? При создании сессии пишет: No model found, use the "Model Download" cell to download a model.

    • @atdigit
      @atdigit  Год назад

      Перед запуском кода в блокноте Colab, если выполняете процедуру в первый раз, в разделе Model Download проверьте поле ввода "Model_Vertsion:" и убедитесь в том, чтобы в нем было написано "1.5", а остальные поля в разделе оставались незаполненными. Возможно, Вам также пригодится - на Discord atDigit в каналах "google-colab-ru" и "automatic1111-ru" собраны информация об изменениях и ответы на популярные вопросы, присоединяйтесь: bit.ly/ATDIGITDISCORD

    • @elookyanchikai
      @elookyanchikai Год назад +1

      @@atdigit да выбрана была модель 1.5, но выдавал ошибку, сейчас процесс обучения запустился, спасибо

    • @atdigit
      @atdigit  Год назад

      @@elookyanchikai Понятно, пожалуйста, успехов.

  • @user-uj7gl8td3t
    @user-uj7gl8td3t Год назад +2

    Во время тренировок пишет ошибку ... Что то пошло не так 🥲

    • @atdigit
      @atdigit  Год назад

      Бывает, не сдавайтесь. На Discord atDigit в "google-colab-ru", "automatic1111-ru" и "stable-diffusion-ru" вы можете получить информацию об изменениях и узнать ответы на распространенные вопросы: discord.gg/5wcpQgxgQ7

  • @krio_gen
    @krio_gen Год назад +1

    Нейросеть "Midjourney Diffusion"? Это оговорка на 3:50?

    • @atdigit
      @atdigit  Год назад

      Спасибо что внимательно смотрите) это не оговорка - Stable Diffusion дополнительно натренировали на изображениях Midjourney и новую тонко настроенную нейросеть так назвали.

    • @krio_gen
      @krio_gen Год назад

      @@atdigit но почему мир о ней не знает?) Поиск молчит. Для него просто не существует этой нейросети. Она тайная?)

    • @stasgordon9227
      @stasgordon9227 10 месяцев назад

      @@krio_gen ChatGPT тоже не знает, а мы знаем - как вы лодку назовете))

  • @TheMaxvin
    @TheMaxvin 10 месяцев назад

    А с LoRA Вы не пробовали?

    • @atdigit
      @atdigit  10 месяцев назад +1

      Пробовал. у каждого из этих способов есть свои преимущества и недостатки данное видео посвящено именно дообучению нейросети с Dreambooth дающему наилучший результат с точки зрения качества что наиболее важно для иллюстраторов, на которых оно ориентировано.

  • @JamesHawkinsit
    @JamesHawkinsit Год назад

    есть урок по объединению моделей в одну ?

    • @atdigit
      @atdigit  Год назад

      Не делал такого урока.

    • @JamesHawkinsit
      @JamesHawkinsit Год назад

      @@atdigit а как вообще лучше всего было бы добавить лицо человека в имеющуюся модель? я пока сделал модель "портрет" натренированной на 150 фотках, и подумываю скрестить с другой моделью, которая более качественная по фотореализму, а то если на обычной 1.5 открывать мою модель "портрет", то заметны дефекты или мутации. По вашему уроку кстати сделал, спасибо.

  • @user-et3iu6el4g
    @user-et3iu6el4g Год назад +1

    я так и не понял что такое "Concept Images (Regularization)"

    • @atdigit
      @atdigit  Год назад +2

      В данном примере эта опция не используется, поэтому информация дальше просто для общего развития. Concept Images (Regularization) - это такой дополнительный набор изображений, позволяющий нейросети лучше понять, что изображено на картинках, которые Вы ей предоставляете для обучения. Создавая изображения регуляризации, Вы, по сути, определяете класс того, на что пытаетесь надрессировать нейросеть. Например, если Вы хотите обучить ее рисовать корабли в определенном стиле, Вам может понадобиться сначала создать набор общего плана изображений кораблей для регуляризации. Это для того, чтобы ваше обучение не сместилось в другой класс, скажем, «автомобиль» или «велосипед». Это может также помочь избежать перехода к «игрушечному кораблю», если, скажем, нейросеть и без подсказок понимает, что нужно рисовать корабли, но Вы именно хотите, чтобы она рисовала только настоящие корабли, а игрушечные не использовала. Но опять же, если основной набор изображений подготовлен качественно, объекты изображенные на них легко узнаваемы, то нейросеть и без дополнительного (Concept - Regularization) набора картинок поймет, что Вы от нее хотите и все сделает качественно, что и наглядно продемонстрировано в данном ролике.

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Год назад +2

    3:27 Знакомая фотка)

    • @atdigit
      @atdigit  Год назад +1

      Приятно, что следите.

  • @user-cw1kh5zr3q
    @user-cw1kh5zr3q 11 месяцев назад +1

    Не знаю, как ты снимал видео. Когда перешёл по твоей ссылке там совсем другой интерфейс

    • @atdigit
      @atdigit  11 месяцев назад

      Ну не совсем :) когда я снимал интерфейс был такой как в ролике а сейчас он немного изменился но принципиально особого отличия нет всё можно использовать и эта технология по-прежнему даёт наилучший результат, иак что пробуйте.

  • @AP-sg8wv
    @AP-sg8wv Год назад +1

    Я не очень хорошо слышу, звук в видео такой будто вы с микрофоном были в разных углах комнаты, вроде бы говорите громко но звук рассеивается. Короче говоря, с моим слухом сложно слушать. Тем не менее, большое спасибо за это видео, очень интересно.

    • @atdigit
      @atdigit  Год назад +1

      Пожалуйста, со звуком постараюсь разобраться.

  • @It_hurts
    @It_hurts Год назад +1

    Мне пишет Chec the link you provided что это такое помогите пожалуйста, токен ввёл а всё равно так же (((((

    • @atdigit
      @atdigit  Год назад

      Похоже, проблема с указанием путей к фаллам, проверьте правильность и повторите запуск. Заглядывайте на наш сервер Discord, стараюсь собирать ответы на похожие вопросы, там на канале google-colab-ru приведен скриншот, показывающий как выяснить путь к конкретному файлу на Google Drive.

    • @user-yv7qn2tw4m
      @user-yv7qn2tw4m Год назад +1

      Не вводи токен, поле пусть будет пустым, наверное пофиксили чтото теперь токен не нужен

  • @TesmonM
    @TesmonM 8 месяцев назад

    Мне нужно узнать как натренировать сеть, а тут мне обьясняют для чего это нужно и проводят экскурс в историю. Я сам пришёл, меня не надо уговаривать.

    • @atdigit
      @atdigit  8 месяцев назад +2

      Сожалею что Вы разочарованы - старался дать полную картину, чтобы зритель мог с пониманием принципа работы выполнить практическую часть, при таком подходе обучение нейросети проходит наиболее продуктивно.

    • @TesmonM
      @TesmonM 8 месяцев назад +1

      @@atdigit Извините, это я уже накрученный пришёл. Незаслуженно Вам высказал.

  • @user-gs1mo6ts7z
    @user-gs1mo6ts7z Год назад +2

    Cкажите а у Вас есть урок как отрисовывать в нейросети конкретного человека? Т.е хочу взять фото своей жены и нарисовать ее в разных стилях. Игра престолов или иное фентези . Чтоб лицо ее а все остальное соответствовало стилю.

    • @atdigit
      @atdigit  Год назад +2

      Такого видео нет, при тренировке по портретам этапы в блокноте Google Colab DreamBooth будут аналогичны, тем что показаны в этом ролике, но важно корректно подготовить портретные фото для тренировки - как минимум, сделать подборку в разных ракурсах.

  • @Krovogor
    @Krovogor 11 месяцев назад +1

    А чем это лучше Лора?

    • @atdigit
      @atdigit  11 месяцев назад +1

      Преимущества здесь может быть в том, что результат достигается быстрее и метод более универсален, поскольку Вам не требуется обучать Lora модель, или Вы не имеете достаточно для этого данных, или не знаете, как это делается. Есть еще T2I Adapter style -ruclips.net/video/CUxx8BnZ_uw/видео.html - это просто, быстро и эффективно. Однако, не стоит рассматривать Lora (также как и подбор специализированной версии Stable Diffusion) как противовес T2I Adspter style или его замену, эти нейросети могут взаимно дополнять друг друга. У Lora есть возможность вносить изменения на уровне объектов и пикселов, у T2I Adapter Style на уровне общего стиля. Если Вы внимательно посмотрите примеры, показанные в видео приведенном выше, то увидите, что, T2I Adapter для достижения столь эффектного результата используется не в одиночку, а в комбинации с Lora и тонко настроенной моделью Stable Diffusion. Не упомянул об этом в видео, но подразумеваю, что Вы без труда сможете повторить приведенный пример, т.к. показаны все ингредиенты рецепта.

    • @Krovogor
      @Krovogor 11 месяцев назад +1

      @@atdigit , спасибо за развёрнутый ответ.

  • @thelimb66
    @thelimb66 Год назад +3

    Спасибо огромное, но ГУГЛЬ XD

    • @atdigit
      @atdigit  Год назад

      Пожалуйста.
      Я правильно Вас понял что "XD" - это эмодзи, которое используется для обозначения смеха или радости. Оно представляет собой комбинацию букв "X" и "D", которые напоминают глаза и широко улыбающийся рот. Таким образом, "Гугль XD" вероятно используется для выражения радости или удовольствия от того, что была найдена нужная информация с помощью поисковика "Гугл". Или что-то другое имелось ввиду?

    • @baum9494
      @baum9494 Год назад

      @@atdigit Забавный вариант произношения просто)

  • @user-lv1fe8qb6m
    @user-lv1fe8qb6m Год назад +1

    Есть какой то чат где кто то может помочь, 2 дня уже сижу не могу обучить

    • @atdigit
      @atdigit  Год назад

      Да, есть - присоединяйтесь к нашему Discord, в каналах #нейросети-обсуждение и #geneeral-chat можете задать вопрос подколов скриншот с примером ошибки, Вам обязательно ответят, в "google-colab-ru", "automatic1111-ru" и "stable-diffusion-ru" вы найдете ответы на распространенные вопросы: Приглашаю - discord.gg/5wcpQgxgQ7

  • @EditArtDesign
    @EditArtDesign Год назад +1

    Под каждый стиль нужно использовать новое,определенное слово?? Допустим-сегодня я дал одну партию фото,завтра другую по стилю-так можно??

    • @atdigit
      @atdigit  Год назад +1

      Уточните, о чем идет речь, о самом процессе тренировки нейросети, или о генерации с помощью уже натренированной, тонко настроенной, изображений в определенном стиле?

    • @EditArtDesign
      @EditArtDesign Год назад

      @@atdigit О тренировках!

    • @atdigit
      @atdigit  Год назад +1

      Вас понял. В этом видео предлагается подход, когда нейросеть тренируется на один конкретный стиль, если необходим другой стиль, процесс обучения необходимо провести на новом наборе изображений. Т.е. для работы с двумя стилями Вы создаете две отдельные тонко-настроенные нейросети, каждая из которых имеет кодовое слово для запуска. Хотя они не обязательно должно отличаться, для удобства, делал бы такие запускающие слова разными - для каждой нейросети задавал бы свое кодовое слово.

    • @EditArtDesign
      @EditArtDesign Год назад +1

      @@atdigit А в одну сеть это нельзя сделать,к примеру как модель Deliberate в ней же не все одинаково,там есть разные стили!

    • @atdigit
      @atdigit  Год назад +1

      @@EditArtDesign Верно, есть такое. Но при варианте обучения, как здесь показан, без разделения наборов, добавления описаний и наличия концептуальных изображений, качественно обучить нейросеть сразу в нескольких стилях не получится. Показанная методика предназначена, в первую очередь, для создания работы в одном авторском стиле художником, которые он мог бы использовать в коммерческих целях, т.е. с хорошим качеством и без привлечения чужих стилей, т.е. без нарушения чьих либо авторских прав.

  • @stasgordon9227
    @stasgordon9227 10 месяцев назад

    Натренил через DreamBooth и через Lora на одном и том же наборе фото. Не претендую на истину, но Lora оказалaсь адекватнее.

    • @atdigit
      @atdigit  10 месяцев назад

      Может и такое быть, но всё же при качественном дообучении собственно модели SD шансы получить адекватный результат выше.

    • @stasgordon9227
      @stasgordon9227 10 месяцев назад

      @@atdigit Вижу что Вы перешли с A1111 на ComfyUI. Голосуете за второе?

  • @user-cf1od8jy1q
    @user-cf1od8jy1q Год назад +2

    Там нет Huggingface token

    • @atdigit
      @atdigit  Год назад +1

      Автор блокнота с недавних пор убрал эту опцию. Без него будет еще проще.

    • @user-cf1od8jy1q
      @user-cf1od8jy1q Год назад +1

      @@atdigit я попробовал запустить без этого и не пошло дальше. Подскажите что?

    • @atdigit
      @atdigit  Год назад

      @@user-cf1od8jy1q Сделайте паузу на день-два и повторите попытку. Новая версия, как правило, требует доводки, за это время обычно все ошибки устраняют.

  • @orenyt4633
    @orenyt4633 11 месяцев назад

    Спустя 8 минут обучения колаб стал сам закрывать сессию, как пофиксить непонятно, не тратит все ресурсы, проверено, просто закрывает код и всё

    • @atdigit
      @atdigit  11 месяцев назад

      Добрый день, возможно, канал перегружен, такое периодически случается. В этом случае необходимо отложить работу на несколько часов.

    • @orenyt4633
      @orenyt4633 11 месяцев назад

      @@atdigit а есть опция поменять канал или ещё что-то сделать? Второй день уже такая фигня

    • @atdigit
      @atdigit  11 месяцев назад

      @orenyt4633 Вы можете открыть чистый Google аккаунт под задачу, это поможет если Вы, скажем, выработали время и необходимо продолжить без перерыва, однако если есть какие-то региональные ограничения, связанные с перегрузками на направлении, то это не поможет и в таком случае потребуется подождать или переехать в другое место.

    • @orenyt4633
      @orenyt4633 11 месяцев назад

      @@atdigit а ВПН может помочь в теории?

    • @atdigit
      @atdigit  11 месяцев назад

      Надо пробовать, у меня не возникало необходимости такое делать, поэтому не могу из своего опыта что-то подсказать.

  • @nikolaydd6219
    @nikolaydd6219 7 месяцев назад

    Меня щас укачает...

    • @atdigit
      @atdigit  7 месяцев назад

      Вы с корабля или в самолета смотрите, или это из-за содержания видео, что случилось?

  • @user-qu4dz5of2l
    @user-qu4dz5of2l Год назад +1

    Не работает !

    • @atdigit
      @atdigit  Год назад

      Что именно?

    • @thelimb66
      @thelimb66 Год назад

      @@atdigit на этапе model download сбой спустя 4 секунды. Красный восклицательный знак.ModuleNotFoundError: No module named 'wget'

    • @stasgordon9227
      @stasgordon9227 10 месяцев назад

      @@thelimb66 нетипично, колаб глючит, у меня он тоже через день фокусничает. А во вторых исходник блокнота уже изменился.

  • @yoopi9427
    @yoopi9427 4 месяца назад +3

    мужик, много воды

    • @Dremliny
      @Dremliny 2 месяца назад

      Ноу.итс фор бегиннерс.

  • @yasnizory3292
    @yasnizory3292 11 месяцев назад

    гугыль

  • @uther5565
    @uther5565 Год назад

    гугль

  • @GeorgeClover
    @GeorgeClover Год назад +1

    «Гугль» - каждый раз кринж ловлю

    • @atdigit
      @atdigit  Год назад

      :-)

    • @stasgordon9227
      @stasgordon9227 10 месяцев назад

      c непривычки)

    • @atdigit
      @atdigit  10 месяцев назад +1

      Исправил произношение, в новых выпусках Гугл уже без мягкого знака :) Спасибо, что вслушиваетесь.

  • @orenyt4633
    @orenyt4633 11 месяцев назад

    NameError Traceback (most recent call last)
    in ()
    25
    26 if Remove_existing_instance_images:
    ---> 27 if os.path.exists(str(INSTANCE_DIR)):
    28 get_ipython().system('rm -r "$INSTANCE_DIR"')
    29 if os.path.exists(str(CAPTIONS_DIR)):
    NameError: name 'INSTANCE_DIR' is not defined на моменте 27:29

    • @atdigit
      @atdigit  11 месяцев назад

      Ошибка NameError: name 'INSTANCE_DIR' is not defined означает, что не определена переменная INSTANCE_DIR, которая должна содержать путь к директории, где хранятся ваши данные для обучения. Возможно, Вы ввели неправильный путь. Проверьте свой блокнот и убедитесь что все заполнено так, как показано в ролике. Если ошибка повторится, возможно, какой-то модуль не функционирует в самом Colab, такое периодически происходит, когда система обновляется или превышаются лимиты. В этом случае сделайте паузу на сутки, после чего запустите блокнот повторно.

    • @orenyt4633
      @orenyt4633 11 месяцев назад

      @@atdigit я дурачок 2 модуль не запустил, уже увидел. Сессию не начал. Спс за ответ. А ещё такой вопрос, есть более актуальный коллаб, ибо тут нельзя подгрузить текстовые документы с тегами.

    • @atdigit
      @atdigit  11 месяцев назад

      Пожалуйста. На мой взгляд, это наиболее продвинутый и актуальный блокнот google collab какой только существует для DreamBooth, он обновляется регулярно. Вы можете найти в инструкциях блокнота дополнительные функции для расширенных экспериментов, выходящих за рамки этого видео.

    • @orenyt4633
      @orenyt4633 11 месяцев назад

      @@atdigit тут нет возможности добавить к каждой фотографии "тхт файл" с тегами

    • @miiilfhunteer
      @miiilfhunteer 9 месяцев назад

      @@orenyt4633 Ну что, разобрались с тегами??