Я пересмотрел уже кучу обучающих видео. Твое пока самое удобное, максимально понятное. Жаль до тебя пришлось пересмотреть кучу непонятного и очень много косячного материала. Спасибо за работу. подписка и лайк.
Блииииинннн!!! Чувак!!!! Спасибо тебе! Просто от всей души! Начал установку с одним блогером, потом было еще три. С каждым из них устанавливал, переустонавливал. И все время происходила Ж..ПА. Оболочка запускалась, но ничерта не генерировалось. Из пяти видосов по установке только ты показал нужные строчки для слабых видеокарт. После добавления этого, --opt-split-attention-v1. Моя видяха проснулась и хоть и медленно, но все же нарисовала, кота! Ура! Спасибо!
Хороший видос для тех, кто только начинает. Сам уже как месяц активно пользуюсь sd от automatic и самостоятельно изучал всё, что представлено на видео и даже больше в течении 1-3 недель точно, а тут всё сразу и удобно. Молодец, мужик, продолжай. Если думаешь, о чём снимать новые видео, то, пользуясь случаем, порекомендую изучить и разжевать всем новые (актуальные) версии control net, posex и другие популярные расширения
NaN это не ноль, NaN (Not an Number это не число). Т.е. к примеру если в операции деление на ноль происходит, и код, допустим, сразу не обрывается из-за ошибке, то конечная переменная получит NaN. Во всяких различных рендеринг системах или экранных шейдерах NaNы как правило выглядят как черные квадртаные дырки 2 на 2 пикселя. Допустим если луч попадает на материал у которого в шейдере какая-то проблема из-за которой в результате вычислений возвращает деление на ноль, то на конечном рендере будут черные точки. Хорошо что мне друг прогер в свое время объяснил что это такое :D
Кстати из личного наблюдения: чем больше пишешь промпты, тем сильнее меняется твой стиль переписки в online общении)) Иногда даже по весам в переписке слова раскидываю xDDD Идея для видео - сделать одинакового человека, в одинаковой одежде в разных позах, с разными выражениям эмоций на лице и на разных бэкгранудах (придерживаясь фотореализма). Мне было бы интересно посмотреть реализацию))
Спасибо вам огромное! Было очень полезно. Хочется продолжения или вторую часть видоса, в котором можно будет узнать о том : какие детали, механизмы и прочие моменты необходимо использовать для работы с этой нейросетью. Как работать с фотографиями, например из своей или любой другой фотографии сделать какое то крутое фото, со сохранением оригинальных черт лица например. Я фотограф и мне реально интересно как это можно внедрить в свое творчество, но пока мало нормальной информации об этом. У вас самое лучшее видео за последние несколько месяцев, где вы без лишней воды разжевали и рассказали азы. Поэтому, если вас не затруднит, снимите пожалуйста продолжение, покажите нам как с этим работать, чтобы получать похожие запросы, внедрять, миксовать результат со своим.
Часть ответов на выши вопросы есть в текстовом варианте, найти их можно в моем тг канале. Ну а так да, видеопродолжение планируется. Просто сейчас не хватает времени на это
Кросавчик, сколько балаболов рассказвают ща расскажу все покажу ща ща, только в Бусти зайди заплати....а тут за пару мину все четко ясно по всем важным позициям! Спасибо, прям реально!
Про VAE добавлю, кажется, что сейчас они уже зачастую "запекаются" в сейфтензоры и необходимости качать что-то отдельно нет. Главное проверяйте что написано в описании модели
СД моделей баз ВАЕ не бывает, иначе как ему преобразовывать данные из латентного пространства в пиксельное. Но вот то что кастомный может подходить больше это частенько, но у новых моделей это редко, да. Все научились запекать сразу нормальный
6gb vram вполне достаточно для генерации 1024*1024, для апскейла и LoRA (ноутбучная rtx 3060), и никаких доп параметров, кроме xformers, прописывать не надо, так что это скорее вредный совет) в остальном же видео хорошее, для новичков будет очень полезное
@@Neural.Academy а я и не говорил, что генерация в этом разрешении - хорошая идея, но как показатель, что 6гб vram достаточно для большинства операций, в том числе и апскейла, по крайней мере в нормальные 4к можно вывести изображение, дело лишь прямых рук. Суть-то моего сообщения не в том, а в том что прописывать лишние параметры не надо, я уже давно занимаюсь нейросетями и использую их в своих проектах, в том числе и коммерческих, и кроме xformers ничего не использовал, а на последнем пайтоне и торч дела с производительность ещё лучше. Не сочтите за укор, я просто выражаю свое мнение, основанное на опыте, и как-то задеть вас не пытался
@@stanislavmokhov7246 никаких укоров, просто обсуждаем плюсы и минусы Ждя моих задач мне 6гб никак не хватит, даже с оптимизациями, потому что очень часто использую апскейл именно через хайрез фикс и ему нужно много памяти и использую от 2 до 4 котролнетов. С таким сценарием упираюсь даже в свои 10 и постоянно приходится выкручиваться. В общем я к тому что задачи у всех разные.
@@Neural.Academy Согласен. Даже, наверное, не столько разные задачи, сколько разные пути решения этих задач. Без сомнения, большинство вещей на более мощном железе можно сделать гораздо быстрее, когда как на менее мощном приходится поломать иногда голову и потратить больше времени для получения того же результата, но это мне и нравится в СД, больше возможностей, больше инструментарий, больше контроля, в отличии от какого-нибудь миджорни с его красивостями из коробки) вот три контрол-нета с хайрезом моя видюшка уже не вывезет)
@@stanislavmokhov7246 Тогда помогите советом пжл человеку только начинающему в SD. Но начинать приходится на macbook m1 с (16 RAM). Генерация 1 картинки 512*512 примерно 40-50 сек. Попробовала апскейл сделать в полтора раза из 1024 и все, думала, что вообще потеряю комп 🙈Полтора часа тупежа и в итоге так ничего и не вышло толкового... Гугл Колаб послал подальше...
Если само имя лоры не имеет смысла то все равно. Если все же распознается моделью как токен то зависит от того насколько сильно нужно его проявления. Так как замечено что осмысленные названия лор подхватываются как токен
Здравствуйте! Спасибо за видео! У меня есть один вопрос: у меня видеокарта 12гб, но генерировать изображения в full hd не могу, пишет в консоли, что недостаточно памяти. Это нормально? Или можно сделать какие-то процедуры? Пробовал добавлять lowvram, medvram, результаты не изменились, максимальное разрешение допустимо 768х768...
Генерировать изображения нужно в меньшем разрешении, затем изображение нужно апскейлить, что бы повысить разрешение без потери качества. Все это делается с помощью расширении. Сам сейчас со всем этим разбираюсь.
@@Neural.Academy загрузила правильно, в самом окне после обновления вкладки начинается загрузка модели и она сбрасывается, методом проб скачивания других моделей поняла, что мой комп просто не тянет некоторые модели , да в и принципе не тянет эту прогу, даже советы не особо помогли, но все равно огромное спасибо за доступные объяснения, буду копить на хорошую видеокарту и снова вернусь к вашим интересным обучалкам 🥰
Прошерстил почти все уроки, и 99 из 100 это про то, как сгенерить аниме девочку) Почти нет видео про то, как архитектуру генерить, ландшафты, предметы итд, везде люди и персонажи. Это и лоры касается, все обучающие видел про то, как тренировать лору для генерации девки. Неужели людям больше ничего не интересно? Аниме девки и котики, вот и весь спектр комьюнити
Привет. После обновления SD до версии 1.7.0, пропали две кнопки под большой оранжевой кнопкой Generate и остались только три - синяя стрелка, корзина, листик. Как вернуть остальные кнопки, кто занет?
@@dfinagin Слушай. Ну если ты такое видел значит есть способ. Возможно их вывод перенесли в настройки, а возможно кто-то сделал расширение. Но я обычно соглашаюсь с видением разработчиков потому что поддержка расширений не вечная. Лучше сразу привыкать к новому варианту
Такой вопрос. Почему в некоторых файлах отсутствует упоминание модели? Перетаскиваешь PNG/JPG в промт, и в последней строчке есть Model hash, но нет Model. От чего это зависит? И нет ли возможности, чтобы модель сама менялась в checkpoint?
Помогите! На базовой модельке рисует. Добавил вот эту модель; sdXL_v10VAEFix.safetensors [e6bb9ea85b]. Из пяти попыток один раз нарисовало. А остальные попытки пишет вот это: OutOfMemoryError: CUDA out of memory. Tried to allocate 1024.00 MiB. GPU 0 has a total capacty of 4.00 GiB of which 0 bytes is free. Of the allocated memory 2.35 GiB is allocated by PyTorch, and 128.55 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF Time taken: 2 min. 28.4 sec. Что делать?
Это что-то вроде уникального имени для именно этой версии модели. Не меняется если например переименовать файл. Его не нужно менять, он нужен чтобы знать на какой модели была сгенерирована картинка например
Эксперимент с промтом underwater на фиксированном сиде показал, что если на изображении есть человек и рыбы, даже если их написать в негативный промт, то они останутся на генерации. Означает ли это, что промт и негативный промт оказывают влияние на значение сида (т.е. в сиде может быть "вшито" много параметров), и если мы зафиксировались на каком-либо сиде, то глобальных изменений от редактирования промта (по крайней мере, негативного) можно не ждать?
Нет, но сид привязывается к композиции, иногда можно поменять половину промпта сохранив например человека в нижнем правом углу. Если нужен именно этот сид, но не нужен человек и рыбы нужно увеличить вес негатива или добавить синонимы
у меня 960 4гб и суваться стоит), картинка(22 шага) и разрешении 640-640 делается 55-65 секунд(без xformers, с ним 50-60сек). Разрешение 512-512, делается 30-40 сек(без xformers, с ним быстрее). Изначально думал, что вообще не запустится на моей видяхе, а если и запустится, то картинки по 3-5 минут делаться будут, как многие говорили и говорят.
@@sancheek1421 что за процессор у вас? у меня на работе 1660super а проц amd fx4300, дак у меня больше минуты занимает все это дело... 640*640, а на апскейлинге даже с 512*512 на 1.5 просто ошибку выдает по памяти, пробовал и lowvram и medvram
Знает ли кто-нибудь, как исправить ошибку, которая у меня появилась после установки automatic 1111 и заключается в том, что SD у меня считает не на видеокарте, а на на процессоре и делает это ооооооооооочень медленно
@@Neural.Academy нет, комп, при чём такая проблема возникает только при установке automaic 1111, может это был не тот ворк))) удивился сначала, что рендер показывал больше часа, а как увидел большую загрузку процессора, то понял, что здесь не так
RuntimeError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check всегда это говно, сколько бы я не переустанавливал гит, пайтон, саму оболочку, всегда эта ошибка. я это делаю на ноуте с процом i5 1155g7 и встроенной графикой Xe 8гб видео памяти. что делать с этой хренью?
Для встроенной интелграфики эта инструкция не подходит. Тут для нвидиа. Посмотри в репозитории automatic1111 вроде видел там для интел. Но сразу могу сказать что производительность будет так себе
как же надоела эта постоянная херня от разработчиков! Всё время лезут, что то меняют, учиться по роликам становится почти невозможно! Сунешься в какие нибудь настройки. а там уже всё переворочено, переназвано и запрятано хер знат куда!
Кто знает тот знает, кто не знает тому объяснение не нужно, трата времени. Но вообще да. Я часто использую упрощения, если нужно все супер точно то лучше поискать другого человека, я и сам предпочитаю точность
Я пересмотрел уже кучу обучающих видео. Твое пока самое удобное, максимально понятное. Жаль до тебя пришлось пересмотреть кучу непонятного и очень много косячного материала. Спасибо за работу. подписка и лайк.
Блииииинннн!!! Чувак!!!! Спасибо тебе! Просто от всей души! Начал установку с одним блогером, потом было еще три. С каждым из них устанавливал, переустонавливал. И все время происходила Ж..ПА. Оболочка запускалась, но ничерта не генерировалось. Из пяти видосов по установке только ты показал нужные строчки для слабых видеокарт. После добавления этого, --opt-split-attention-v1. Моя видяха проснулась и хоть и медленно, но все же нарисовала, кота! Ура! Спасибо!
А должна была анимешную тянку.
Хороший видос для тех, кто только начинает. Сам уже как месяц активно пользуюсь sd от automatic и самостоятельно изучал всё, что представлено на видео и даже больше в течении 1-3 недель точно, а тут всё сразу и удобно. Молодец, мужик, продолжай. Если думаешь, о чём снимать новые видео, то, пользуясь случаем, порекомендую изучить и разжевать всем новые (актуальные) версии control net, posex и другие популярные расширения
Тож самое, более того, я уже успел поработать за денюжку в нейронке, но иногда знания размываются и такие видосы полезно порой посмотреть)
Достойно, ничему новому не научился, но видео считаю полезным, автору респект
Спасибо за подробное разжёвывание! Всё досконально понятно.
NaN это не ноль, NaN (Not an Number это не число). Т.е. к примеру если в операции деление на ноль происходит, и код, допустим, сразу не обрывается из-за ошибке, то конечная переменная получит NaN.
Во всяких различных рендеринг системах или экранных шейдерах NaNы как правило выглядят как черные квадртаные дырки 2 на 2 пикселя. Допустим если луч попадает на материал у которого в шейдере какая-то проблема из-за которой в результате вычислений возвращает деление на ноль, то на конечном рендере будут черные точки.
Хорошо что мне друг прогер в свое время объяснил что это такое :D
Видео для не программистов)
@@Neural.Academy Ну тем не менее, вдруг человек заинтересуется, чтобы не вводить в заблуждение)
"Not a Number", если быть точнее)
@@casp3r177 Да. Видимо мне две буквы Н подряд сбили, бог троицу любит)))
@@Neural.Academy это вовсе не означает, что нужно давать некорректную информацию :)
Но за ролик, определённо, лайк
Очень даже спасибо ОГРОМНОЕ!!! Подписался, потому что Вы досконально всё объяснили, что у других не нашёл...
Кстати из личного наблюдения: чем больше пишешь промпты, тем сильнее меняется твой стиль переписки в online общении)) Иногда даже по весам в переписке слова раскидываю xDDD Идея для видео - сделать одинакового человека, в одинаковой одежде в разных позах, с разными выражениям эмоций на лице и на разных бэкгранудах (придерживаясь фотореализма). Мне было бы интересно посмотреть реализацию))
+
Спасибо за вашу работу!
Спасибо вам огромное! Было очень полезно. Хочется продолжения или вторую часть видоса, в котором можно будет узнать о том : какие детали, механизмы и прочие моменты необходимо использовать для работы с этой нейросетью. Как работать с фотографиями, например из своей или любой другой фотографии сделать какое то крутое фото, со сохранением оригинальных черт лица например.
Я фотограф и мне реально интересно как это можно внедрить в свое творчество, но пока мало нормальной информации об этом. У вас самое лучшее видео за последние несколько месяцев, где вы без лишней воды разжевали и рассказали азы. Поэтому, если вас не затруднит, снимите пожалуйста продолжение, покажите нам как с этим работать, чтобы получать похожие запросы, внедрять, миксовать результат со своим.
Часть ответов на выши вопросы есть в текстовом варианте, найти их можно в моем тг канале. Ну а так да, видеопродолжение планируется. Просто сейчас не хватает времени на это
Спасибо за исчерпывающую информацию!
Спасибо за видео!
Кросавчик, сколько балаболов рассказвают ща расскажу все покажу ща ща, только в Бусти зайди заплати....а тут за пару мину все четко ясно по всем важным позициям! Спасибо, прям реально!
Угу. Ещё и интерфейс купи! 😁
Хруст, он такой😂😂😂
хвала тебе мужик за темную тему.
огромное большущее спасибо👍👍👍👍👍
Полезное видео, спасибо!
cпасибо за контент ) подписался с 2 акков, рабочего и домашнего )
Про VAE добавлю, кажется, что сейчас они уже зачастую "запекаются" в сейфтензоры и необходимости качать что-то отдельно нет. Главное проверяйте что написано в описании модели
СД моделей баз ВАЕ не бывает, иначе как ему преобразовывать данные из латентного пространства в пиксельное. Но вот то что кастомный может подходить больше это частенько, но у новых моделей это редко, да. Все научились запекать сразу нормальный
Deliberate v3 просто божественна
6gb vram вполне достаточно для генерации 1024*1024, для апскейла и LoRA (ноутбучная rtx 3060), и никаких доп параметров, кроме xformers, прописывать не надо, так что это скорее вредный совет) в остальном же видео хорошее, для новичков будет очень полезное
Работа в сд не ограничивается генерациями в заданном разрешении. И генерировать в 1024 плохая идея, особенно на 1.5
@@Neural.Academy а я и не говорил, что генерация в этом разрешении - хорошая идея, но как показатель, что 6гб vram достаточно для большинства операций, в том числе и апскейла, по крайней мере в нормальные 4к можно вывести изображение, дело лишь прямых рук. Суть-то моего сообщения не в том, а в том что прописывать лишние параметры не надо, я уже давно занимаюсь нейросетями и использую их в своих проектах, в том числе и коммерческих, и кроме xformers ничего не использовал, а на последнем пайтоне и торч дела с производительность ещё лучше. Не сочтите за укор, я просто выражаю свое мнение, основанное на опыте, и как-то задеть вас не пытался
@@stanislavmokhov7246 никаких укоров, просто обсуждаем плюсы и минусы Ждя моих задач мне 6гб никак не хватит, даже с оптимизациями, потому что очень часто использую апскейл именно через хайрез фикс и ему нужно много памяти и использую от 2 до 4 котролнетов. С таким сценарием упираюсь даже в свои 10 и постоянно приходится выкручиваться. В общем я к тому что задачи у всех разные.
@@Neural.Academy Согласен. Даже, наверное, не столько разные задачи, сколько разные пути решения этих задач. Без сомнения, большинство вещей на более мощном железе можно сделать гораздо быстрее, когда как на менее мощном приходится поломать иногда голову и потратить больше времени для получения того же результата, но это мне и нравится в СД, больше возможностей, больше инструментарий, больше контроля, в отличии от какого-нибудь миджорни с его красивостями из коробки) вот три контрол-нета с хайрезом моя видюшка уже не вывезет)
@@stanislavmokhov7246 Тогда помогите советом пжл человеку только начинающему в SD. Но начинать приходится на macbook m1 с (16 RAM). Генерация 1 картинки 512*512 примерно 40-50 сек. Попробовала апскейл сделать в полтора раза из 1024 и все, думала, что вообще потеряю комп 🙈Полтора часа тупежа и в итоге так ничего и не вышло толкового... Гугл Колаб послал подальше...
Просто огромный поклон тебе что всё так прекрасно объяснил !!!!!
если каждую сторону прямоугольника увеличить в 2 раза, то прямоугольник увеличиться в 4 раза. удивительно, но факт!)))
Кстати в промте с , ее куда указывать лучше, в конце или в начале промта? Ибо часто вижу примеры с ней в конце.
Если само имя лоры не имеет смысла то все равно. Если все же распознается моделью как токен то зависит от того насколько сильно нужно его проявления. Так как замечено что осмысленные названия лор подхватываются как токен
@@Neural.Academy как знать что лора распознается как токен?
@@TheMaxvin можно погенерировать ее токен несколько раз. Если генерируется что-то похожее и конкретное то распознается
@@Neural.Academy не совсем понял про "несколько раз"
@@TheMaxvin По одной генерации можно не понять что генерируется что-то конкретное. Нужно сделать несколько генераций
Благодарю за видео!
Подскажите пожалуйста, на какой модели свою Лору лучше трейнить, чтоб использовать в артах?
Спасибо
Такой вопрос. У меня стоит 2 видеокарты, одни Intel другая игровая. Как сделать так, чтобы работала игровая карта при рендере?
Искал ответ, не нашел
Если не хочется удалять прочие версии Python, что прописать правильно в файле запуска, чтобы он нужную подхватывал?
А что там насчет Google collab и AMD?
Спасибо за видос, а если всё это использовать, подскажите добрые, в фотошопе через плагин, куда добавить --api ?
в файл webui_user.bat в строчку arguments
Здравствуйте! Спасибо за видео! У меня есть один вопрос: у меня видеокарта 12гб, но генерировать изображения в full hd не могу, пишет в консоли, что недостаточно памяти. Это нормально? Или можно сделать какие-то процедуры? Пробовал добавлять lowvram, medvram, результаты не изменились, максимальное разрешение допустимо 768х768...
Генерировать изображения нужно в меньшем разрешении, затем изображение нужно апскейлить, что бы повысить разрешение без потери качества. Все это делается с помощью расширении. Сам сейчас со всем этим разбираюсь.
@@frem83 теперь понятно, посмотрел видео более внимательно, буду знать)
подскажите, RTX 2080 super 32gb подходит для подобных задач или уже слабая?
Подходит
здравствуйте, подскажите почему могут не работать установленные модели?
А что значит не работать? Не показываются? Скорее всего закинули не в ту папку. Генерируют фигню? Скорее всего скачали не верные модели
@@Neural.Academy загрузила правильно, в самом окне после обновления вкладки начинается загрузка модели и она сбрасывается, методом проб скачивания других моделей поняла, что мой комп просто не тянет некоторые модели , да в и принципе не тянет эту прогу, даже советы не особо помогли, но все равно огромное спасибо за доступные объяснения, буду копить на хорошую видеокарту и снова вернусь к вашим интересным обучалкам 🥰
На Маке можно работать в Стейбл Дифьюжн?
Прошерстил почти все уроки, и 99 из 100 это про то, как сгенерить аниме девочку) Почти нет видео про то, как архитектуру генерить, ландшафты, предметы итд, везде люди и персонажи. Это и лоры касается, все обучающие видел про то, как тренировать лору для генерации девки. Неужели людям больше ничего не интересно? Аниме девки и котики, вот и весь спектр комьюнити
Привет. После обновления SD до версии 1.7.0, пропали две кнопки под большой оранжевой кнопкой Generate и остались только три - синяя стрелка, корзина, листик. Как вернуть остальные кнопки, кто занет?
Привет. Никак кроме как делать откат версии. Экстрасети переехали и теперь они над настройками генерации
@@Neural.Academy спасибо за ответ. Просто видел версию 1.7.0 на другом канале с 5 кнопками. Думал это как то настраивается.
@@dfinagin Слушай. Ну если ты такое видел значит есть способ. Возможно их вывод перенесли в настройки, а возможно кто-то сделал расширение. Но я обычно соглашаюсь с видением разработчиков потому что поддержка расширений не вечная. Лучше сразу привыкать к новому варианту
Такой вопрос. Почему в некоторых файлах отсутствует упоминание модели? Перетаскиваешь PNG/JPG в промт, и в последней строчке есть Model hash, но нет Model. От чего это зависит? И нет ли возможности, чтобы модель сама менялась в checkpoint?
Помогите! На базовой модельке рисует. Добавил вот эту модель; sdXL_v10VAEFix.safetensors [e6bb9ea85b]. Из пяти попыток один раз нарисовало. А остальные попытки пишет вот это: OutOfMemoryError: CUDA out of memory. Tried to allocate 1024.00 MiB. GPU 0 has a total capacty of 4.00 GiB of which 0 bytes is free. Of the allocated memory 2.35 GiB is allocated by PyTorch, and 128.55 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Time taken: 2 min. 28.4 sec. Что делать?
а функция hires fix зачем нужна? заметил если ее включать, то картинка становится в 10 раз лучше и лица нормальные
Увеличивает разрешение изображения в середине генерации, а вместе с ним детализацию. Оплата скоростью и требует довольно много видеопамяти
когда скачиваем модели - чо там за hash такой? Как его менять?
Это что-то вроде уникального имени для именно этой версии модели. Не меняется если например переименовать файл. Его не нужно менять, он нужен чтобы знать на какой модели была сгенерирована картинка например
Привет, а в чем может быть проблема когда изображение не показывает приходится открыть папку для просмотра
Устанавливал по моей инструкции? Не показывать может из за настроек превью, смотри в сеттингс или из за бага
@@Neural.Academy да сейчас пробую переустановить заново. Может что то не скачало. Спасибо за ответ.
Эксперимент с промтом underwater на фиксированном сиде показал, что если на изображении есть человек и рыбы, даже если их написать в негативный промт, то они останутся на генерации. Означает ли это, что промт и негативный промт оказывают влияние на значение сида (т.е. в сиде может быть "вшито" много параметров), и если мы зафиксировались на каком-либо сиде, то глобальных изменений от редактирования промта (по крайней мере, негативного) можно не ждать?
Нет, но сид привязывается к композиции, иногда можно поменять половину промпта сохранив например человека в нижнем правом углу. Если нужен именно этот сид, но не нужен человек и рыбы нужно увеличить вес негатива или добавить синонимы
@@Neural.Academy спасибо за информацию. Вообще, у меня не было цели сохранять именно этот сид, я просто хотел понять как это все работает.
На AMD есть смысл пробовать?
Скорость генерации будет намного ниже, но если есть сильное желание то можно и попробовать. Только там свои нюансы настройки
Что-то не получилось с темной темой. Осталось как было. Может от версии зависит?
возможно неверно прописал команду. Можно просто вот эту ссылку в закладки добавить 127.0.0.1:7860/?__theme=dark
@@Neural.Academy ого, спасибо
а как вывести настройки соотношения сторон 16:9 и т.д в быстрый доступ
Расширение есть. Что-то там ratio
писать opt-split-attention-v1 - или opt-split-attention-vl ??? в таком блокноте почти одинаково отображаеться
1. Все команды есть в кописании к видео)
поставьте Notepad++ удобная замена обычному блокноту
Ничё у тебя моделей то сколько! Один СД наверно на террабайтном диске стоит.
а если лицо кривое постоянно? что делать тогда?
А есть смысл соваться с GTX970 4Gb?
картинка будет долго делаться, 3 минуты примерно, также высокое разрешение не получится сделать
@@djeskisurf спасибо.
у меня 960 4гб и суваться стоит), картинка(22 шага) и разрешении 640-640 делается 55-65 секунд(без xformers, с ним 50-60сек). Разрешение 512-512, делается 30-40 сек(без xformers, с ним быстрее). Изначально думал, что вообще не запустится на моей видяхе, а если и запустится, то картинки по 3-5 минут делаться будут, как многие говорили и говорят.
@@sancheek1421 что за процессор у вас? у меня на работе 1660super а проц amd fx4300, дак у меня больше минуты занимает все это дело... 640*640, а на апскейлинге даже с 512*512 на 1.5 просто ошибку выдает по памяти, пробовал и lowvram и medvram
Знает ли кто-нибудь, как исправить ошибку, которая у меня появилась после установки automatic 1111 и заключается в том, что SD у меня считает не на видеокарте, а на на процессоре и делает это ооооооооооочень медленно
Если ноут то добавь --device-id 1 в параметры запуска
@@Neural.Academy нет, комп, при чём такая проблема возникает только при установке automaic 1111, может это был не тот ворк))) удивился сначала, что рендер показывал больше часа, а как увидел большую загрузку процессора, то понял, что здесь не так
@@ИванТривов качал через оф метод? странно
А сильно ли греется карта при генерации?
у меня до 45 градусов макс но я делал андервольт и настраивал вертушки а создавал свою модель 4 часа
RuntimeError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check всегда это говно, сколько бы я не переустанавливал гит, пайтон, саму оболочку, всегда эта ошибка. я это делаю на ноуте с процом i5 1155g7 и встроенной графикой Xe 8гб видео памяти. что делать с этой хренью?
Для встроенной интелграфики эта инструкция не подходит. Тут для нвидиа. Посмотри в репозитории automatic1111 вроде видел там для интел. Но сразу могу сказать что производительность будет так себе
@@Neural.Academy спасибо, щас буду ещё пытаться делать
не знаю почему но у меня нету менюшки SD VAE. хотя я скачал и в папку закинул
Пересмотрите раздел про быстрые настройки
@@Neural.Academy а точно, благодарю =)
похожу авторы rev animated платят всем блоггерам за рекламу, 99% видео про автоматик используются этот рев анимейтед
че делать если не генирирует картинки
Слишком расплывчато. Зайти в наш чат, опиши проблему подробнее
Поделись темой винды!)
Так это одна из стандартных на винде 11)
Всё верно, стандартная тема вин 11
как же надоела эта постоянная херня от разработчиков! Всё время лезут, что то меняют, учиться по роликам становится почти невозможно! Сунешься в какие нибудь настройки. а там уже всё переворочено, переназвано и запрятано хер знат куда!
после того как услышал , что None это ноль, интерес к видео сразу пропал.
Кто знает тот знает, кто не знает тому объяснение не нужно, трата времени. Но вообще да. Я часто использую упрощения, если нужно все супер точно то лучше поискать другого человека, я и сам предпочитаю точность
Короче как была эта сеть анимэ генератором так и осталось, бесполезная штука для профессионалов. Жаль
Зависит от области где это профессионалы работают. Многие уже успешно применяют то что есть
ты можешь больше ночью не записывать, чтоб говорить громко и четко!!!!!
Большое спасибо, просто огромное спасибо!
Спасибо большое за труды
Спасибо! Очень познавательно!