все супер) благодарю) вы молодец! Правильно говорите. Ничего и никого они не заменят. Нужно подружиться с этим чудо инструментом. И сделать его своим помощником! Как референсы именно в позе как тебе надо. Не будет больше споров из какой картинки ты взяла и похожести. Все давно уже было. Но тут ты генерируешь именно то что тебе нужно. В большей части. Так же как вдохновение даже для скульпторов и полимерщиков. Он генерирует новые идеи. И даже новые стилистики. Инструмент облегчает работу в 2 раза. Ждем с нетерпением новых проектов и секретиков!
я добилась сохранения внешности персонажа (человека) в различных сценах при выборе функции ремикс мод. я отобрала фотографии нескольких моделей разного типажа, залила их ссылками перед текстовым запросом - и получился смиксованный персонаж с уникальной внешностью. далее оставляю ссылки на эти же фотографии и меняю текстовые запросы. получаются отличные серийные рисунки. я работала в фотореалистичном стиле. остается проблема с одеждой - она разная. намного хуже это срабатывает с животными, если приводить реалистичные фото. например, если вам нужно проилюстрировать книгу. если брать за основу популярного персонажа, например, мистера кролика - все выглядит лучше...
Привет! Разобралась как делать в полный рост. В общем упор запроса должен быть на полный рост и начинаться с этого запроса. Без прилагательных типа «красивая женщина» и тд. Мне в работе нужны фэшн фигуры чтобы рисовать на них одежду для бренда. Так вот. Я потратила массу времени на разные промты. Но он выдавал по пояс или по ключицы. Теперь ввожу «full body fashion model” и это отлично работает. Либо по колено, либо во весь рост. Но, видимо она запрограммирована не показывать никакого adult контента, поэтому все модели укутанные. Что было мне ненужно, я добавила «retro swimsuit” (ретро потому что купальник более закрытый и она его сгенерирует, обычный купальник она просто проигнорирует) и тогда получила все что мне нужно. Их нужно быстро скачать тк они удаляются сразу из-за содержания 60% открытого тела.
Спасибо за ваши ролики Софья! Рубрика с новостями тоже очень нравится! Очень вдохновляют, уже месяц вечерами пытаюсь выхватить хотя бы час и делаю свой комикс) Хотя от иллюстрации очень далек) По поводу похожих лиц, пробовал к созданному в MJ персонажу добавлять ссылку к промпту и в самом промпте не менять ничего из настроек стиля и тд, а менять только действие и описание эмоции, получается так немного направить и получить разные изображения с одним лицом, но сложности есть)) Если у вас есть телеграмм и вам интересно - могу поделиться результатами
По поводу использования миджорней в работе - мне немножко пригодилось, когда не хватало иллюстративного материала к презентации. Презентация была про еще не разработанную игру, и арт был не по всем локациям, с помощью нейросетки удалось вставить более красивые картинки (без нее там были бы референсы из гугла)
У меня есть профиль на шаттере и я не помню чтоб они спрашивали нашего разрешения на использования наших файлов. Но недавно увидела в своем аккаунте начисления, как от продаж, хотя продаж не было. Хочу сказать что эти отчисления не просто смешны, они унизительны и комичны - 0,002 цента 🤦♀️😜 заплатили, не пожадничали прямо
режим Blend сделан для удобства с мобайл версии, а на десктопе достаточно загружать фото через обычный промт. По поводу стилистики, в оф. документации написано что 4 версия только как пример берет ваш исходник, для того чтобы стиль применять попробуйте 3 версию но с параметром веса --iw ( в 4 версии это "::1 " но работают они все-же по разному)
Отчисления за использование изображений это хорошая мысля. Но пока это будет работать только для «внутреннего» использования на арт-хабах. А миджорни это пока такая пиратская бета-нейросеть. Она без спросу берёт чужие работы 🤷♀️🙈 Но думаю, скоро все эти юридические механизмы заточат под новую нейрореальность. Пока же наиболее безопасный способ - использовать в качестве рефа(особенно для традиционных художников под акрил-акварель-масло 😂). Либо значительно менять картинку в процессе отрисовки(раньше это называлось «обмазывать»). Кстати, миджорни сама генерит неплохие 3д модели. Я пыталась понять как это работает, загружала по команде /blend свои рисунки и смотрела как она их совмещает. Такое ощущение, что она реально пытается как будто на какую-то модель «натягивать» uv-карту из загруженных картинок 😮 Очень коряво на загруженных, но вполне неплохо на некоторых запросах работает. Например создаёт всяких милых персонажей. Буквально генерит их с разными атрибутами и это интересно. Но без разных поз и ракурсов😔Однако без дорисовки не обходится всё равно. Многоножки 😅 Так же интересно сработала генерация по лайн-скетчу. Просто левой пяткой набросала лайном скетч(дерево, горный фон, человек под деревом) загрузила его с описанием и она сгенерила вполне приличную иллюстрацию! Практически точно по скетчу! Это направление прям очень хочется чтобы развивалось! Потому что тогда творческий процесс реально можно будет назвать достойной *коллаборацией* и авторское право не нужно будет оспаривать.
Нейросеть - это инструмент, такой же, как мольберт и краски. Идею создаёт человек, смыслы создаёт человек, а не инструмент. Если кто то считает иначе, пусть докажет, что инструмент обладает свободой воли и свободой творить без воли человека
Обучение нейросити авторскому стилю уже есть. Как раз 2-ой день мучаю Stable Diffusion на эту тему. Есть видеоурок на ютубе. Результат, правда, очень не очень. Или же я что-то не так делаю, там столько настроек 🥲
Да, я тоже читала, что SD можно научить своему подходу, но для этого, кажется, нужно разворачивать её на своем компьютере. Я пока очень слабо знакома с этой сетью, но со временем исправлюсь :)
@@sophiamiroedova не обязательно на своем компьютере, можно использовать Google Colab, он берет всю нагрузку на себя удаленно. Мидджорни пока выдает результаты красивее (на мой вкус), но у SD открытый код, много людей, которые делают свои дообученные модели и скоро доработают 2 версию. Вообще с этими нейронками хватаюсь за голову, в какую сторону бежать, чтобы хоть куда-то успеть 😅
@@ksanag3426 согласна, глаза разбегаются! Меня ещё немного напрягает количество кода))) Хотя так или иначе периодически имею с ним опосредованное взаимодействие) Но хотелось бы более удобного инструментария 😅
@@sophiamiroedova Все что нужно - 25 ГБ свободного места и скачать и распаковать папку на 6-7 Гб. Ну и посмотреть 5-10 обучающих видео по Stable Diffusion. Она сильно гибче того же Миджерни. Там и стиль можно создать и научить воспроизводить одного и того же персонажа в разных амплуа и позах. Дорисовывать, менять часть изображения. Даже встроить в фотошоп можно . Эта сеть должна закрыть большую часть Ваших потребностей и озвученных проблем. Посмотрите плейлист по Stable Diffusion пользователя ХрисТ . Там же найдете протативную версию нейросети не требующую установки
@@sophiamiroedova sd в принципе не разворачиваема "на своем компьютере" если у вас мак. Как я понял из своего опыта, минимум, на котором это все будет вменяемо работать - это видеокарта ценой примерно от $2к и выше и это только nvidia. То есть маки идут мимо. Но есть решение. Это или использовать playground (цены что-то типа $9 за тысячу картинок или $49 за много тысяч картинок с возможностью загрузки собственной модели) или Collab или пойти дальше, я бы сказал пойти по жести и арендовать сервер для машинного обучения (примерно $0.5 или около того в час). Я так и сделал. Сейчас я параллельно использую Collab и сервер с самыми разными видео картами. Да, надо разбираться. Но можно работать на своих моделях, обучать своему стилю, а авторские права на картинку в sd принадлежат только вам. И я вообще не уверен, что картинки из mj можно без трансформации как-то использовать без подписки для "агенств". Что там их полиси говорит за права? А sd это open source, так что считаю ее самой перспективной системой на февраль 2023, в отличии от mj, которая сегодня работает, а завтра перестанет, или продолжит, но за невменяемые деньги. В sd у вас болит голова только за ресурсы, а не за фантазию монополиста (а mj безусловный монополист для "домохозяек") в области авторского права в их собственной трактовке.
Касательно одинакового персонажа, под выбранной картинкой нажмите в реакциях конверт. Вы получите seed с номером. Затем сгенерируйте тот же запрос, что-то добавьте, например профиль и обязательно seed, который вы получили
Получается тоже так себе, пробовала неоднократно, не дотягивает даже до того, чтобы об этом упоминать :( Но я не теряю надежды, с каждой неделей алгоритм работает все лучше 😅
Тильки мы другому в голову не можем залезть, чтобы подсмотреть его образы(вынуждены на свой внутренний генератор рассчитывать), а нейронка юзает результаты творческого труда человеков, загруженные в её анналы 🤪 Вот только не все с этим согласны 🤷♀️
На самом деле повторяемости лиц можно добиться, с помощью частично строки запроса, частично значения --seed - на английском есть пара уроков на эту тему, коды видео RXaw79umdv0 и 5zMiz3HT6Bs (в любой ссылке ютуб-видео заменить). Еще можно экспериментировать с уровнем стилизации (--s от 0 до 1000) - на околонулевых уровнях получаются совершенно другие картинки, даже с одинаковым сидом. Также можно переключиться на другой вариант стилизации, дописав --style 4a (их всего 2, --style 4b сейчас по умолчанию), там тоже совершенно другая выдача, вроде с меньшим количеством спецэффектов, но и компоновка результата полностью отличается, для запросов с одинаковым сидом. Ну и самая новая модель Midjourney, с уклоном в аниме --niji - тоже имеет свои плюшки, например заточенный под графику алгоритм апскейла, работающий только с этой моделью.
@@sophiamiroedova В версиях до 4 он был не особо предсказуемый и повторяемый, а в 4-ой одинаковый запрос с одинаковым сидом дают идентичный до пикселя результат.
А не проще генерировать идентичного персонажа просто выбрав для него актера или известную сети личность? И подобрать стиль художника хорошо занесенного в базу данных сети, чтоб результат был достаточно эксклюзивный. Еще и микс использовать.
Спасибо за видео, пока не получается делать картинки в одной стилистике, даже используя seed и sameseed последнее только для v3 а там не всегдпа качественные картинки
Разработчики Midjourney пишут, что параметр seed самый слабый в концепции алгоритма. Лучше попробуйте набить руку на каком-то забросе или отправляйте ссылку на нужный стиль как референс. Как вариант пишите в конце что-то вроде «style reference: и ссылку на картинку», может сработать.
поставила бы 1000 лайков, если бы было можно! Превосходное видео! Полезное и, главное, позитивное и воодушевляющее! От Художника, который понимает прелести новых инструментов, а не кричит, как многие: "ааа! нейронки нас заменят!" :)))
Софья, Ваши видео - просто потрясающие! Спасибо! очень интересно! Вы пользуетесь бесплатной версией (приглашая каждый раз саму себя по ссылке?) Тогда как вы сохраняете генерации в хорошем разрешении, более 610*610 ? Спасибо!
Нет, у меня платный аккаунт с безлимитными генерациями. К тому же сейчас из-за этой схемы с множественными аккаунтами Mj временно вообще заморозили бесплатный тариф :(
Единственное решение которое может быть, это специальное программирование в среде 3д. Где автор расставляет простые фигуры, круг, овал, линия, прочие фигуры, дает им названия, описания, цвета одежды, кожи -рожи, стиль и то что они делают в кадре, как взаимодействуют с окружающими их фигурами, подгружает эскизы. Таким образом генерируются все лица, объекты и планы одновременно. Остается выбрать камерой план стоп кадра который будет использован. Это потребует других вычислительных мощностей чем имеются сейчас.
Пока что картинку из Midjourney мне удалось использовать как не играющую значительную роль подкладочку под коллаж в 1/10 площади этого коллажа. Ну и цветовое решение я взяла из картинки ИИ. Пока в рекламном дизайне ИИ дает только головосносную, нелогичную для человека идею. Готовую картинку для рекламы высокотехнологичных продуктов (не молока, мороженного или прочей еды, а сложных товаров), даже для сопутствующих картинок к таким товаром НЕ удается получить. Года через два, наверное, это случится.
Да, пока картинки в большинстве очень сырые, приходится улучшать вручную. Увы, боюсь, не долго нам осталось исправлять им пальчики) Скоро сами научатся.
Я так и не понял, как сгрузить картинку из midjourney в нормальном разрешении? Даже после upscale получается какая-то мелкая нерезкая ерунда, там и 1К то не просматривается, не то что 4К, хотя в запросе задавалось.
Софья, добрый день! Спасибо за интересные обзоры. Подскажите, как вам удалось сохранить одних и тех же героев при создании нейрокомикса? Хочу с дочерью нарисовать сказку, определились в стиле какого художника будем делать. Но всё равно он дает вариации. Есть ли какой-то механизм для этого? :)
А вот как раз только что закончила выпуск по вашей теме ;) Завтра утром уже можно будет посмотреть на канале, рассказала подробно о новом успешном эксперименте по разработке персонажа в Mj!
А вон ридеро уже предлагают авторам за деньги сгенерировать нейросетью обложку для книги. И что? Это законно? Кто владеет правами на обложку? Кого засудят? Авторов, как всегда?
Софья какой у вас приятный и уютный канал и вы такая эрудированная и умная, просто находка для меня ❤
Благодарю! 😍
все супер) благодарю) вы молодец! Правильно говорите. Ничего и никого они не заменят. Нужно подружиться с этим чудо инструментом. И сделать его своим помощником! Как референсы именно в позе как тебе надо. Не будет больше споров из какой картинки ты взяла и похожести. Все давно уже было. Но тут ты генерируешь именно то что тебе нужно. В большей части. Так же как вдохновение даже для скульпторов и полимерщиков. Он генерирует новые идеи. И даже новые стилистики. Инструмент облегчает работу в 2 раза. Ждем с нетерпением новых проектов и секретиков!
мне кажется, люди, которые думают, что нейросети заменят иллюстраторов, ничего не пробовали там сами создавать 😅
я добилась сохранения внешности персонажа (человека) в различных сценах при выборе функции ремикс мод. я отобрала фотографии нескольких моделей разного типажа, залила их ссылками перед текстовым запросом - и получился смиксованный персонаж с уникальной внешностью. далее оставляю ссылки на эти же фотографии и меняю текстовые запросы. получаются отличные серийные рисунки. я работала в фотореалистичном стиле. остается проблема с одеждой - она разная.
намного хуже это срабатывает с животными, если приводить реалистичные фото. например, если вам нужно проилюстрировать книгу. если брать за основу популярного персонажа, например, мистера кролика - все выглядит лучше...
С реалистичными да, проще. В стилизацию пока тяжеловато (
@@sophiamiroedova А вы пробовали сделать фотореалистичную картинку и потом ее стилизовать? Я так делала раскраски для личного использования
Привет! Разобралась как делать в полный рост. В общем упор запроса должен быть на полный рост и начинаться с этого запроса. Без прилагательных типа «красивая женщина» и тд. Мне в работе нужны фэшн фигуры чтобы рисовать на них одежду для бренда. Так вот. Я потратила массу времени на разные промты. Но он выдавал по пояс или по ключицы. Теперь ввожу «full body fashion model” и это отлично работает. Либо по колено, либо во весь рост. Но, видимо она запрограммирована не показывать никакого adult контента, поэтому все модели укутанные. Что было мне ненужно, я добавила «retro swimsuit” (ретро потому что купальник более закрытый и она его сгенерирует, обычный купальник она просто проигнорирует) и тогда получила все что мне нужно. Их нужно быстро скачать тк они удаляются сразу из-за содержания 60% открытого тела.
у меня ещё отлично работает full length перед описанием персонажа.
@@sophiamiroedova обязательно попробую )
Благодарю, как всегда очень интересный выпуск! Жду с нетерпением следующий)))
Спасибо за ваши ролики Софья! Рубрика с новостями тоже очень нравится! Очень вдохновляют, уже месяц вечерами пытаюсь выхватить хотя бы час и делаю свой комикс) Хотя от иллюстрации очень далек) По поводу похожих лиц, пробовал к созданному в MJ персонажу добавлять ссылку к промпту и в самом промпте не менять ничего из настроек стиля и тд, а менять только действие и описание эмоции, получается так немного направить и получить разные изображения с одним лицом, но сложности есть)) Если у вас есть телеграмм и вам интересно - могу поделиться результатами
как всегда шик, за музыку отдельный лайк!
Шикарное видео, как и всегда было очень полезно и интересно
По поводу использования миджорней в работе - мне немножко пригодилось, когда не хватало иллюстративного материала к презентации. Презентация была про еще не разработанную игру, и арт был не по всем локациям, с помощью нейросетки удалось вставить более красивые картинки (без нее там были бы референсы из гугла)
Очень круто. Спасибо.
Спасибо за прекрасное видео🥰
спасибо) всегда очень жду ваших выпусков про нейросети)
У меня есть профиль на шаттере и я не помню чтоб они спрашивали нашего разрешения на использования наших файлов. Но недавно увидела в своем аккаунте начисления, как от продаж, хотя продаж не было. Хочу сказать что эти отчисления не просто смешны, они унизительны и комичны - 0,002 цента 🤦♀️😜 заплатили, не пожадничали прямо
За подобное использование и не будет много начисляться, ибо не за что. Может нейронка из вашего файла пару пикселей замиксовала в свой коллаж 😉🤷♀️
О, любопытно!
@@DOLLines а не если не пару пикселей?
Как это «не за что»?
Жёстко 😢
Спасибо за видео!👏🏻
Классный БЛЕНД!
Очень интересно спасибо!
Интересно рассказываете и в кадре смотритесь отлично. Спасибо!
режим Blend сделан для удобства с мобайл версии, а на десктопе достаточно загружать фото через обычный промт. По поводу стилистики, в оф. документации написано что 4 версия только как пример берет ваш исходник, для того чтобы стиль применять попробуйте 3 версию но с параметром веса --iw ( в 4 версии это "::1 " но работают они все-же по разному)
Хм, попробую! У меня 3 версия уж очень далеко была от цели (
Спасибо за вашу работу!
Отчисления за использование изображений это хорошая мысля. Но пока это будет работать только для «внутреннего» использования на арт-хабах. А миджорни это пока такая пиратская бета-нейросеть. Она без спросу берёт чужие работы 🤷♀️🙈 Но думаю, скоро все эти юридические механизмы заточат под новую нейрореальность. Пока же наиболее безопасный способ - использовать в качестве рефа(особенно для традиционных художников под акрил-акварель-масло 😂). Либо значительно менять картинку в процессе отрисовки(раньше это называлось «обмазывать»).
Кстати, миджорни сама генерит неплохие 3д модели. Я пыталась понять как это работает, загружала по команде /blend свои рисунки и смотрела как она их совмещает. Такое ощущение, что она реально пытается как будто на какую-то модель «натягивать» uv-карту из загруженных картинок 😮 Очень коряво на загруженных, но вполне неплохо на некоторых запросах работает. Например создаёт всяких милых персонажей. Буквально генерит их с разными атрибутами и это интересно. Но без разных поз и ракурсов😔Однако без дорисовки не обходится всё равно. Многоножки 😅
Так же интересно сработала генерация по лайн-скетчу. Просто левой пяткой набросала лайном скетч(дерево, горный фон, человек под деревом) загрузила его с описанием и она сгенерила вполне приличную иллюстрацию! Практически точно по скетчу! Это направление прям очень хочется чтобы развивалось! Потому что тогда творческий процесс реально можно будет назвать достойной *коллаборацией* и авторское право не нужно будет оспаривать.
Здорово! Надо попробовать 😏
Нейросеть - это инструмент, такой же, как мольберт и краски. Идею создаёт человек, смыслы создаёт человек, а не инструмент. Если кто то считает иначе, пусть докажет, что инструмент обладает свободой воли и свободой творить без воли человека
Обучение нейросити авторскому стилю уже есть. Как раз 2-ой день мучаю Stable Diffusion на эту тему. Есть видеоурок на ютубе.
Результат, правда, очень не очень. Или же я что-то не так делаю, там столько настроек 🥲
Да, я тоже читала, что SD можно научить своему подходу, но для этого, кажется, нужно разворачивать её на своем компьютере. Я пока очень слабо знакома с этой сетью, но со временем исправлюсь :)
@@sophiamiroedova не обязательно на своем компьютере, можно использовать Google Colab, он берет всю нагрузку на себя удаленно.
Мидджорни пока выдает результаты красивее (на мой вкус), но у SD открытый код, много людей, которые делают свои дообученные модели и скоро доработают 2 версию.
Вообще с этими нейронками хватаюсь за голову, в какую сторону бежать, чтобы хоть куда-то успеть 😅
@@ksanag3426 согласна, глаза разбегаются! Меня ещё немного напрягает количество кода))) Хотя так или иначе периодически имею с ним опосредованное взаимодействие) Но хотелось бы более удобного инструментария 😅
@@sophiamiroedova Все что нужно - 25 ГБ свободного места и скачать и распаковать папку на 6-7 Гб. Ну и посмотреть 5-10 обучающих видео по Stable Diffusion. Она сильно гибче того же Миджерни. Там и стиль можно создать и научить воспроизводить одного и того же персонажа в разных амплуа и позах. Дорисовывать, менять часть изображения. Даже встроить в фотошоп можно . Эта сеть должна закрыть большую часть Ваших потребностей и озвученных проблем. Посмотрите плейлист по Stable Diffusion пользователя ХрисТ . Там же найдете протативную версию нейросети не требующую установки
@@sophiamiroedova sd в принципе не разворачиваема "на своем компьютере" если у вас мак. Как я понял из своего опыта, минимум, на котором это все будет вменяемо работать - это видеокарта ценой примерно от $2к и выше и это только nvidia. То есть маки идут мимо. Но есть решение. Это или использовать playground (цены что-то типа $9 за тысячу картинок или $49 за много тысяч картинок с возможностью загрузки собственной модели) или Collab или пойти дальше, я бы сказал пойти по жести и арендовать сервер для машинного обучения (примерно $0.5 или около того в час). Я так и сделал. Сейчас я параллельно использую Collab и сервер с самыми разными видео картами. Да, надо разбираться. Но можно работать на своих моделях, обучать своему стилю, а авторские права на картинку в sd принадлежат только вам. И я вообще не уверен, что картинки из mj можно без трансформации как-то использовать без подписки для "агенств". Что там их полиси говорит за права? А sd это open source, так что считаю ее самой перспективной системой на февраль 2023, в отличии от mj, которая сегодня работает, а завтра перестанет, или продолжит, но за невменяемые деньги. В sd у вас болит голова только за ресурсы, а не за фантазию монополиста (а mj безусловный монополист для "домохозяек") в области авторского права в их собственной трактовке.
Вот о то ми мы с мужем и говорили. А то заменит заменит. Ничерта не заменит)
У вас очень крутой канал👍
Благодарю! :)
Девушка классно получилась!
Да, хоть героиню под неё пиши! :)
Касательно одинакового персонажа, под выбранной картинкой нажмите в реакциях конверт. Вы получите seed с номером. Затем сгенерируйте тот же запрос, что-то добавьте, например профиль и обязательно seed, который вы получили
Получается тоже так себе, пробовала неоднократно, не дотягивает даже до того, чтобы об этом упоминать :( Но я не теряю надежды, с каждой неделей алгоритм работает все лучше 😅
Много пальцев можно использовать для создания хорроров.
Но пока этот баг используется для распознавания работы нейронки 😂
Всі ми трохи нейроконі😃
Тильки мы другому в голову не можем залезть, чтобы подсмотреть его образы(вынуждены на свой внутренний генератор рассчитывать), а нейронка юзает результаты творческого труда человеков, загруженные в её анналы 🤪 Вот только не все с этим согласны 🤷♀️
Спасибо!
Стильна ❤ Жанна Д’Арк
На самом деле повторяемости лиц можно добиться, с помощью частично строки запроса, частично значения --seed - на английском есть пара уроков на эту тему, коды видео RXaw79umdv0 и 5zMiz3HT6Bs (в любой ссылке ютуб-видео заменить).
Еще можно экспериментировать с уровнем стилизации (--s от 0 до 1000) - на околонулевых уровнях получаются совершенно другие картинки, даже с одинаковым сидом. Также можно переключиться на другой вариант стилизации, дописав --style 4a (их всего 2, --style 4b сейчас по умолчанию), там тоже совершенно другая выдача, вроде с меньшим количеством спецэффектов, но и компоновка результата полностью отличается, для запросов с одинаковым сидом.
Ну и самая новая модель Midjourney, с уклоном в аниме --niji - тоже имеет свои плюшки, например заточенный под графику алгоритм апскейла, работающий только с этой моделью.
Я пробовала работать с параметром --seed ещё с 3 версии. Каждый раз получались сомнительные результаты. Вероятно, нужно попробовать снова :)
@@sophiamiroedova В версиях до 4 он был не особо предсказуемый и повторяемый, а в 4-ой одинаковый запрос с одинаковым сидом дают идентичный до пикселя результат.
А не проще генерировать идентичного персонажа просто выбрав для него актера или известную сети личность? И подобрать стиль художника хорошо занесенного в базу данных сети, чтоб результат был достаточно эксклюзивный. Еще и микс использовать.
Конечно, проще) Но кому же хочется генерировать то, чего и так много? Да и лично мне не нравится добавлять в свои иллюстрации узнаваемых актёров.
Вот свежее видио , где описывается о создании изначально персонажа в нескольких ракурсах ruclips.net/video/Dl9orWUSREY/видео.html
О, спасибо!
@@sophiamiroedova
Вот ещё один вариант!
ruclips.net/video/K66UIsLCNVw/видео.html
Спасибо за видео, пока не получается делать картинки в одной стилистике, даже используя seed и sameseed последнее только для v3 а там не всегдпа качественные картинки
Разработчики Midjourney пишут, что параметр seed самый слабый в концепции алгоритма. Лучше попробуйте набить руку на каком-то забросе или отправляйте ссылку на нужный стиль как референс. Как вариант пишите в конце что-то вроде «style reference: и ссылку на картинку», может сработать.
поставила бы 1000 лайков, если бы было можно! Превосходное видео! Полезное и, главное, позитивное и воодушевляющее! От Художника, который понимает прелести новых инструментов, а не кричит, как многие: "ааа! нейронки нас заменят!" :)))
В запросе нужно было написать - на каблуках идущая ногами по дороге))
Пробовала. Если концентрироваться на лице, все равно не видит в полный рост 😬 но я продолжаю ее пытать и совершенствовать навыки запросов)))
Софья, Ваши видео - просто потрясающие! Спасибо! очень интересно! Вы пользуетесь бесплатной версией (приглашая каждый раз саму себя по ссылке?) Тогда как вы сохраняете генерации в хорошем разрешении, более 610*610 ? Спасибо!
Нет, у меня платный аккаунт с безлимитными генерациями. К тому же сейчас из-за этой схемы с множественными аккаунтами Mj временно вообще заморозили бесплатный тариф :(
Единственное решение которое может быть, это специальное программирование в среде 3д. Где автор расставляет простые фигуры, круг, овал, линия, прочие фигуры, дает им названия, описания, цвета одежды, кожи -рожи, стиль и то что они делают в кадре, как взаимодействуют с окружающими их фигурами, подгружает эскизы. Таким образом генерируются все лица, объекты и планы одновременно. Остается выбрать камерой план стоп кадра который будет использован. Это потребует других вычислительных мощностей чем имеются сейчас.
При миксовании картинок можно добавлять запрос.
Любопытно. Мои запросы в режиме бленда Mj игнорирует 🤔
Пока что картинку из Midjourney мне удалось использовать как не играющую значительную роль подкладочку под коллаж в 1/10 площади этого коллажа. Ну и цветовое решение я взяла из картинки ИИ. Пока в рекламном дизайне ИИ дает только головосносную, нелогичную для человека идею. Готовую картинку для рекламы высокотехнологичных продуктов (не молока, мороженного или прочей еды, а сложных товаров), даже для сопутствующих картинок к таким товаром НЕ удается получить. Года через два, наверное, это случится.
Да, пока картинки в большинстве очень сырые, приходится улучшать вручную. Увы, боюсь, не долго нам осталось исправлять им пальчики) Скоро сами научатся.
Я так и не понял, как сгрузить картинку из midjourney в нормальном разрешении? Даже после upscale получается какая-то мелкая нерезкая ерунда, там и 1К то не просматривается, не то что 4К, хотя в запросе задавалось.
Никак, Промт 4к просто делает ее более детальной. Можно улучшить качество сторонними сервисами. Например, waifu2x.udp.jp
Спасибо огромное за ваш труд и за то,что делитесь!
Если не сложно ,не могли вы рассказать,как можно оплатить mj из РФ?🙏🏻
Увы, я не в курсе. Но Гугл даёт ссылки на рабочие способы через турецкие и американские виртуальные карты.
Софья, добрый день! Спасибо за интересные обзоры. Подскажите, как вам удалось сохранить одних и тех же героев при создании нейрокомикса? Хочу с дочерью нарисовать сказку, определились в стиле какого художника будем делать. Но всё равно он дает вариации. Есть ли какой-то механизм для этого? :)
А вот как раз только что закончила выпуск по вашей теме ;) Завтра утром уже можно будет посмотреть на канале, рассказала подробно о новом успешном эксперименте по разработке персонажа в Mj!
У меня вопрос. 4 алгоритм миджорни в бесплатных попытках не используется?
Используется
Да) вам верно ответили ❤️
А вы в России?
Последние 7 лет нет, но бываю часто в гостях :)
Мир катится в пропасть!
Так и говорили Амиши когда впервые увидели Автомобиль, а потом и телевизор. И где они сейчас ?)))))))))))))))
Нейросети это как Пинтерест конечно нерадивый может за свое выдать а художник сделает свое на основе нейросети
А вон ридеро уже предлагают авторам за деньги сгенерировать нейросетью обложку для книги. И что? Это законно? Кто владеет правами на обложку? Кого засудят? Авторов, как всегда?
Ридеро, насколько я знаю, не отдаёт авторских прав на свои обложки писателям, так что мы в безопасности :)
Всм никак. Стэйбл дифьюз с вами не согласна будет!
Я только начинаю с ним знакомство :) За двумя зайцами не поспеть.