Самое большое достижение Open AI с моделей SORA в том что она вдохновила очень многих на создание своих моделей для генерации видео. Своим анонсом SORA open ai задали столь высокую планку для генерации видео которую на тот момент никто не то что взять не мог, но даже приблизиться к этому качеству не мечтали. А сейчас спустя время мы имеем несколько топовых моделей которые уделывают SORA в лёгкую. В итоге она типа вышла и ужен нахрен никому не нужна, тем более с таким ценником. Интересный круговорот SORA в природе получается.
Так даже если посмотреть на чужие работы у них промты размером с целый абзац. Когда в твоем случае дай бог строчка. Как я понял, чем меньше промт - тем больше ты даешь возможностей нейронке самой решать итоговую картинку и наоборот - чем больше промт, тем точнее он его придерживается.
Конечно, все ожидали большего, но всё равно это огромный шаг. По моим ощущениям Сора смотрится по лучше Клинга, но цена лишена адекватности. Учитывая, как быстро уплывают кредиты... да уж((( Макс, спасибо огромное за оперативный тест-драйв 👏👏👏 Было очень интересно посмотреть ❤💪😮
С учетом того что более менее съедобный вариант будет получаться с 3-4 раза цена пздц )) спасибо за обзор, переоцененный генератор, kling и runway лучше )
наверное вот так, к примеру нужен промт: девушка лежит на кровати подмигивает и немного смущаясь улыбается. на английском примерно так: A girl is lying on the bed, winking and smiling slightly shyly. но по факту этот же промт может выглядеть так: A young woman lies comfortably on a neatly made bed in a softly lit room. She winks playfully with a warm, slightly shy smile, her expression exuding charm and subtle flirtation. The camera focuses on her face, capturing her gentle movements and the cozy ambiance of the scene. The setting is calm and inviting, with pastel tones and a serene atmosphere. The scene emphasizes her relaxed posture, soft expressions, and the light twinkle in her eyes. что в переводе примерно так: Молодая девушка лежит удобно на аккуратно застеленной кровати в мягко освещенной комнате. Она игриво подмигивает с теплой, слегка застенчивой улыбкой, выражение лица излучает обаяние и легкий флирт. Камера фокусируется на ее лице, запечатлевая нежные движения и уютную атмосферу сцены. Обстановка спокойная и располагающая, с пастельными тонами и умиротворяющей атмосферой. Сцена подчеркивает ее расслабленную позу, мягкие выражения и легкий блеск в глазах. но я не промт инженер, это только догадка -)
Бро, для видео генераций промпты пишутся по другому. Надо еще движение камеры задавать, описывать фокусное расстояние, углы и ракурсы, описывать план и освещение и тд. и тп. для составления правильного промпта нужно шарить в кинопроизводстве.
Ситуация как с промптами на генерацию изображений на самом начальном этапе их развития, когда чтобы сгенерить более-менее адекватную картинку, нужно было прописать сто тысяч параметров, через запятую накатать миллион всяких терминов, и быть прошаренным в промптинге так, чтобы можно было сдать на диплом доктора наук. Сейчас же все просто, пишешь простыми словами что хочешь и получаешь то что написал. С видео должно быть тоже самое, это должен быть инструмент для простых людей, а не тех, кто владеет навыками промптинга. Все что должно требоваься от пользователя - его воображение и умение выразить свою мысль человеческим языком, а подобные модели должны этот язык понимать как родной.
Спасибо за обзор, реально, пока не понял за что платить 200 бачей И почему 200 а не 100 хотя бы для начала ?! Вобщем погоня за бабками интересный процесс ) Будет видосик на обзор сравнения про версии для chat gpt vs plus ?
Интересно, что они хотят конкретные деньги, за не конкретный и не прогнозируемый результат. Генерации далеко не всегда удовлетворяют запросам и потребностям.
Да, уж.. Ожидал чего-то волшебного от этой Соры. В лидеры пока не вырвалась, мягко говоря ))). Обзор пока больше похож на руководство - "Как не попасть на бабки при выборе тарифного плана Pro"...)) Правда, и меньший тарифный план - оставляет желать лучшего...В общем, подождать пару лет и будет достойный продукт. Хотя, могут и ускориться в разработке и выдать то, что всех устроит быстрее...Спасибо за обзор, Макс!
странно как-то тот путь, который челы избрали. кажется, что правильный путь для генерации видео должен заключаться в генерации некоторого упрощенного наброска, где размещены основные элементы сцены. и этот набросок должен генериться прям в реальном времени, у него "никакое" разрешение, по сути это просто граф из точек и соединений и каких-то примитивных форм. человек там выглядит просто как "палка-палка-огуречик". и вот уже поверх этого графа вторая нейронка генерит финальное изображение. то есть нейронки должно быть две, одна генерит схематичный ролик с компоновкой объектов сцены, вторая реалистично обрисовывает это всё. и работать над композицией можно было бы бы гораздо дешевле и вообще без задержек по времени в реалтайме. а уже когда композиция устраивает, можно отрендерить финально второй нейронкой. в качестве следующих усовершенствований должна быть ещё третья нейронка, умеющая анализировать сгенеренное первой нейронкой и давать ей задачи на корректировку, если что-то не соответствует заданным в промпте условиям. и точно такая же 4-ая, которая анализирует уже то что рендерит вторая и ставит задачи на частичную перерисовку .
как заставить с последнего кадра видео продолжить генерировать следующее видео, мне надо этот кадр как-то выделить и сохранить как фотку? но это в Минимаксе
Спасибо за обзор! Интересно как она склеивает два видео особенно если взять цельное видео на 15сек и вырезать из середины 5 сек и попросить их соединить начальные 5 сек с конечными. Как далеко это будет от оригинала?
Я оплатил подписку KLING за 3$ на 3 новых аккаунта. Имеет смысл сейчас закупать еще? или у них всегда какие-то акции и цена 3$ для новых пользователей? А то нет желания платить 9$/мес за 3 генерации в день
Ну, я бы не сказал, что это прям очень плохо, что-то в этом есть. Я бы сказал, что некоторые нейросети она превосходит. Да, возможно, не то что мы ожидали, но OpenAi сразу говорили что эта модель не сверхъестественна, проблемы будут и их будет много, но многие почему-то закрыли на это глаза, наблюдая за потрясающими видео.
Допишу ещё,досмотрев.Если честно,всё что я сейчас увидел это не есть хорошо. Год пудрили мозг,а получается так,что для одного хорошего видео на 20 секунд надо потрать 1000 кредитов:)) Опен ИИ нужен хороший слоган -"Потрать 10.000 кредитов и сгенерируй минутное видео!".
Максим, ты что-нибудь слышал про очередную китайскую нейронку для генерации видео Hunyuan? Если, да, то где и как её можно потестить, кроме как на оф.сайте одноименной компании (запрашивает китайскую симку)? Может обзор на неё сделаешь, если она достойна нашего внимания?
От 1-го лица волк бежит, вот он тебе волка и показал, как ему еще это сделать при твоем запросе? Я думаю запрос должен был быть, движение камеры вперед или что-то подобное
Два года назад читал комментарий под обзором Midjourney v3.0 что-то вроде такого: "Давайте так..Если бы генераторы изображений выдавали картину уровня настоящего художника за один промпт, то это стоило бы не 30 долларов в мес а 30 000 в день."
Ее ждали целый год а вышло это... Вопрос риторический почему нужно было ждать целый год, можно было выпускать уже тогда и тогда может какой-то период она была бы самой топовой видео нейронкой.... потому что была бы единственной ровно до выхода ужасной Лумы, та бы ее сделала бы в два счета... Бобмбит. Правда. Так хочется разнести ее, поскольку это наверное самая большая афера в мире технологий за последние годы. Качество - уступает уже вышедшим некоторым нейронкам Контроль анимаций(именно контроль а не пародия) - отстутствует Все вот эти функции-опции - полный бред, вывели в кнопочки то что в других нейронках решается с помощью хорошего продуманного промта, чисто для понта похоже сделали 20 секунд видео(вместо минуты обещаной) - было бы круто если бы не было реализовано так ужасно Монтаж????Зачем нам монтаж за 200 долларов? Монтаж можно в стороннем софте сделать, не ради этого мы ждали нейронку, разве что да как автор сказал только для тех кто не умеет монтировать, но камон в 2024 году, это на базовом уровне умеют уже почти все, а там дальше и подучится не сложно Стоимость 4 буквы - пздц Анимация причем кривая человека только за 200 долларов это даже комментировать не хочется И финальное - водяной знак за 20 долларов За такое не просто критиковать, за это бойкотировать надо, Опен ЭйАй по сути хочет гавно нам продать и сказать нате берите только потому что мы хайповая Опен ЭйАй. Полное неуважение к тем кто так долго ждал эту нейронку и плюс еще в отличии от того же Клинга и Минимакса даже не дают какойто период бесплатно попробовать что бы ознакомится а стоит ли оно того С учетом ужасной анимации и летающих рук - не стоит, все плохо и ужасно, год разработчики занимались непонятно чем, и отчасти эмоции тех художников которые слили ее теперь понимаю. Похоже это коллективная злость и сейчас чувствуем на них хейт со всех сторон пойдет и если эта компания не одумается - они банкроты, так как всем их продуктам есть замена. Поэтому мой предыдущий комментарий на этом фоне про опенсорс нейронки становится еще более актуальным
Ещё про цензуру можно добавить, она неадекватная, даже людей нельзя загружать, про знаменитостей наверное и речи не идёт. Вся надежда на опен сорс, кому нахрен надо котиков и мамонтов за 200 баксов генерировать, люди хотят что-то серьезное делать, от нейросетей именно этого ждут.
честно сказать удручает одно: Наверное впервые в истории технологий создана индустрия с платными сервисами абсолютно сырого и непригодного для профессионального использования продукта (я в целом про генерации видео). Ждем еще года три.
Привет, автор! Это я с тобой спорил по поводу соры)) В одном соглашусь - Sora на данном этапе говно. Моя претензия была лишь в том, что видеогены нужно сравнивать на равных условиях, то есть чтобы их версии были одинаково актуальны по дате выхода. Я ожидал, что сору за полгода еще более знатно прокачают, но потестил сам - и что-то нет эффекта вау. Так что теперь уже можно сказать, что у сора есть серьезная конкуренция в виде других альтернатив. И да, 200$ оно пока не стоит
Отдельным комментарием хочется выразить автору благодарность, разбор все на высоте, вот где старания а не то что выпустили Опен Эй Ай, жаль что потратил 200 долларов на это гуано, но это единственный месяц где Опены получили такую прибыль чисто из интереса, следующий месяц спустит их с небес по количеству тех кто еще захочет по непонятным причинам это купить, автору - жирный лайк, Open AI - жирный дизлайк
Ну давайте вспомним, что каких-то там пару или сколько там уже готика назад мы вообще не могли представить такого, а сегодня они нам выдают вот это! Дайте этим нейровидосам еще столько же времени, и потом мы хрен разберем, где реал, а где нейро. Всему, как говорится, свое время. Я считаю, все эти нейросети на сегодня очень хорошо справляются со своей задачей, с фото было то же самое, а это видео, тут намного тяжелей будет (я чисто от себя, как от обычного любителя говорю, не являющегося профи в нейронках) Главное, чтобы все это использовалось в хороших целях, хотя мы все и так понимаем, что и плохие руки найдут применения *УЖЕ нашли* Я просто в недоумении, насколько быстро люди привыкают к новому и уже требуют чего-то большего, хотя времени прошло не так много на самом деле ) Всем всего хорошего =)
@@neur0mania Ни в коем случае не подумайте, что я возмущаюсь по поводу вашего видео или к вам. Я сам слежу за всем этим, в том числе и смотрю ваш контент, он очень хороший и интересный) Я также ждал Сору в надежде получить результат лучше, чем у других. Просто, читая комментарии по поводу всего этого, некоторые люди прям настаивают и говорят о том, что уже давно должно быть лучше, в общем, слишком требовательно к этому относятся на сегодняшний день, но нейронки по генерации видео довольно молоды, если так посмотреть, им просто надо время) Ваш контент, как и всегда, информативный и интересный, лайк не глядя =)
@@dmytrykovalsky9429 Согласен! Но как ни как, оно все равно выдает уже довольно нормальные результаты, от того, что мы видели пару годков раньше, но соглашусь, результаты получаются далеко не с первого раза, особенно это примечают те, кто реально пользуются такими нейронками для своих работ, ну как чисто подать идею или как начальный чертеж - это довольно нормально. Но опять же я не спорю, я всего лишь простой любитель новых техно, не использую их в работах и прочее, поэтому скорее соглашусь, чем оспорю)
@@dmytrykovalsky9429 Согласен с вами полностью, результаты получаются не с первого раза далеко, особенно подмечают это те, кто реально пользуется нейронками для своих работ, но как для подачи идеи это вполне отличный инструмент уже, опять же я говорю от лица простого любителя) Но согласитесь, фото уже довольно далеко зашло, и результаты, если есть, то они хорошие, пусть и не с первого раза, но как обычному пользователю мне этого достаточно. А вот достаточно ли тем, кто решает рабочие моменты, то тут уже я бы поговорил, но это другая история) На всякий случай, не поймите меня не правильно, не осуждаю не кого, сам люблю технологии всякие и рад этому, лишь бы не на зло людям) Но назло оно уже вовсю используется, к сожалению(
Мммм, уета обзор пушка) Почему все генерят ходящих девушек :) Неужели катируется?) Подождём обнов, пока вообще баян, проще нагенерить 4 кадра, клинг и в капкат склеить) Костыли как были, так и остались)
пока безлимит есть только у hailuoai за 95 бакса в месяц, у клинга чтоб комфортно работать, из 100 генераций составить ролик 4 минуты в день нужно платить примерно 50 баксов в день.
Лучшая модель,которая понимает промт и отличные движения это Hailuoai,но там с качеством не всё так хорошо. Давайте посмотрим что за SORA? Такое ощущение что парень бегающий по лему просто вставленный в видео,как в игре. А вот что можно в Kling сгенерировать: ruclips.net/user/shortsswTHbR4xB7k Спасибо за видео
В целом очевидно, что 200$ - оверпрайс невероятный, но тем не менее, если я всё правильно понял, то помимо соры открывается доступ к о1 ( с условием того, что вроде как о1 может рвать 4о ) и ещё какие-то плюшки даёт, так что отчасти можно понять менеджеров, но со стороны пользователя это перебор По поводу того, что качество не очень... Вообще не согласен, как минимум по той причине, что в каждом видео виден просто бешенный потенциал, просто надо нормально промпты составлять ( большинство типичных ошибок конечно есть, но зато как минимум понимание контекста хорошее, да и прям каких-то сильных проблем или артефактов нету, всё логично, всё нормально сделано, проблема в промптах, потому что токены с которыми коннектится запрос куча и она начинает фривольничать, от чего и бред происходит на экране )
@@neur0mania вот тут согласен ( но мне кажется было бы проще разделить подписки на разные сервисы, так скорее всего кол-во покупок увеличить можно ( но это только мои шизотеории ) )
Ну расскажи, какой же там потенциал, кроме того, что тебя скоро завалят дешёвый тупой скучной рекламой, от которой ты просто не отмахнёшься, представляешь, что ты включаешь интернет-ради того, чтобы смотреть рекламу.
@@ВладГромов-ь4е а причём тут реклама? Возможно, я не совсем понял того, что именно ты имеешь в виду, я говорил о том, что у Соры есть бешеный потенциал в плане реализации задумок, чего не было показано в видео, по той причине, что промпты были сильно ужатыми, буквально в 1-1,5 строки. А если мы сейчас будем говорить про какую-то этическую сторону вопроса с генерацией видео, то да, возможно, со временем ИИ для создания видео будут использовать для того, чтобы просто клепать однотипные скучные рекламные видео. А если ты вообще говоришь о том, что даже при наличии подписки тебя будут пичкать рекламой на странице, где ты используешь модель, это совершенно другой момент. Так что чуть точнее надо выражать мысли, если ты действительно хочешь конструктива, а если изначально такой цели нет, можно что-то вкинуть и забить, опять же, чем проще, тем понятнее, что это простой вброс, ничего из себя не представляющий.
@@ВладГромов-ь4е а причём тут реклама? Возможно, я не совсем понял того, что именно ты имеешь в виду, я говорил о том, что у Соры есть бешеный потенциал в плане реализации задумок, чего не было показано в видео, по той причине, что промпты были сильно ужатыми, буквально в 1-1,5 строки. А если мы сейчас будем говорить про какую-то этическую сторону вопроса с генерацией видео, то да, возможно, со временем ИИ для создания видео будут использовать для того, чтобы просто клепать однотипные скучные рекламные видео. А если ты вообще говоришь о том, что даже при наличии подписки тебя будут пичкать рекламой на странице, где ты используешь модель, это совершенно другой момент. Так что чуть точнее надо выражать мысли, если ты действительно хочешь конструктива, а если изначально такой цели нет, можно что-то вкинуть и забить, опять же, чем проще, тем понятнее, что это простой вброс, ничего из себя не представляющий. ( мб коммент продублируется, потому что у меня нормально он не отправлялся )
Кстати уже можно у меня доступ к Devin не брать - ЭТОТ ИНЖЕНЕР УЖЕ ДОСТУПЕН У ВСЕХ. ТОЛЬКО ЕДИНСТВЕННОЕ НО ЧТО ДЛЯ КОМАНД ОН СТОИТ 500 ДОЛЛАРОВ, НО У МЕНЯ ПЕРСОНАЛЬНЫЙ ПЛАН ЗА 50 ДОЛЛАРОВ, НО МАЛО КРЕДИТОВ ЗАТО
Спасибо большое за обзор! А че удивляться, Runway такая же дичь, зотя я пишу промпты очень дпже неплохие, и даже агента сотворил для видео в GPT личного. Все равно все они еше ооооочень сырые, и еще надо время на эволюцию 🤖🎃😁
Фуфло какое-то, и это за год ожиданий ещё и по 200 баксов вы серьёзно. Да почитайте даже западных комментаторов пишут, что. Они и сейчас неплохо аналогами пользуются дешевле. А где минутное видео обещанное и нам обещали, что видео будет до 1 минуты делаться? Где все эти обещанные качества выпустили в принципе тоже, что уже есть на рынке? Только по цене квартиры. Короче, единственное, кто с этого выиграет рекламщики, да реклама будет делать дешевле реклама много времени, не надо и сегодня вас завалят дешёвый никому не нужной тупой рекламой просто. Пачками вы не пройдёте от рекламы интернет, это будет реклама, сплошная невозможно, будет просто в интернете ничем пользоваться, потому что это будет реклама, реклама и дип фейки ещё угадайте, кто будет король дип фейков. Кто нам будет показывать со всех утюгов, что Путин ест младенцев, а русские о доедают последний унитаз?
Ну какие то фантастические картинки может и стоит - смотря чего вы хотите добиться. А девушка идущая по берегу - не дешевле ли и менее гемморойнее кому нибудь заплатить ещё и меньше 200 Бачей
Привет пожалуйста заметь помнишь в самом начале нам говорили то что она хорошо генерирует видео с майнкрафтом попробуй пожалуйста погенерировать🎉❤❤❤❤❤❤❤❤
в Токио "праворукие" тачки, а в кадре тачка с левым рулём!!! С чего аффтар решил, что Токио не понятно... Типа иероглифы увидел? Так иероглифами не только японцы пишут...
Как оплатить нейросети - ruclips.net/video/826XOhUji5E/видео.html
Как быть если Сора не запускается в РФ даже с впн?
Досмотрел видео...пожалуй можно обойтись и без Соры :D
@@MusicFlowDaily сменить впн)
200 баксов! Братан, дай бог тебе здоровья.
Спасибо, посмешил на ночь. Нелепая SORA, лучше её не выносить из избы)
Спасибо! Еще было бы классно попробовать генерировать те сюжеты, которыми Сора хвасталась в рекламе. Показать, как теперь это реально выглядит
Короче говоря, Open AI обосрались. 👎
@@Neyrolix ахахах
Сначала пытаются набрать как можно больше пользователей, а потом говорят, что мощностей не хватает. Даже Chat GPT не рад что работает на Open AI..
100%
Благодарю за исследование и жертву! Такая боль в голосе и взгляде! Оправданная. Очень интересный ролик!
Самое большое достижение Open AI с моделей SORA в том что она вдохновила очень многих на создание своих моделей для генерации видео. Своим анонсом SORA open ai задали столь высокую планку для генерации видео которую на тот момент никто не то что взять не мог, но даже приблизиться к этому качеству не мечтали. А сейчас спустя время мы имеем несколько топовых моделей которые уделывают SORA в лёгкую. В итоге она типа вышла и ужен нахрен никому не нужна, тем более с таким ценником. Интересный круговорот SORA в природе получается.
А какие модели ее уделывают, по вашему мнению? Просто интересно
@@v.yasn0o клинг? Мне тоже интересно. Чем начать пользоваться.
@@v.yasn0okling, luma уже как минимум, сам ими пользуюсь )))
@@v.yasn0o KLING 100%, и даже RUNWAY
@@v.yasn0oтоже интересно. Pika 2.0?
Так даже если посмотреть на чужие работы у них промты размером с целый абзац. Когда в твоем случае дай бог строчка.
Как я понял, чем меньше промт - тем больше ты даешь возможностей нейронке самой решать итоговую картинку и наоборот - чем больше промт, тем точнее он его придерживается.
@@kekewi4751 контекст важен
Они делают через режим сториборд, там есть улучшение промпта
Видео должно нызавыться трачу 100 баксов за 20 минут в нейросетях
😁
Интерестно было бы посмотреть на видео, сделанное с огромным качественным и подробным описании. Думаю результат был бы по лучше...
Конечно, все ожидали большего, но всё равно это огромный шаг. По моим ощущениям Сора смотрится по лучше Клинга, но цена лишена адекватности. Учитывая, как быстро уплывают кредиты... да уж((( Макс, спасибо огромное за оперативный тест-драйв 👏👏👏 Было очень интересно посмотреть ❤💪😮
Благодарю. Комментарий в поддержку канала и видео. Ещё раз благодарю.
Ребята, спасибо за комменты. Буду изучать тему. Посмотрю kling и runway. Я вообще без понятия что это, но очень интересно:)
Кстати, с парашютом неплохо. Он и не должен сразу камнем вниз падать, он в воздушном потоке движется.
Несмотря на недоработки это все равно очень круто особенно видео про девушку и платье, готовый сюжет
Ясно, понятно, подождём. Кстати, спасибо за обзор.
С учетом того что более менее съедобный вариант будет получаться с 3-4 раза цена пздц )) спасибо за обзор, переоцененный генератор, kling и runway лучше )
наверное вот так, к примеру нужен промт:
девушка лежит на кровати подмигивает и немного смущаясь улыбается.
на английском примерно так:
A girl is lying on the bed, winking and smiling slightly shyly.
но по факту этот же промт может выглядеть так:
A young woman lies comfortably on a neatly made bed in a softly lit room.
She winks playfully with a warm, slightly shy smile, her expression exuding
charm and subtle flirtation. The camera focuses on her face, capturing her
gentle movements and the cozy ambiance of the scene. The setting is calm and
inviting, with pastel tones and a serene atmosphere. The scene emphasizes
her relaxed posture, soft expressions, and the light twinkle in her eyes.
что в переводе примерно так:
Молодая девушка лежит удобно на аккуратно застеленной кровати в мягко освещенной комнате.
Она игриво подмигивает с теплой, слегка застенчивой улыбкой, выражение лица
излучает обаяние и легкий флирт. Камера фокусируется на ее лице,
запечатлевая нежные движения и уютную атмосферу сцены.
Обстановка спокойная и располагающая, с пастельными тонами и умиротворяющей атмосферой.
Сцена подчеркивает ее расслабленную позу, мягкие выражения и легкий блеск в глазах.
но я не промт инженер, это только догадка -)
Извините, но ваш запрос не соответствует нашей политики использования. Вы злостный нарушитель.
@@adinik3960 что за бред
Ты написал светиться sora подумал что можно показать освещение 😂
Бро, для видео генераций промпты пишутся по другому. Надо еще движение камеры задавать, описывать фокусное расстояние, углы и ракурсы, описывать план и освещение и тд. и тп. для составления правильного промпта нужно шарить в кинопроизводстве.
Да это все понятно. Это первый взгляд обывателя)
Ситуация как с промптами на генерацию изображений на самом начальном этапе их развития, когда чтобы сгенерить более-менее адекватную картинку, нужно было прописать сто тысяч параметров, через запятую накатать миллион всяких терминов, и быть прошаренным в промптинге так, чтобы можно было сдать на диплом доктора наук. Сейчас же все просто, пишешь простыми словами что хочешь и получаешь то что написал. С видео должно быть тоже самое, это должен быть инструмент для простых людей, а не тех, кто владеет навыками промптинга. Все что должно требоваься от пользователя - его воображение и умение выразить свою мысль человеческим языком, а подобные модели должны этот язык понимать как родной.
Дело ж не в промте,а в том,что почти в каждой генерации персонаж теряет конечности.
@@nl0823 ну, ещё через время, может через 2 года всё так будет, а сейчас вот так...
Чтобы руки не отрывались от персонажа тоже нужно про это писать?
Такое ощущение, что нейросеть просто спит, а на выходе мы получаем её сны
Как сказал один человечек по имени Илон - OpenAI пора перемещаться в Closed AI. )))
У наконец-то ! И года не прошло ! Посмотрим , что там за сора)
Спасибо за обзор, реально, пока не понял за что платить 200 бачей
И почему 200 а не 100 хотя бы для начала ?! Вобщем погоня за бабками интересный процесс )
Будет видосик на обзор сравнения про версии для chat gpt vs plus ?
Интересно, что они хотят конкретные деньги, за не конкретный и не прогнозируемый результат. Генерации далеко не всегда удовлетворяют запросам и потребностям.
Спасибо большое за обзор ❤
Да, уж.. Ожидал чего-то волшебного от этой Соры. В лидеры пока не вырвалась, мягко говоря ))). Обзор пока больше похож на руководство - "Как не попасть на бабки при выборе тарифного плана Pro"...)) Правда, и меньший тарифный план - оставляет желать лучшего...В общем, подождать пару лет и будет достойный продукт. Хотя, могут и ускориться в разработке и выдать то, что всех устроит быстрее...Спасибо за обзор, Макс!
странно как-то тот путь, который челы избрали. кажется, что правильный путь для генерации видео должен заключаться в генерации некоторого упрощенного наброска, где размещены основные элементы сцены. и этот набросок должен генериться прям в реальном времени, у него "никакое" разрешение, по сути это просто граф из точек и соединений и каких-то примитивных форм. человек там выглядит просто как "палка-палка-огуречик". и вот уже поверх этого графа вторая нейронка генерит финальное изображение. то есть нейронки должно быть две, одна генерит схематичный ролик с компоновкой объектов сцены, вторая реалистично обрисовывает это всё. и работать над композицией можно было бы бы гораздо дешевле и вообще без задержек по времени в реалтайме. а уже когда композиция устраивает, можно отрендерить финально второй нейронкой.
в качестве следующих усовершенствований должна быть ещё третья нейронка, умеющая анализировать сгенеренное первой нейронкой и давать ей задачи на корректировку, если что-то не соответствует заданным в промпте условиям. и точно такая же 4-ая, которая анализирует уже то что рендерит вторая и ставит задачи на частичную перерисовку .
Теперь осталось все это реализовать в жизнь.
как заставить с последнего кадра видео продолжить генерировать следующее видео, мне надо этот кадр как-то выделить и сохранить как фотку? но это в Минимаксе
Привет! Почему в моей SORA нет стартовых поинтов? Они совсем не выдают бесплатные поинты?
а как с KLING сохранить созданное видео⁉️
Лучше самому своими руками сделать и сфотать😂 приятнее гораздо подарок будет
Спасибо за видео !!
НЕ КЛИНГ ТОП ПОКА ЧТО, НО АВТОРУ РЕСПЕК ПОДДЕРЖИТЬЕ ЛАЙКОМ И КОМЕНТОМ
Sora - это фиаско братан !
Макс ультанул. Ролик классный)
Сделай пожалуйста какую-то коротко метражку по манге типа ванпачмен либо сололевелинг. Интересно можно ли такие вещи сейчас делать
Спасибо за обзор! Интересно как она склеивает два видео особенно если взять цельное видео на 15сек и вырезать из середины 5 сек и попросить их соединить начальные 5 сек с конечными. Как далеко это будет от оригинала?
Я оплатил подписку KLING за 3$ на 3 новых аккаунта. Имеет смысл сейчас закупать еще? или у них всегда какие-то акции и цена 3$ для новых пользователей?
А то нет желания платить 9$/мес за 3 генерации в день
Сора дороже чем Минимакс? а в Минимакс сколько секунд маскимально видео дают если по платной подписке ? всеравно 6 сек?
на 11:00 волк бежит за человеком. Просто мы его не видим )). Видим как человек убегает от волка.
Ну, я бы не сказал, что это прям очень плохо, что-то в этом есть. Я бы сказал, что некоторые нейросети она превосходит. Да, возможно, не то что мы ожидали, но OpenAi сразу говорили что эта модель не сверхъестественна, проблемы будут и их будет много, но многие почему-то закрыли на это глаза, наблюдая за потрясающими видео.
@@AleksPlayNow завышенные ожидания сделали свое
Допишу ещё,досмотрев.Если честно,всё что я сейчас увидел это не есть хорошо. Год пудрили мозг,а получается так,что для одного хорошего видео на 20 секунд надо потрать 1000 кредитов:)) Опен ИИ нужен хороший слоган -"Потрать 10.000 кредитов и сгенерируй минутное видео!".
Максим, ты что-нибудь слышал про очередную китайскую нейронку для генерации видео Hunyuan? Если, да, то где и как её можно потестить, кроме как на оф.сайте одноименной компании (запрашивает китайскую симку)? Может обзор на неё сделаешь, если она достойна нашего внимания?
насколько я помню можно на hugging face потестить. на странице нейронки были ссылки
@@neur0maniaСпасибо! Но там, я так понимаю, только непосредственно с установкой на своё железо (боюсь моё не потянет).
@@yaAlyonaСпасибо. Тоже нашёл. Правда ещё не смотрел, что оно из себя представляет.
@@RaspakuyKrasivo я тебя обманул
На replicate есть возможность потестить
А так да, скачивать на комп или сервер
От 1-го лица волк бежит, вот он тебе волка и показал, как ему еще это сделать при твоем запросе? Я думаю запрос должен был быть, движение камеры вперед или что-то подобное
Вчера вышла gemini 2.0 flash, добавились новые фишки и особенности. На русском ютубе нет обзора на нее. Не думаете сделать на нее обзор?
@@Alvi95 завтра выйдет обзор
Сора - фигня. Слишком много артефактов. По сути платишь за пачку артефактов и возможно 1 удачный кадр. Оооочень дорого
chatgpt тоже был так себе а сегодня chatgpt стал осознаным
Также когда выйдет Sora 4 будет супер
Да, вот только обещали они не в sora 4 @@gameturbo9814
@@gameturbo9814 к тому времени китайские варианты тоже прокачаются и на много дешевле
@@gameturbo9814до осознанности очень далеко. Лет 10.Ну прогресс большой
А какая по твоему мнению лучшая для видео?
тот самый случай, когда жалко чужих денег. твоих Бро. с уважением.
Давайте так..Если бы видеогенераторы выдавали голивудский фильм класса АА за один промт то и стоило это бы не 200 евро в мес а 200 000 в день.
Два года назад читал комментарий под обзором Midjourney v3.0 что-то вроде такого: "Давайте так..Если бы генераторы изображений выдавали картину уровня настоящего художника за один промпт, то это стоило бы не 30 долларов в мес а 30 000 в день."
@@nl0823 Правда вне времени
зачетное видео ты еще потести в разных генераторах например hailuoai и luma 4 нейронки еже норм есть что сравнить
Заставки оооочень крутые в один клик. 😮 Афтер эффектс отпадает сразу. Остальное ну чисто как сток видосы... И то если повезёт.
Макс ты посмотри какая дичь в зеркале заднего вида, я уж не говорю что по сторонам происходит.
Ее ждали целый год а вышло это... Вопрос риторический почему нужно было ждать целый год, можно было выпускать уже тогда и тогда может какой-то период она была бы самой топовой видео нейронкой.... потому что была бы единственной ровно до выхода ужасной Лумы, та бы ее сделала бы в два счета...
Бобмбит. Правда. Так хочется разнести ее, поскольку это наверное самая большая афера в мире технологий за последние годы.
Качество - уступает уже вышедшим некоторым нейронкам
Контроль анимаций(именно контроль а не пародия) - отстутствует
Все вот эти функции-опции - полный бред, вывели в кнопочки то что в других нейронках решается с помощью хорошего продуманного промта, чисто для понта похоже сделали
20 секунд видео(вместо минуты обещаной) - было бы круто если бы не было реализовано так ужасно
Монтаж????Зачем нам монтаж за 200 долларов? Монтаж можно в стороннем софте сделать, не ради этого мы ждали нейронку, разве что да как автор сказал только для тех кто не умеет монтировать, но камон в 2024 году, это на базовом уровне умеют уже почти все, а там дальше и подучится не сложно
Стоимость 4 буквы - пздц
Анимация причем кривая человека только за 200 долларов это даже комментировать не хочется
И финальное - водяной знак за 20 долларов
За такое не просто критиковать, за это бойкотировать надо, Опен ЭйАй по сути хочет гавно нам продать и сказать нате берите только потому что мы хайповая Опен ЭйАй. Полное неуважение к тем кто так долго ждал эту нейронку и плюс еще в отличии от того же Клинга и Минимакса даже не дают какойто период бесплатно попробовать что бы ознакомится а стоит ли оно того
С учетом ужасной анимации и летающих рук - не стоит, все плохо и ужасно, год разработчики занимались непонятно чем, и отчасти эмоции тех художников которые слили ее теперь понимаю. Похоже это коллективная злость и сейчас чувствуем на них хейт со всех сторон пойдет и если эта компания не одумается - они банкроты, так как всем их продуктам есть замена.
Поэтому мой предыдущий комментарий на этом фоне про опенсорс нейронки становится еще более актуальным
Ещё про цензуру можно добавить, она неадекватная, даже людей нельзя загружать, про знаменитостей наверное и речи не идёт. Вся надежда на опен сорс, кому нахрен надо котиков и мамонтов за 200 баксов генерировать, люди хотят что-то серьезное делать, от нейросетей именно этого ждут.
С людьми конечно полный фейл. Другие могут и бесплатно генерить с людьми.
Про спанч боба намана было кстати, смечно
Мобильная версия есть?
Зашёл под впн США (потому что в других странах не доступно) , бесплатно генерировать ничего нельзя, минимум подписка за 20$
Ага и об этом я говорил в ролике
честно сказать удручает одно: Наверное впервые в истории технологий создана индустрия с платными сервисами абсолютно сырого и непригодного для профессионального использования продукта (я в целом про генерации видео). Ждем еще года три.
Как всегда трейлер задрал ожидания. Все больше торговля ожиданиями, которые не совпадают с реальностью и переносы, как у Apple аналогично.
пока по цене качеству лучше всего безлимит за 95 бакса у hailuoai
Привет, автор! Это я с тобой спорил по поводу соры)) В одном соглашусь - Sora на данном этапе говно. Моя претензия была лишь в том, что видеогены нужно сравнивать на равных условиях, то есть чтобы их версии были одинаково актуальны по дате выхода. Я ожидал, что сору за полгода еще более знатно прокачают, но потестил сам - и что-то нет эффекта вау. Так что теперь уже можно сказать, что у сора есть серьезная конкуренция в виде других альтернатив. И да, 200$ оно пока не стоит
Отдельным комментарием хочется выразить автору благодарность, разбор все на высоте, вот где старания а не то что выпустили Опен Эй Ай, жаль что потратил 200 долларов на это гуано, но это единственный месяц где Опены получили такую прибыль чисто из интереса, следующий месяц спустит их с небес по количеству тех кто еще захочет по непонятным причинам это купить, автору - жирный лайк, Open AI - жирный дизлайк
комментатор ты классный 😆😆😆😆😆
Ну давайте вспомним, что каких-то там пару или сколько там уже готика назад мы вообще не могли представить такого, а сегодня они нам выдают вот это! Дайте этим нейровидосам еще столько же времени, и потом мы хрен разберем, где реал, а где нейро. Всему, как говорится, свое время.
Я считаю, все эти нейросети на сегодня очень хорошо справляются со своей задачей, с фото было то же самое, а это видео, тут намного тяжелей будет (я чисто от себя, как от обычного любителя говорю, не являющегося профи в нейронках)
Главное, чтобы все это использовалось в хороших целях, хотя мы все и так понимаем, что и плохие руки найдут применения *УЖЕ нашли*
Я просто в недоумении, насколько быстро люди привыкают к новому и уже требуют чего-то большего, хотя времени прошло не так много на самом деле )
Всем всего хорошего =)
когда анонсировали сора, показали - подборку крутых работ, которая завысила наши ожидания
а пока мы ждали - уже появились нейронки схожего качества
@@neur0mania Ни в коем случае не подумайте, что я возмущаюсь по поводу вашего видео или к вам. Я сам слежу за всем этим, в том числе и смотрю ваш контент, он очень хороший и интересный) Я также ждал Сору в надежде получить результат лучше, чем у других. Просто, читая комментарии по поводу всего этого, некоторые люди прям настаивают и говорят о том, что уже давно должно быть лучше, в общем, слишком требовательно к этому относятся на сегодняшний день, но нейронки по генерации видео довольно молоды, если так посмотреть, им просто надо время)
Ваш контент, как и всегда, информативный и интересный, лайк не глядя =)
Так с фото и сейчас беда. Получить с первого раза что то годное шанс 1%.
@@dmytrykovalsky9429 Согласен! Но как ни как, оно все равно выдает уже довольно нормальные результаты, от того, что мы видели пару годков раньше, но соглашусь, результаты получаются далеко не с первого раза, особенно это примечают те, кто реально пользуются такими нейронками для своих работ, ну как чисто подать идею или как начальный чертеж - это довольно нормально. Но опять же я не спорю, я всего лишь простой любитель новых техно, не использую их в работах и прочее, поэтому скорее соглашусь, чем оспорю)
@@dmytrykovalsky9429 Согласен с вами полностью, результаты получаются не с первого раза далеко, особенно подмечают это те, кто реально пользуется нейронками для своих работ, но как для подачи идеи это вполне отличный инструмент уже, опять же я говорю от лица простого любителя) Но согласитесь, фото уже довольно далеко зашло, и результаты, если есть, то они хорошие, пусть и не с первого раза, но как обычному пользователю мне этого достаточно. А вот достаточно ли тем, кто решает рабочие моменты, то тут уже я бы поговорил, но это другая история)
На всякий случай, не поймите меня не правильно, не осуждаю не кого, сам люблю технологии всякие и рад этому, лишь бы не на зло людям) Но назло оно уже вовсю используется, к сожалению(
Да уж, пожалуй останусь в Kling, Сора чет редкая шляпа))
Сора со-со у клинга... Ну хоть ждать больше не будем.
Хочу видео по созданию короткометражек🙏
Так а чё жалуются все? Офигенно же. Ну понятно что не без артефактов. Ща релиз раз, два, пару баг фиксов и будем фильмы смотреть)
за 200 баксов полная лажа, я за 100 баксов у китайцев покупаю анлим по 5-6 сек. видео и там можно генерить с людьми и кем хочешь
в какой нейронке?
Мммм, уета обзор пушка) Почему все генерят ходящих девушек :) Неужели катируется?) Подождём обнов, пока вообще баян, проще нагенерить 4 кадра, клинг и в капкат склеить) Костыли как были, так и остались)
давай про короткометражки
а сколько тогда клинг стоит? чтоб прям генерить день и ночь :)
пока безлимит есть только у hailuoai за 95 бакса в месяц, у клинга чтоб комфортно работать, из 100 генераций составить ролик 4 минуты в день нужно платить примерно 50 баксов в день.
Вообще очень прикольная дич)0 человек в волка, ну прям сумерки))))
Красавчик!!
Sora account creation is temporarily unavailable - это же не обойти?
только ждать
Первый видео-нейронки были некрасивые и кривые. Теперь они красивые и кривые.
У SORA стоит цензура на оружие. Ничего не получится с таким промптом.
это фиаско)
Она бесплатная?
Лучшая модель,которая понимает промт и отличные движения это Hailuoai,но там с качеством не всё так хорошо. Давайте посмотрим что за SORA? Такое ощущение что парень бегающий по лему просто вставленный в видео,как в игре.
А вот что можно в Kling сгенерировать:
ruclips.net/user/shortsswTHbR4xB7k
Спасибо за видео
В целом очевидно, что 200$ - оверпрайс невероятный, но тем не менее, если я всё правильно понял, то помимо соры открывается доступ к о1 ( с условием того, что вроде как о1 может рвать 4о ) и ещё какие-то плюшки даёт, так что отчасти можно понять менеджеров, но со стороны пользователя это перебор
По поводу того, что качество не очень... Вообще не согласен, как минимум по той причине, что в каждом видео виден просто бешенный потенциал, просто надо нормально промпты составлять ( большинство типичных ошибок конечно есть, но зато как минимум понимание контекста хорошее, да и прям каких-то сильных проблем или артефактов нету, всё логично, всё нормально сделано, проблема в промптах, потому что токены с которыми коннектится запрос куча и она начинает фривольничать, от чего и бред происходит на экране )
Если они в подписку добавят какой нибудь далли 4, то можно еще подумать
А если озвучку по типу 11лабс и аватаров, то подписка будет вовсе себя окупать
@@neur0mania вот тут согласен ( но мне кажется было бы проще разделить подписки на разные сервисы, так скорее всего кол-во покупок увеличить можно ( но это только мои шизотеории ) )
Ну расскажи, какой же там потенциал, кроме того, что тебя скоро завалят дешёвый тупой скучной рекламой, от которой ты просто не отмахнёшься, представляешь, что ты включаешь интернет-ради того, чтобы смотреть рекламу.
@@ВладГромов-ь4е а причём тут реклама?
Возможно, я не совсем понял того, что именно ты имеешь в виду, я говорил о том, что у Соры есть бешеный потенциал в плане реализации задумок, чего не было показано в видео, по той причине, что промпты были сильно ужатыми, буквально в 1-1,5 строки.
А если мы сейчас будем говорить про какую-то этическую сторону вопроса с генерацией видео, то да, возможно, со временем ИИ для создания видео будут использовать для того, чтобы просто клепать однотипные скучные рекламные видео.
А если ты вообще говоришь о том, что даже при наличии подписки тебя будут пичкать рекламой на странице, где ты используешь модель, это совершенно другой момент.
Так что чуть точнее надо выражать мысли, если ты действительно хочешь конструктива, а если изначально такой цели нет, можно что-то вкинуть и забить, опять же, чем проще, тем понятнее, что это простой вброс, ничего из себя не представляющий.
@@ВладГромов-ь4е а причём тут реклама?
Возможно, я не совсем понял того, что именно ты имеешь в виду, я говорил о том, что у Соры есть бешеный потенциал в плане реализации задумок, чего не было показано в видео, по той причине, что промпты были сильно ужатыми, буквально в 1-1,5 строки.
А если мы сейчас будем говорить про какую-то этическую сторону вопроса с генерацией видео, то да, возможно, со временем ИИ для создания видео будут использовать для того, чтобы просто клепать однотипные скучные рекламные видео.
А если ты вообще говоришь о том, что даже при наличии подписки тебя будут пичкать рекламой на странице, где ты используешь модель, это совершенно другой момент.
Так что чуть точнее надо выражать мысли, если ты действительно хочешь конструктива, а если изначально такой цели нет, можно что-то вкинуть и забить, опять же, чем проще, тем понятнее, что это простой вброс, ничего из себя не представляющий.
( мб коммент продублируется, потому что у меня нормально он не отправлялся )
Ой как хорошо! Я боялся что сора убьет индустрию , а она просто открытки создает за 200 баксов дичь
Лучше бы они сбацали ИИ редактор и обучили его фотошопу. Даёшь пару картинок , даёшь промт и ИИ уже имеет над чем работать.
Ребят, сора для профи. Те деньги не считают и промпты крутые делают и генерят 5 секунд, чтобы 3 для видео оставить. Так что не по Сашке рубашка 😂😂😂
А разговоров то было😂
Почему парень должен падать если ты написал что он летит????
Я до сих пор аккаунт не могу создать
Покажи как пользоваться флекси
Не заходит, пишет нет мест ошибка какая-то… Как зайти
Ждать
@ целый день жду
Кстати уже можно у меня доступ к Devin не брать - ЭТОТ ИНЖЕНЕР УЖЕ ДОСТУПЕН У ВСЕХ. ТОЛЬКО ЕДИНСТВЕННОЕ НО ЧТО ДЛЯ КОМАНД ОН СТОИТ 500 ДОЛЛАРОВ, НО У МЕНЯ ПЕРСОНАЛЬНЫЙ ПЛАН ЗА 50 ДОЛЛАРОВ, НО МАЛО КРЕДИТОВ ЗАТО
Спасибо большое за обзор! А че удивляться, Runway такая же дичь, зотя я пишу промпты очень дпже неплохие, и даже агента сотворил для видео в GPT личного. Все равно все они еше ооооочень сырые, и еще надо время на эволюцию 🤖🎃😁
Фуфло какое-то, и это за год ожиданий ещё и по 200 баксов вы серьёзно. Да почитайте даже западных комментаторов пишут, что. Они и сейчас неплохо аналогами пользуются дешевле. А где минутное видео обещанное и нам обещали, что видео будет до 1 минуты делаться? Где все эти обещанные качества выпустили в принципе тоже, что уже есть на рынке? Только по цене квартиры. Короче, единственное, кто с этого выиграет рекламщики, да реклама будет делать дешевле реклама много времени, не надо и сегодня вас завалят дешёвый никому не нужной тупой рекламой просто. Пачками вы не пройдёте от рекламы интернет, это будет реклама, сплошная невозможно, будет просто в интернете ничем пользоваться, потому что это будет реклама, реклама и дип фейки ещё угадайте, кто будет король дип фейков. Кто нам будет показывать со всех утюгов, что Путин ест младенцев, а русские о доедают последний унитаз?
Ну какие то фантастические картинки может и стоит - смотря чего вы хотите добиться. А девушка идущая по берегу - не дешевле ли и менее гемморойнее кому нибудь заплатить ещё и меньше 200 Бачей
Sora я так понял чисто для галочки. Его допиливать и допиливать. Короче ждем анонса gpt 5
Скорее 4.5 будет
@@neur0mania 4.001
Привет пожалуйста заметь помнишь в самом начале нам говорили то что она хорошо генерирует видео с майнкрафтом попробуй пожалуйста погенерировать🎉❤❤❤❤❤❤❤❤
Ну пока такое себе... но это только начало.
10/12/2024 | Kling > Sora
Че со звуком?
в Токио "праворукие" тачки, а в кадре тачка с левым рулём!!! С чего аффтар решил, что Токио не понятно... Типа иероглифы увидел? Так иероглифами не только японцы пишут...
@@alexrass душнилаааа
Короче, надо ждать 1-2 года. Тогда результаты будут намного лучше. Сейчас за это платить смысла нет. За chatgpt лучше заплатить
Так там же все вместе в подписке)