Нет. Мозг сортирует и обрабатывает информацию. Что то удаляет, что то сохраняет, расставляет приоритеты и т.д.. Есть разные уровни. Крч, происходит оптимизация полученной информации, чтобы твой котелок не закипел от переизбытка. А то, что ты видишь как сон, лишь побочный эффект от вышеупомянутых процессов. Но это я грубо описал. На самом деле все куда сложней и есть что изучать в этом плане.
@@Orbuzzon ну, теория сна всё ещё сильно не изучена так как у всех разные типы снов. Мне к примеру всегда снятся своеобразные фильмы. Кому-то может будут сниться переживания по прошлому или желания в будущем и так далее
Да, в интересное время мы живем. Жаль в данный момент нет развитых нейроинтерфейсов, ато только представьте, какие были бы возможности.Например, с помощью нейронки оцифровать мыслеформы и записать сон, чтоб потом была возможность вернуться в конкретный сон в любой момент. Включить сознание во снах по желанию. Игры с фотореалистичной графикой с полным погружением.
Так можно наснимать видео в реальности, потом обучать сеть, указав в нужные моменты клавиши WASD (эта информация может быть записана, например, акселерометром при съёмке)
Зачем акселерометр записывать если сначала можно видео прогнать через нейросеть которая будет будет записывать векторы движения камеры относительно пространства. Есть дроны с такой системой навигации и она в некоторых случаях точнее GPS, дрон на Марсе камерой проверял расстояние скорость и свое расположение и разбился потому что при посаде попал на местность похожую на монотонный шум из песка и не правильно посчитал расстояние до земли и шмякнулся так что лопасть сломалась.
@@ikolya нефритовый стержень Xi недоволен вашим качеством передачи видео текст. Необходимо растрированно передавать текст без уникальных текстов грамматика
Я огорчён тем что сейчас не пытаются оптимизировать то что есть для супер-слабых ПК а берут и ещё сильнее нагружают системы миллиардами обработок! Даже если это всё будет работать на отлично то это будет доступно малому кругу лиц, у которых будет пару лишних миллионов на такие вот вещи! Простым работягам тоже хочется играть в такие игры!
@@старыйформат держу в курсе, в этом и заключается прогресс. Такие корпорации как амд и нвидиа созданы для того, чтобы создавать новое, развивать свою область и двигать ее вперёд, а улучшать и доводить до совершенства уже созданное - удел компаний чуть поменьше, чем они собственно и завлекают клиентов. У каждого своя роль
Блин, а ведь в будущем старые шедевры по типу "Hitman - blood money" можно будет приравнять к современным, ведь как автор видоса сказал: "Все будут обращать внимание не на графику, а на геймплей"
На самом деле, если бы нейронке дали бы возможность строить свёртки отдельно от кадра и передавать их, скорее всего она бы научилась запоминать местоположение игрока. Та же GPT видит не только полную историю токенов, но и может генерировать скрытые, что значительно расширяет способности к мышлению, ведь не все мысли удаётся сгенерировать за один такт нейронки. Тут нет ни скрытых кадров, ни скрытых свёрток, нейросеть буквально балансирует между функциональностью и точностью.
Была бы такая же совершенная нейросеть как у человека которая имеет чуйку на предстоящую рекламную интеграцию и которая будет пропускать эту самую рекламу.
@@SirusStarTV Да есть расширение для браузера пропускающее рекламу, называется SponsorBlock. Но так как указанный мной тайминг не реклама поэтому я завис с мыслью "Какого фига реклама".
в основе таких решений сверточные сети и почти все из них - последовательные нелинейные преобразования, причем нелинейность на конце очередного слоя (для разделимости данных), а сами слои - линейная комбинация весов, искажений и вводов (обычно в виде канонического вида линейного уравнения, Ax + B). Буквально все и сразу содержимое очередного кадра, выборочно отфильтрованное/искаженное по пути до конца нейросети суммируется с предыдущими представлениями кадров (это имеющиеся значения весов на протяженности сети, в каждом из слоев) в виде разницы между требуемым и имеющимся выхлопом сети при обучении. Потери качества при обучении тут и на совести качества исходного видео, и количества кадров в нем, и малого объема датасета (а тут похоже что есть добавочные данные о позиции на карте, нажатых кнопках, инвентаре итд), и конечно малого размера модели, чтобы она выдавала хотя бы эти FPS. Проблема с размытыми анимациями в самой сути процесса обучения - и стохастический градиентный спуск, и аналогичные методы обучения не делают предположений о том, чему и как надо учиться, они моделируют вероятностную картину задачи и в ней ищут оптимальные точки, достаточно хорошие решения как значения весов нейросети. Чтобы ответы подходили под всё, чему учили модель, одновременно - не только один или несколько примеров. А по % времени видео (т.е. от объема датасета по сути) перезарядки занимают в сумме дай боже несколько минут. По сравнению с перезарядками кадров оружия на фоне стены в тысячи раз больше, потому кадры перезарядки на входе такой глубинной сети просто не имели шанса достаточно сильно "въесться" в имеющиеся веса/биасы в очередную эпоху обучения. имейте в виду, что вы используете недообученные нейросети, полное обучение (предсказание всего, что в обучающем датасете, на 100%) называется "оверфиттинг" и обычно значит, что другие/реальные данные будут предсказаны неверно. если обучение ветвится и разные варианты после достижения оптимальной точки обучения проверяются руками, в одном из них этот баг может исправиться, но это бесконечно дорого, потому используются самые разные трюки, если увеличение датасета и обучение по новой не помогают или невозможны...
По сути, DLSS 3 этим и занимается со своей генерацией кадров. Нужно просто вложить в эту технологию ещё пару миллиардов долларов и года 3 кранчей, чтобы увидеть действительно реализм в игре. И будут у нас нейро-видеокарты)
я когда впервые вообще увидел игру от ии, я сразу начал вспоминать свои сны... это же буквально сны искусственного интелекта... до чего дошел прогресс...
Надо чтобы нейронка считывала объекты на сцене, а сами объекты сделать в виде обычных 3д кубиков, прямоугольников, даже людей моделировать не надо. Потом нейронке дать заранее нарисовать эти объекты и зафиксировать картинку статичных объектов на карте. Все что разрушается из 3д объектов, просто удаляется с карты. Все что двигается, дать обычную физику кубикам. Спецэффекты все можно заранее нарисовать нейронкой и просчитать. И все - получится революционная игра мечты, в которой можно сделать полностью разрушаемую карту. Остается только надеяться, что кто-то догадается так сделать
@@АрчиМур-ф7с ясен пень) Увы разрабы не такие смелые, чтобы идти в неизвестность) Затраты денег, все дела. Поэтому пока родят что-то революционное, пройдет лет 5 минимум
@@АрчиМур-ф7с да и безбашенных энтузиастов маловато мне кажется, которые горят какой-то идеей. Идею сначала надо показать, реализовать, сами что-то придумывают только единицы
@@ктоя-о8щ упустил момент, просто обычно чтобы неиросеть хоть что то запомнила нужно очень много информации, и плюс я погуглил и действительно модели от этой компании обучаются на сравнительно маленьком количестве данных около 80-90 гб, и я считаю что для 90 часов геймплея неиронка показывает очень хороший результат очень хороший результат
Тоже задумывался насчёт того, что в скором времени перейдем на облако, где нам будут транслировать картинку, ТК либо будут технологии передачи сигнала(настолько хорошие, что ну задержки практически не будет), либо комплектующие где нет смысла покупать их обычному юзеру и будет легче купить облачную подписку(кст год-два назад друг уже играл на облаке, пока не купил себе по мощнее ноут). Задумываюсь ещё что будут локальные центры по городам, например как провайдеры интернета, ток провайдеры пк, в общем просто по кабелю, либо по сигналу.
От задержки в передачи информации малость не избавиться (в обозримом будущем) так как она ограничена скоростью света, собственно мы как раз и упираемся в это значение сейчас и потому у нас задержка с сервером в США под 100 мс.
Отвечу, как программист. Нейронкой сейчас пользуются через одно место. Заставляют каждый кадр перерисовывать.Это же огромная трата ресурсов. А надо сделать так, что нейронка один раз нарисовала текстуру, запомнила и потом просто масштабировала её по геометрии. Разработки в этом направлении ведутся, но появятся не скоро, так как там требуется знание математики. Так что сейчас просто по приколу всё пускают на перерисовку каждого кадра, поэтому все выглядит так криво и косо.
Ну первое что я могу сказать Гугл скоро сделает это возможным учитывая что они уже работают на Genie 2 и результаты там довольно хорошие так что ждем Genie 3 и там уже можно будет трезво оценить возможности нейронки, если нейронка будет все запомнать в открытом мире а не просто в квадратной коробке то это уже будет неплохой результат
15:46 d-e-e-p, Ввод. Лукьяненко в Лабиринте Отражений же описывал именно это, только в его фантастике специальная программа гипнотизировала мозг человека который воспринимал простейшую графику и "дорисовывал" до реальности. И вот, спустя ~30 лет мы будем дорисовывать ИИшкой.
Вы представляете к чему это может привести? Это хоть и концепт, но если люди придумают как создать ИИ с памятью и прокачают ее очень сильно, то игры могут быть созданы просто одним промтом человека. Захотел сегодня поиграть в средневековый экшен с драконами, бац и она сделала игру по запросу. И больше того скажу что возможности в этой игре будут безграничны. Захотел что бы здание рухнуло? Взорвал и оно обвалилось по физике. Захотел зайти в любое здание? Вуаля, там не пусто, есть интерьер и т.п. и это если только говорить про реалистичный сеттинг. Возможности безграничны. Считайте что это гаррис мод на максималках.
Как раз таки возможности ограничены. Уже сегодня обучении ии затрачивает непропорционально больше ресурсов, а результат не особо впечатляет. Чтобы тобой описанное произошло, нужно получить реальный ии и затратить на его создание нереальное количество денег и сил, а не нейронку. Нейронка на такое не способна и в обозримом будущем.
@ если ты прочитал бы внимательно, то я написал ИИ, а не нейронка. А еще ты недооцениваешь масштаб вложений в развитие нейросетей и ИИ. Все что может использоваться в военных целях и давать преимущество будет спонсироваться свыше в огромных масштабах, а позже и придет к людям, так что это будет скоро, и это скоро может настать через лет 10-20.
@@НовостиЗумера ты сперва хоть разберись в возможностях нейронки типа SD, чем пороть фантастический бред. Посмотри ролики тех людей, кто подробно рассказывает что такое нейросеть и собственно ИИ. Нет ии в природе и с нейронки он не появится. Об этом говорилось неоднократного.
@@stepashka_skrepaа ты подожди, возможно и появится, хоть всё завязано на простом алгоритме связей но подожди ещё немного времени и сразу же появляется новый алгоритм, на основе нашего мозга! Если ты не знал то сейчас изучают как мозг интерпретирует информацию, скорее всего через лет так 10 смогут изучить как работает логическое мышление и пространственное ориентирование, тем самым предоставляя алгоритм работы этого всего в головном мозге!
Я вот-вот занялся программированием на пайтон и нашел похожую штуку на пайтон, которая используется для быстрого ИИ, называется Mojo, пока нету конкуренции, я хочу создать свою ИИ-игру, теперь хочу сказать спасибо за совет.
Ребят, а ни у кого нет такого что когда смотришь на нейро кс, нейромайнкрафт, либо просто в игре где то в лабиринте теряешься, то болит голова и хочется спать?
Эффект от визуальной составляющей в играх подкрепляется фактором коллективной эмпатии, уходя корнями глубоко в коллективное бессознательное. Смотря на то как Артур Морган умирает в конце РДР2 переживание усиливается за счет ощущения сопричастности к колективному опыту миллионов других игроков. Сделав визуальный ряд для каждого игрока уникальным ИИ может убрать эту важную компоненту. это интересный психологический момент.
Интересно посмотреть как нейронка покажет первого ассасина, это вероятно будет похоже на тот момент когда дезмонд нестабилен и мы не можем ничего разглядеть, все смазано в начале игры
Мне кажется это просто прикол. По сути это простой инпейнт с добавлением промпта в виде кейинпута игровых клавиш. Процедурная генерация Баггерфола была "умнее" и технологичнее в этом плане=)
Мог бы дополнительно рассказать про Оазис ИИ (то же самое что кс-ка, но с майнкрафтом и в браузере), и про Rosebud AI (то же что и проект от EA, но похуже и без своих ассетов, зато запустить можно уже сейчас в браузере)
2028 - роботизация, первые массовые андроиды 2031 - первые киберимпланты 2032 - игры и контент создаются «налету» нйросетями 2033 - первое проектирование и производство нейросетями вещей на автоматических заводах 2034 - курс BTC 1.2 млн. $ 2036 - бум популярности виртуальных миров, созданных нейросетями 2037 - биткоин - официально основная валюта планеты 2039 - первые персональные квантовые компьютеры 2041 - зарождение сознания у компьютера (квантовая нейросеть) 2045 - базы на Луне future
Бред😂, чтобы ИИ делал контент на лету в 2032?😂😂😂 Даже сейчас rtx 4090 не способен сделать трассировку лучей на уровне анимации финальной фантазии 2001 года, ты о чем?! ИИ будет в полном объеме не раньше 2060 года
А насчёт битка все возможно, тут. Многие говорили что он лопнет, а по факту сделал многих миллиардерами, а кто сомневался как был бедным, так и остался 😅
говоря о таких проектах ты чаще всего забываешь уточнить что они наструганы на коленке командой из 2.5 орангутангов, и дай похожее тз крупной студии (чаще всего) они допилят всю эту чепуху до идеала. стокфиш ведь обучили каким то образом играть безошибочно? значит нет ничего невозможного
В смысле "скорее всего можно"? Первой игрой, которую запустили на нейронке был Doom 1. Потому что любая новая платформа делается так: Запускается Doom, потом вокруг него строится всё остальное.
Я то думал минимум лет 5 пройдет до ИИ игр, а они уже тут, а через 5 лет гта 7 будет писаться промптом "сделай нам гта 7, чтоб было (круче:2) чем гта 6" :))
4:00, видеокарта это грубо говоря тот же процессор, но мощнее в несколько сотен раз, но и разницу в передаче конечно никто не отменял, вот тебе и ответ)
Ну слушай, это очень очень поверхностно, потому-что чип сам по себе может в чём-то похож, но его задача, его скажем так строение другое. Да не спорю что это тот же процессор, но это если пытаться объяснить человеку, который знает что такое процессор, но не знает что такое видеокарта
@@leehoy228Тут проще сказать, что инженерно видеокарта и процессор разные вещи, они сами по себе аппаратно нацелены на разные задачи, хотя основная суть у них одна и тажа. (Правда GPU это почти как комп в компе, с точки зрения программирования)
@Partizag именно, я думаю что интерпретировать это можно по разному, главное что понятна сама суть. Ну и беря это в пример, ответить на вопрос из видео. :)
Задача видеокарты, выполнить шейдеры, покрасить и отрисовать пиксели. Обычно это все неплохо так параллелится, поэтому видеокарта состоит из огромного множества тупеньких ядер, каждое из которых может выполнять свою задачу. Пока проц пердя отрисовывает изображение на своих в лучшем случае 24 потоках (десктоп сегмент), каждый вычислительный блок видеокарты (которых, напомню, дохуя) рисует свой сегмент изображения на опр этапе (растеризация, шейдеры и прочая залупа). Вот так и получается, если сильно упростить.
@@leehoy228Разницу между процессором и видеокартой можно описать количеством ядер и их мощности (не углубляясь в память, кэш). У процессора - несколько очень производительных ядер. У видеокарты - тысячи слабеньких ядер, которые могут выполнять одну не сложную задачу, из-за чего видеокарта хорошо справляется с параллелизацией задач (в т. ч. рендер, нейросети и т.д.)
Ты прав фильтры. Но не только те которые показал. Постепенно обучат на матерьалы при разном освещении. По слоям. Потом тени и отражения.не путать с dlss. После чего матерьалы в движке будут иметь маркеры для нейронок. На компе это будут массивы из уже обработанных чисел. Которые нейронка будет вертеть в зависимости от x, y, z освещения и скорости.
приемлемый результат был бы, если игру сделали бы обычным способом, но из примитивных квадратов да кругов, чтоб не нагружать комп, а нейронка бы преобразовывала в реалистичные объекты с текстурами да освещением
Так потому что на процессоре надо запускать, он быстрее обрабатывает небольшие обьемы данных, а видюха наоборот, большой обьем, но дольше, а ИИ как раз надо быстро и небольшие обьемы
"Задержка приемлемая" (тут прямо напрашивается пошлая шутка) В том-то и дело, что лишь приемлемая... Но ни разу не комфортная. А тут она минимум удвоится (туда и обратно) + время на обработку кадра нейросетью.
Разочаровался, что на моменте "поэтому у меня есть шансы разобраться в питоне" не было рекламы скиллбокса
Я по привычке начал перематывать😅
+++
Просто скилбоксы посмотрели на этого иишкадебика и решили нунах.
Второе разочарование, когда оказалось ему просто нужно было подрубить CUDA, на котором изначально и подразумевалась работа.
@@onlimkun8476 У меня такой же рефлекс сработал;)
Когда мы спим и нам снятся сны, это значит что кто то нас тренирует как ту нейросеть из видео
Нет. Мозг сортирует и обрабатывает информацию. Что то удаляет, что то сохраняет, расставляет приоритеты и т.д.. Есть разные уровни. Крч, происходит оптимизация полученной информации, чтобы твой котелок не закипел от переизбытка. А то, что ты видишь как сон, лишь побочный эффект от вышеупомянутых процессов. Но это я грубо описал. На самом деле все куда сложней и есть что изучать в этом плане.
@@Orbuzzon Интересная теория, но все мы знаем правду)
@@Orbuzzon Откуда ты это знаешь? Может тебе это внушили? Ж)
@@Orbuzzon ну, теория сна всё ещё сильно не изучена так как у всех разные типы снов. Мне к примеру всегда снятся своеобразные фильмы. Кому-то может будут сниться переживания по прошлому или желания в будущем и так далее
@@Orbuzzon Чел же очевидно рофлит.. блин..
теперь денува не проблема. можно просто заставить нейронку чекать геймплей понравившейся игры и играть в нее, когда будет температура
Я думал денува не проблема, потому что можно заставить нейросеть ее взломать))
@@alexeytsvigune6230 не, это квантовые компы будут ломать
@@alexeytsvigune6230 денува денува. Вы лучше про стар форс узнайте
Когда это денува вообще была проблемой?
@@kamasutr-a просто зумерки выучили новое слово, вот и повторяют его. Школота, видимо не знают про старфорс
А прикиньте в будущем будут такие соревнования когда игроки скармливают нейросеткам свои катки, а после этого проводятся матчи среди этих нейросеток
афк киберспорт
@@shadow_nekit Афки в станке2 их куча
а как же ии майнкрафт?
Там еще рановато 😂
Нейро-сама уже вполне играет.
@@JustFunnestCHесли что давно я её не смотрел, интересно, что вообще за это время изменилось?
@@JustFunnestCH Тут не нейро сама играет, а нейро сама игру делает с нуля в которую можно играть
ртх забыли там
Да, в интересное время мы живем. Жаль в данный момент нет развитых нейроинтерфейсов, ато только представьте, какие были бы возможности.Например, с помощью нейронки оцифровать мыслеформы и записать сон, чтоб потом была возможность вернуться в конкретный сон в любой момент. Включить сознание во снах по желанию. Игры с фотореалистичной графикой с полным погружением.
Так можно наснимать видео в реальности, потом обучать сеть, указав в нужные моменты клавиши WASD (эта информация может быть записана, например, акселерометром при съёмке)
И тогда можно будет играть в реальную жизнь, но воспроизведенную нейронкой😮
Зачем акселерометр записывать если сначала можно видео прогнать через нейросеть которая будет будет записывать векторы движения камеры относительно пространства. Есть дроны с такой системой навигации и она в некоторых случаях точнее GPS, дрон на Марсе камерой проверял расстояние скорость и свое расположение и разбился потому что при посаде попал на местность похожую на монотонный шум из песка и не правильно посчитал расстояние до земли и шмякнулся так что лопасть сломалась.
Даже не верится! Все это время я думал что играм уде некуда развиваться. А щас нейронка сама из памяти рисует игру
Только видеокарты развития медленно
@@ikolya нефритовый стержень Xi недоволен вашим качеством передачи видео текст. Необходимо растрированно передавать текст без уникальных текстов грамматика
Ай ай ай! Мастер Xi доволен вашим комментарием и приглашает вас погостить в санаторий с уйгур. У вас нет права на отказ!@@g1mby4
Я огорчён тем что сейчас не пытаются оптимизировать то что есть для супер-слабых ПК а берут и ещё сильнее нагружают системы миллиардами обработок! Даже если это всё будет работать на отлично то это будет доступно малому кругу лиц, у которых будет пару лишних миллионов на такие вот вещи! Простым работягам тоже хочется играть в такие игры!
@@старыйформат держу в курсе, в этом и заключается прогресс. Такие корпорации как амд и нвидиа созданы для того, чтобы создавать новое, развивать свою область и двигать ее вперёд, а улучшать и доводить до совершенства уже созданное - удел компаний чуть поменьше, чем они собственно и завлекают клиентов. У каждого своя роль
Ура ! Первый в мире видос СЫча в трезвом состоянии !!!
Протрезвей
УРА😂
Я где-то читал что русечи прекрасно подходят на роль бесплатных туалетов и даже можно сказать для этого созданы!
Надо чтоб нейронки не полностью перекрашивали игру в нечто, а только правили чутка тени/детали/цветокор, тогда мб будет полезно
Блин, а ведь в будущем старые шедевры по типу "Hitman - blood money" можно будет приравнять к современным, ведь как автор видоса сказал:
"Все будут обращать внимание не на графику, а на геймплей"
На самом деле, если бы нейронке дали бы возможность строить свёртки отдельно от кадра и передавать их, скорее всего она бы научилась запоминать местоположение игрока. Та же GPT видит не только полную историю токенов, но и может генерировать скрытые, что значительно расширяет способности к мышлению, ведь не все мысли удаётся сгенерировать за один такт нейронки. Тут нет ни скрытых кадров, ни скрытых свёрток, нейросеть буквально балансирует между функциональностью и точностью.
1:40 Рука автоматом потянулась к перемотке.
Ты не один😢
Была бы такая же совершенная нейросеть как у человека которая имеет чуйку на предстоящую рекламную интеграцию и которая будет пропускать эту самую рекламу.
@@SirusStarTV Да есть расширение для браузера пропускающее рекламу, называется SponsorBlock. Но так как указанный мной тайминг не реклама поэтому я завис с мыслью "Какого фига реклама".
@@SirusStarTVна пк это sponsor block на телефонах это revanced и ни каких нейронок не надо
в основе таких решений сверточные сети и почти все из них - последовательные нелинейные преобразования, причем нелинейность на конце очередного слоя (для разделимости данных), а сами слои - линейная комбинация весов, искажений и вводов (обычно в виде канонического вида линейного уравнения, Ax + B). Буквально все и сразу содержимое очередного кадра, выборочно отфильтрованное/искаженное по пути до конца нейросети суммируется с предыдущими представлениями кадров (это имеющиеся значения весов на протяженности сети, в каждом из слоев) в виде разницы между требуемым и имеющимся выхлопом сети при обучении. Потери качества при обучении тут и на совести качества исходного видео, и количества кадров в нем, и малого объема датасета (а тут похоже что есть добавочные данные о позиции на карте, нажатых кнопках, инвентаре итд), и конечно малого размера модели, чтобы она выдавала хотя бы эти FPS. Проблема с размытыми анимациями в самой сути процесса обучения - и стохастический градиентный спуск, и аналогичные методы обучения не делают предположений о том, чему и как надо учиться, они моделируют вероятностную картину задачи и в ней ищут оптимальные точки, достаточно хорошие решения как значения весов нейросети. Чтобы ответы подходили под всё, чему учили модель, одновременно - не только один или несколько примеров. А по % времени видео (т.е. от объема датасета по сути) перезарядки занимают в сумме дай боже несколько минут. По сравнению с перезарядками кадров оружия на фоне стены в тысячи раз больше, потому кадры перезарядки на входе такой глубинной сети просто не имели шанса достаточно сильно "въесться" в имеющиеся веса/биасы в очередную эпоху обучения. имейте в виду, что вы используете недообученные нейросети, полное обучение (предсказание всего, что в обучающем датасете, на 100%) называется "оверфиттинг" и обычно значит, что другие/реальные данные будут предсказаны неверно. если обучение ветвится и разные варианты после достижения оптимальной точки обучения проверяются руками, в одном из них этот баг может исправиться, но это бесконечно дорого, потому используются самые разные трюки, если увеличение датасета и обучение по новой не помогают или невозможны...
Качественно подобранная инфа, спасибо что деришь в курсе новинок!
Я думал что я сошел с ума, но когда ты сказал что тоже видел проекцию игры во сне как и я , значит я не один такой
Автор неплохо так разобрался в сетках и поведал нам базу. Респект! Было интересно
По сути, DLSS 3 этим и занимается со своей генерацией кадров. Нужно просто вложить в эту технологию ещё пару миллиардов долларов и года 3 кранчей, чтобы увидеть действительно реализм в игре. И будут у нас нейро-видеокарты)
Зачем нам полный реализм в игре то? Если играешь за реализмом то мне тебя жаль
@@raptor19имеется ввиду графика фотореалистичная, а не то что сейчас
@smeeryx Так я о том же лол
@@raptor19 ну и рубись в нинтендо)
@@ThePAPAPSIH Высрал так высрал не думая) зачем тебе реализм если ты итак в нем живешь?😆
я когда впервые вообще увидел игру от ии, я сразу начал вспоминать свои сны... это же буквально сны искусственного интелекта... до чего дошел прогресс...
Я не знаю как я сюда попал, но это очень иннтересный видос. Классно Озвучиааешь и шутишь. Боже храни ютуб
Надо чтобы нейронка считывала объекты на сцене, а сами объекты сделать в виде обычных 3д кубиков, прямоугольников, даже людей моделировать не надо. Потом нейронке дать заранее нарисовать эти объекты и зафиксировать картинку статичных объектов на карте. Все что разрушается из 3д объектов, просто удаляется с карты. Все что двигается, дать обычную физику кубикам. Спецэффекты все можно заранее нарисовать нейронкой и просчитать. И все - получится революционная игра мечты, в которой можно сделать полностью разрушаемую карту. Остается только надеяться, что кто-то догадается так сделать
И спецэффекты, всё привязать к 3д объектам нейронкой, чтобы она не путалась и галюционировала
Это совершенно не так легко, как ты думаешь 😅
@@АрчиМур-ф7с ясен пень) Увы разрабы не такие смелые, чтобы идти в неизвестность) Затраты денег, все дела. Поэтому пока родят что-то революционное, пройдет лет 5 минимум
@@Nereal_Dvigatel С этим согласен, рисковать не хотят, но готовы рисковать зато со своей воук политикой
@@АрчиМур-ф7с да и безбашенных энтузиастов маловато мне кажется, которые горят какой-то идеей. Идею сначала надо показать, реализовать, сами что-то придумывают только единицы
Ролик родился на глазах. Лайк
2:20 может быть 95 ТЫСЯЧ часов геймплея? (погуглил, действительно 95 часов)
Нет, 95
@EndlessExploration-k5r пшел отсюда
ага, 95 тысяч часов геймплея весом 600 гб?
@@ктоя-о8щ упустил момент, просто обычно чтобы неиросеть хоть что то запомнила нужно очень много информации, и плюс я погуглил и действительно модели от этой компании обучаются на сравнительно маленьком количестве данных около 80-90 гб, и я считаю что для 90 часов геймплея неиронка показывает очень хороший результат очень хороший результат
Рил нейронка это наш мозг, игры сейчас как во снах будут
Аа я понял, мы не ложимся спать, мы попадаем в нейросеть
Тоже задумывался насчёт того, что в скором времени перейдем на облако, где нам будут транслировать картинку, ТК либо будут технологии передачи сигнала(настолько хорошие, что ну задержки практически не будет), либо комплектующие где нет смысла покупать их обычному юзеру и будет легче купить облачную подписку(кст год-два назад друг уже играл на облаке, пока не купил себе по мощнее ноут). Задумываюсь ещё что будут локальные центры по городам, например как провайдеры интернета, ток провайдеры пк, в общем просто по кабелю, либо по сигналу.
Ну удачи конечно, но, чтобы это окупалось, надо ещё задирать цены, иначе никто этим не займётся
От задержки в передачи информации малость не избавиться (в обозримом будущем) так как она ограничена скоростью света, собственно мы как раз и упираемся в это значение сейчас и потому у нас задержка с сервером в США под 100 мс.
Я уже думал будет реклама, промотал и не понял "а где, а что произошло" и пришлось мотать обратно, хитрец
вот это технологии дошли, мы можем нажимать на буковки, и управлять челом
Отвечу, как программист. Нейронкой сейчас пользуются через одно место. Заставляют каждый кадр перерисовывать.Это же огромная трата ресурсов. А надо сделать так, что нейронка один раз нарисовала текстуру, запомнила и потом просто масштабировала её по геометрии. Разработки в этом направлении ведутся, но появятся не скоро, так как там требуется знание математики. Так что сейчас просто по приколу всё пускают на перерисовку каждого кадра, поэтому все выглядит так криво и косо.
настоящее поезное видео в этом канале) не зря так долго подписан
Классный обзор. За шутки про огурчик и огонь отдельное спасибо. О_о
Всё, я понял, третья халва выйдет, когда Валв создаст и обучит собственную нейронку
ИИ это человеческое воображение выраженное во вне. это тупо то что бы происходите у человека в памяти если бы он пытался что-то вспомнить.
Как же мне нравится его юмор 😁
Ну первое что я могу сказать Гугл скоро сделает это возможным учитывая что они уже работают на Genie 2 и результаты там довольно хорошие так что ждем Genie 3 и там уже можно будет трезво оценить возможности нейронки, если нейронка будет все запомнать в открытом мире а не просто в квадратной коробке то это уже будет неплохой результат
15:46 d-e-e-p, Ввод. Лукьяненко в Лабиринте Отражений же описывал именно это, только в его фантастике специальная программа гипнотизировала мозг человека который воспринимал простейшую графику и "дорисовывал" до реальности. И вот, спустя ~30 лет мы будем дорисовывать ИИшкой.
Вы представляете к чему это может привести? Это хоть и концепт, но если люди придумают как создать ИИ с памятью и прокачают ее очень сильно, то игры могут быть созданы просто одним промтом человека. Захотел сегодня поиграть в средневековый экшен с драконами, бац и она сделала игру по запросу. И больше того скажу что возможности в этой игре будут безграничны. Захотел что бы здание рухнуло? Взорвал и оно обвалилось по физике. Захотел зайти в любое здание? Вуаля, там не пусто, есть интерьер и т.п. и это если только говорить про реалистичный сеттинг. Возможности безграничны. Считайте что это гаррис мод на максималках.
Как раз таки возможности ограничены. Уже сегодня обучении ии затрачивает непропорционально больше ресурсов, а результат не особо впечатляет. Чтобы тобой описанное произошло, нужно получить реальный ии и затратить на его создание нереальное количество денег и сил, а не нейронку. Нейронка на такое не способна и в обозримом будущем.
@ если ты прочитал бы внимательно, то я написал ИИ, а не нейронка. А еще ты недооцениваешь масштаб вложений в развитие нейросетей и ИИ. Все что может использоваться в военных целях и давать преимущество будет спонсироваться свыше в огромных масштабах, а позже и придет к людям, так что это будет скоро, и это скоро может настать через лет 10-20.
@@НовостиЗумера ты сперва хоть разберись в возможностях нейронки типа SD, чем пороть фантастический бред. Посмотри ролики тех людей, кто подробно рассказывает что такое нейросеть и собственно ИИ. Нет ии в природе и с нейронки он не появится. Об этом говорилось неоднократного.
😊
@@stepashka_skrepaа ты подожди, возможно и появится, хоть всё завязано на простом алгоритме связей но подожди ещё немного времени и сразу же появляется новый алгоритм, на основе нашего мозга! Если ты не знал то сейчас изучают как мозг интерпретирует информацию, скорее всего через лет так 10 смогут изучить как работает логическое мышление и пространственное ориентирование, тем самым предоставляя алгоритм работы этого всего в головном мозге!
4:08, ты что, мы завтра не учимся, а вот после завтра экзамен по химии😭😭😭
Я вот-вот занялся программированием на пайтон и нашел похожую штуку на пайтон, которая используется для быстрого ИИ, называется Mojo, пока нету конкуренции, я хочу создать свою ИИ-игру, теперь хочу сказать спасибо за совет.
Следующий этап развития игровой индустрии - игра, которая запускается внутри мозга человека
Завтра ко второму, можно поспать. Сыч, не благодари
Я рад, что сам догадался пару месяцев назад до того, что разработчики скоро будут делать лишь "оболочку" игр, а за визуал будут отвечать нейронки 😁
Кстати уже есть нейронка майна только там все легче просто открываешь сайт и играешь
Ребят, а ни у кого нет такого что когда смотришь на нейро кс, нейромайнкрафт, либо просто в игре где то в лабиринте теряешься, то болит голова и хочется спать?
Эффект от визуальной составляющей в играх подкрепляется фактором коллективной эмпатии, уходя корнями глубоко в коллективное бессознательное. Смотря на то как Артур Морган умирает в конце РДР2 переживание усиливается за счет ощущения сопричастности к колективному опыту миллионов других игроков. Сделав визуальный ряд для каждого игрока уникальным ИИ может убрать эту важную компоненту. это интересный психологический момент.
Watch Dogs Legion передаёт привет
Спасибо за вставку робота Pulse 75, это помогает узнаванию бренда
Бро не волнуйся завтра ко второму
Теперь ловить трипы стало проще благодаря нейросетям.
Как то странно насчет пространственного мышления, я только сейчас понял что во сне я никогда не шел назад...
Интересно посмотреть как нейронка покажет первого ассасина, это вероятно будет похоже на тот момент когда дезмонд нестабилен и мы не можем ничего разглядеть, все смазано в начале игры
8:47 дед сам по итогу сдался и застрелился
Куда пропала шутка про деда
18:41 - показывает евро, говорит доллар, гениально
указывает на ошибку и сам ошибается
это фунты
@@Эль-мырзаЭрмеков-х8ьне выкупил
Welcome to the club, body! Mr. Programmer.
Добро пожаловать в клуб, чувак! Мистер Программист
XDDD
Мне кажется это просто прикол. По сути это простой инпейнт с добавлением промпта в виде кейинпута игровых клавиш. Процедурная генерация Баггерфола была "умнее" и технологичнее в этом плане=)
Нужно создать игру чтобы нейронка создала с неё игру, понял🫡
20:41 Я подумал это Винди...
И я😂😂😂
Я тоже
О как раз сел поесть, потрясающий тайминг
Отличное видео, спасибо, Свич
9:39 можно создать мешами карту с которыми будет работать нейронка накладывать на них образы.
дальше в видео про этот способ говорится.
судя по всему голо-палуба из
стар-трека вполне близко👌👍
Мог бы дополнительно рассказать про Оазис ИИ (то же самое что кс-ка, но с майнкрафтом и в браузере), и про Rosebud AI (то же что и проект от EA, но похуже и без своих ассетов, зато запустить можно уже сейчас в браузере)
в чудесное время мы живём
наверное это будет моим любимым видео на канале)
Все мы становимся программистами на пайтоне когда речи заходит о локальном ии
2028 - роботизация, первые массовые андроиды
2031 - первые киберимпланты
2032 - игры и контент создаются «налету» нйросетями
2033 - первое проектирование и производство нейросетями вещей на автоматических заводах
2034 - курс BTC 1.2 млн. $
2036 - бум популярности виртуальных миров, созданных нейросетями
2037 - биткоин - официально основная валюта планеты
2039 - первые персональные квантовые компьютеры
2041 - зарождение сознания у компьютера (квантовая нейросеть)
2045 - базы на Луне
future
Бред😂, чтобы ИИ делал контент на лету в 2032?😂😂😂 Даже сейчас rtx 4090 не способен сделать трассировку лучей на уровне анимации финальной фантазии 2001 года, ты о чем?! ИИ будет в полном объеме не раньше 2060 года
А насчёт битка все возможно, тут. Многие говорили что он лопнет, а по факту сделал многих миллиардерами, а кто сомневался как был бедным, так и остался 😅
думаю, базы на Луне появятся раньше, в 30х
говоря о таких проектах ты чаще всего забываешь уточнить что они наструганы на коленке командой из 2.5 орангутангов, и дай похожее тз крупной студии (чаще всего) они допилят всю эту чепуху до идеала. стокфиш ведь обучили каким то образом играть безошибочно? значит нет ничего невозможного
5:26 а в ггсел даже ждать не надо, чтобы пополнися кошель
18:48 Насколько же охеренно выглядит освещение сделанное нейронкой, почему разрабы игр не могут сделать это своими руками?
тут и не нужно быть экспертом, через 50 лет вряд ли кому-то в школу понадобится, нас не будет ))
В смысле "скорее всего можно"? Первой игрой, которую запустили на нейронке был Doom 1. Потому что любая новая платформа делается так: Запускается Doom, потом вокруг него строится всё остальное.
Нейросеть это сон человека
Я то думал минимум лет 5 пройдет до ИИ игр, а они уже тут, а через 5 лет гта 7 будет писаться промптом "сделай нам гта 7, чтоб было (круче:2) чем гта 6" :))
10:55 легенда))
18:52 скажу что для качественного датасета нужна не "1-2 H100" , а хотя бы несколько десятков, или и того больше.
11:04 мерриуезер крышу у Тревора свистнули
ХАХХАХАХАХАХ РЕАЛЬНО
не знаю по поводу того что в 5090 будут такие возможности но её можно уже купить в сборном пк за евро)
Ручная работа всегда была, есть и будет лучше
4:00, видеокарта это грубо говоря тот же процессор, но мощнее в несколько сотен раз, но и разницу в передаче конечно никто не отменял, вот тебе и ответ)
Ну слушай, это очень очень поверхностно, потому-что чип сам по себе может в чём-то похож, но его задача, его скажем так строение другое. Да не спорю что это тот же процессор, но это если пытаться объяснить человеку, который знает что такое процессор, но не знает что такое видеокарта
@@leehoy228Тут проще сказать, что инженерно видеокарта и процессор разные вещи, они сами по себе аппаратно нацелены на разные задачи, хотя основная суть у них одна и тажа. (Правда GPU это почти как комп в компе, с точки зрения программирования)
@Partizag именно, я думаю что интерпретировать это можно по разному, главное что понятна сама суть. Ну и беря это в пример, ответить на вопрос из видео. :)
Задача видеокарты, выполнить шейдеры, покрасить и отрисовать пиксели. Обычно это все неплохо так параллелится, поэтому видеокарта состоит из огромного множества тупеньких ядер, каждое из которых может выполнять свою задачу.
Пока проц пердя отрисовывает изображение на своих в лучшем случае 24 потоках (десктоп сегмент), каждый вычислительный блок видеокарты (которых, напомню, дохуя) рисует свой сегмент изображения на опр этапе (растеризация, шейдеры и прочая залупа).
Вот так и получается, если сильно упростить.
@@leehoy228Разницу между процессором и видеокартой можно описать количеством ядер и их мощности (не углубляясь в память, кэш). У процессора - несколько очень производительных ядер. У видеокарты - тысячи слабеньких ядер, которые могут выполнять одну не сложную задачу, из-за чего видеокарта хорошо справляется с параллелизацией задач (в т. ч. рендер, нейросети и т.д.)
Ты прав фильтры. Но не только те которые показал. Постепенно обучат на матерьалы при разном освещении.
По слоям.
Потом тени и отражения.не путать с dlss. После чего матерьалы в движке будут иметь маркеры для нейронок. На компе это будут массивы из уже обработанных чисел. Которые нейронка будет вертеть в зависимости от x, y, z освещения и скорости.
Насчет открытого мира, можно в майнкрайт поиграть кстати..
завтра к 8 как обычно
Я тебе скажу больше.
Я более 2-ух лет играю в облаке.
И чувствую себя прекрасно
Ну как думаешь GTA VI будет в такой графики? Ролики смотрел вроде похоже
7:31 ну це було сильно! ахаххах
Бригада, что будет если встроить самообучающиеся нейронку в робота пустышку💀
И дать дробаш
12:37 какой же гений..
думаю это след ступень DLSS, движок будет отрисовывать каркас графика, а вместо трассировки или растеризации нейронный рендер
Ты бы на фоне сирену еще громче сделал
приемлемый результат был бы, если игру сделали бы обычным способом, но из примитивных квадратов да кругов, чтоб не нагружать комп, а нейронка бы преобразовывала в реалистичные объекты с текстурами да освещением
Конкретный питон отдельно качать не нужно, там в промпте для конды указывается версия питона, анаконда сама его скачает
swich недопонятый гений, чтоб понять надо через ликероводочный отдел пройти
за нейросетями явно будущее, но совсем не такое каким его создают сейчас.
В удивительное время мы живем,шок!😮👍🏻
Можешь выпустить гта 7 пожалуйста?
8:45 Автор, что это было? Совсем охренел?
то что это выглядит как сон реально пугает😬
типа нейронка живая
Так потому что на процессоре надо запускать, он быстрее обрабатывает небольшие обьемы данных, а видюха наоборот, большой обьем, но дольше, а ИИ как раз надо быстро и небольшие обьемы
"Задержка приемлемая" (тут прямо напрашивается пошлая шутка) В том-то и дело, что лишь приемлемая... Но ни разу не комфортная. А тут она минимум удвоится (туда и обратно) + время на обработку кадра нейросетью.
Единственные кто сейчас что-то хорошее делают - это мододелы.
А прикиньте, если подключить ПК в мозг. Мы могли бы продолжать в игры даже во сне.
Вроде нейросети работают также как нейроны мозга
А зачем если сны круче игр?
@bebra2132 Разницы вроде нет. Просто появится возможность стримить во сне)
Нейросети сильно отличаются от работы мозга, почитай книжку по биологии за восьмой класс.
Не умничай.
Нейросети были созданы по образу нейронов. Принцип работы может иногда отличаться, но логика та же.