Нет. Мозг сортирует и обрабатывает информацию. Что то удаляет, что то сохраняет, расставляет приоритеты и т.д.. Есть разные уровни. Крч, происходит оптимизация полученной информации, чтобы твой котелок не закипел от переизбытка. А то, что ты видишь как сон, лишь побочный эффект от вышеупомянутых процессов. Но это я грубо описал. На самом деле все куда сложней и есть что изучать в этом плане.
@@Orbuzzon ну, теория сна всё ещё сильно не изучена так как у всех разные типы снов. Мне к примеру всегда снятся своеобразные фильмы. Кому-то может будут сниться переживания по прошлому или желания в будущем и так далее
Да, в интересное время мы живем. Жаль в данный момент нет развитых нейроинтерфейсов, ато только представьте, какие были бы возможности.Например, с помощью нейронки оцифровать мыслеформы и записать сон, чтоб потом была возможность вернуться в конкретный сон в любой момент. Включить сознание во снах по желанию. Игры с фотореалистичной графикой с полным погружением.
@@ikolya нефритовый стержень Xi недоволен вашим качеством передачи видео текст. Необходимо растрированно передавать текст без уникальных текстов грамматика
Я огорчён тем что сейчас не пытаются оптимизировать то что есть для супер-слабых ПК а берут и ещё сильнее нагружают системы миллиардами обработок! Даже если это всё будет работать на отлично то это будет доступно малому кругу лиц, у которых будет пару лишних миллионов на такие вот вещи! Простым работягам тоже хочется играть в такие игры!
@@старыйформат держу в курсе, в этом и заключается прогресс. Такие корпорации как амд и нвидиа созданы для того, чтобы создавать новое, развивать свою область и двигать ее вперёд, а улучшать и доводить до совершенства уже созданное - удел компаний чуть поменьше, чем они собственно и завлекают клиентов. У каждого своя роль
На самом деле, если бы нейронке дали бы возможность строить свёртки отдельно от кадра и передавать их, скорее всего она бы научилась запоминать местоположение игрока. Та же GPT видит не только полную историю токенов, но и может генерировать скрытые, что значительно расширяет способности к мышлению, ведь не все мысли удаётся сгенерировать за один такт нейронки. Тут нет ни скрытых кадров, ни скрытых свёрток, нейросеть буквально балансирует между функциональностью и точностью.
Так можно наснимать видео в реальности, потом обучать сеть, указав в нужные моменты клавиши WASD (эта информация может быть записана, например, акселерометром при съёмке)
Зачем акселерометр записывать если сначала можно видео прогнать через нейросеть которая будет будет записывать векторы движения камеры относительно пространства. Есть дроны с такой системой навигации и она в некоторых случаях точнее GPS, дрон на Марсе камерой проверял расстояние скорость и свое расположение и разбился потому что при посаде попал на местность похожую на монотонный шум из песка и не правильно посчитал расстояние до земли и шмякнулся так что лопасть сломалась.
Отвечу, как программист. Нейронкой сейчас пользуются через одно место. Заставляют каждый кадр перерисовывать.Это же огромная трата ресурсов. А надо сделать так, что нейронка один раз нарисовала текстуру, запомнила и потом просто масштабировала её по геометрии. Разработки в этом направлении ведутся, но появятся не скоро, так как там требуется знание математики. Так что сейчас просто по приколу всё пускают на перерисовку каждого кадра, поэтому все выглядит так криво и косо.
Была бы такая же совершенная нейросеть как у человека которая имеет чуйку на предстоящую рекламную интеграцию и которая будет пропускать эту самую рекламу.
@@SirusStarTV Да есть расширение для браузера пропускающее рекламу, называется SponsorBlock. Но так как указанный мной тайминг не реклама поэтому я завис с мыслью "Какого фига реклама".
По сути, DLSS 3 этим и занимается со своей генерацией кадров. Нужно просто вложить в эту технологию ещё пару миллиардов долларов и года 3 кранчей, чтобы увидеть действительно реализм в игре. И будут у нас нейро-видеокарты)
в основе таких решений сверточные сети и почти все из них - последовательные нелинейные преобразования, причем нелинейность на конце очередного слоя (для разделимости данных), а сами слои - линейная комбинация весов, искажений и вводов (обычно в виде канонического вида линейного уравнения, Ax + B). Буквально все и сразу содержимое очередного кадра, выборочно отфильтрованное/искаженное по пути до конца нейросети суммируется с предыдущими представлениями кадров (это имеющиеся значения весов на протяженности сети, в каждом из слоев) в виде разницы между требуемым и имеющимся выхлопом сети при обучении. Потери качества при обучении тут и на совести качества исходного видео, и количества кадров в нем, и малого объема датасета (а тут похоже что есть добавочные данные о позиции на карте, нажатых кнопках, инвентаре итд), и конечно малого размера модели, чтобы она выдавала хотя бы эти FPS. Проблема с размытыми анимациями в самой сути процесса обучения - и стохастический градиентный спуск, и аналогичные методы обучения не делают предположений о том, чему и как надо учиться, они моделируют вероятностную картину задачи и в ней ищут оптимальные точки, достаточно хорошие решения как значения весов нейросети. Чтобы ответы подходили под всё, чему учили модель, одновременно - не только один или несколько примеров. А по % времени видео (т.е. от объема датасета по сути) перезарядки занимают в сумме дай боже несколько минут. По сравнению с перезарядками кадров оружия на фоне стены в тысячи раз больше, потому кадры перезарядки на входе такой глубинной сети просто не имели шанса достаточно сильно "въесться" в имеющиеся веса/биасы в очередную эпоху обучения. имейте в виду, что вы используете недообученные нейросети, полное обучение (предсказание всего, что в обучающем датасете, на 100%) называется "оверфиттинг" и обычно значит, что другие/реальные данные будут предсказаны неверно. если обучение ветвится и разные варианты после достижения оптимальной точки обучения проверяются руками, в одном из них этот баг может исправиться, но это бесконечно дорого, потому используются самые разные трюки, если увеличение датасета и обучение по новой не помогают или невозможны...
Блин, а ведь в будущем старые шедевры по типу "Hitman - blood money" можно будет приравнять к современным, ведь как автор видоса сказал: "Все будут обращать внимание не на графику, а на геймплей"
15:46 d-e-e-p, Ввод. Лукьяненко в Лабиринте Отражений же описывал именно это, только в его фантастике специальная программа гипнотизировала мозг человека который воспринимал простейшую графику и "дорисовывал" до реальности. И вот, спустя ~30 лет мы будем дорисовывать ИИшкой.
В каждой игре процессор сначала подготавливает кадр для видеокарты и потом отправляет его на видеокарту и она его дорисовывает Почему нельзя этот процессорный кадр отправить в нейронку как входные данные, а конечный кадр который выведется на монитор будет выходными данными, тогда входные кадры от процессора будут содержать и координаты и направления света и все остальные координаты и границы
Вы представляете к чему это может привести? Это хоть и концепт, но если люди придумают как создать ИИ с памятью и прокачают ее очень сильно, то игры могут быть созданы просто одним промтом человека. Захотел сегодня поиграть в средневековый экшен с драконами, бац и она сделала игру по запросу. И больше того скажу что возможности в этой игре будут безграничны. Захотел что бы здание рухнуло? Взорвал и оно обвалилось по физике. Захотел зайти в любое здание? Вуаля, там не пусто, есть интерьер и т.п. и это если только говорить про реалистичный сеттинг. Возможности безграничны. Считайте что это гаррис мод на максималках.
Как раз таки возможности ограничены. Уже сегодня обучении ии затрачивает непропорционально больше ресурсов, а результат не особо впечатляет. Чтобы тобой описанное произошло, нужно получить реальный ии и затратить на его создание нереальное количество денег и сил, а не нейронку. Нейронка на такое не способна и в обозримом будущем.
@ если ты прочитал бы внимательно, то я написал ИИ, а не нейронка. А еще ты недооцениваешь масштаб вложений в развитие нейросетей и ИИ. Все что может использоваться в военных целях и давать преимущество будет спонсироваться свыше в огромных масштабах, а позже и придет к людям, так что это будет скоро, и это скоро может настать через лет 10-20.
@@НовостиЗумера ты сперва хоть разберись в возможностях нейронки типа SD, чем пороть фантастический бред. Посмотри ролики тех людей, кто подробно рассказывает что такое нейросеть и собственно ИИ. Нет ии в природе и с нейронки он не появится. Об этом говорилось неоднократного.
@@stepashka_skrepaа ты подожди, возможно и появится, хоть всё завязано на простом алгоритме связей но подожди ещё немного времени и сразу же появляется новый алгоритм, на основе нашего мозга! Если ты не знал то сейчас изучают как мозг интерпретирует информацию, скорее всего через лет так 10 смогут изучить как работает логическое мышление и пространственное ориентирование, тем самым предоставляя алгоритм работы этого всего в головном мозге!
Надо чтобы нейронка считывала объекты на сцене, а сами объекты сделать в виде обычных 3д кубиков, прямоугольников, даже людей моделировать не надо. Потом нейронке дать заранее нарисовать эти объекты и зафиксировать картинку статичных объектов на карте. Все что разрушается из 3д объектов, просто удаляется с карты. Все что двигается, дать обычную физику кубикам. Спецэффекты все можно заранее нарисовать нейронкой и просчитать. И все - получится революционная игра мечты, в которой можно сделать полностью разрушаемую карту. Остается только надеяться, что кто-то догадается так сделать
@@АрчиМур-ф7с ясен пень) Увы разрабы не такие смелые, чтобы идти в неизвестность) Затраты денег, все дела. Поэтому пока родят что-то революционное, пройдет лет 5 минимум
@@АрчиМур-ф7с да и безбашенных энтузиастов маловато мне кажется, которые горят какой-то идеей. Идею сначала надо показать, реализовать, сами что-то придумывают только единицы
Тоже задумывался насчёт того, что в скором времени перейдем на облако, где нам будут транслировать картинку, ТК либо будут технологии передачи сигнала(настолько хорошие, что ну задержки практически не будет), либо комплектующие где нет смысла покупать их обычному юзеру и будет легче купить облачную подписку(кст год-два назад друг уже играл на облаке, пока не купил себе по мощнее ноут). Задумываюсь ещё что будут локальные центры по городам, например как провайдеры интернета, ток провайдеры пк, в общем просто по кабелю, либо по сигналу.
От задержки в передачи информации малость не избавиться (в обозримом будущем) так как она ограничена скоростью света, собственно мы как раз и упираемся в это значение сейчас и потому у нас задержка с сервером в США под 100 мс.
@@ктоя-о8щ упустил момент, просто обычно чтобы неиросеть хоть что то запомнила нужно очень много информации, и плюс я погуглил и действительно модели от этой компании обучаются на сравнительно маленьком количестве данных около 80-90 гб, и я считаю что для 90 часов геймплея неиронка показывает очень хороший результат очень хороший результат
Мне кажется это просто прикол. По сути это простой инпейнт с добавлением промпта в виде кейинпута игровых клавиш. Процедурная генерация Баггерфола была "умнее" и технологичнее в этом плане=)
Ребят, а ни у кого нет такого что когда смотришь на нейро кс, нейромайнкрафт, либо просто в игре где то в лабиринте теряешься, то болит голова и хочется спать?
я когда впервые вообще увидел игру от ии, я сразу начал вспоминать свои сны... это же буквально сны искусственного интелекта... до чего дошел прогресс...
Ну первое что я могу сказать Гугл скоро сделает это возможным учитывая что они уже работают на Genie 2 и результаты там довольно хорошие так что ждем Genie 3 и там уже можно будет трезво оценить возможности нейронки, если нейронка будет все запомнать в открытом мире а не просто в квадратной коробке то это уже будет неплохой результат
Эффект от визуальной составляющей в играх подкрепляется фактором коллективной эмпатии, уходя корнями глубоко в коллективное бессознательное. Смотря на то как Артур Морган умирает в конце РДР2 переживание усиливается за счет ощущения сопричастности к колективному опыту миллионов других игроков. Сделав визуальный ряд для каждого игрока уникальным ИИ может убрать эту важную компоненту. это интересный психологический момент.
Интересно посмотреть как нейронка покажет первого ассасина, это вероятно будет похоже на тот момент когда дезмонд нестабилен и мы не можем ничего разглядеть, все смазано в начале игры
Я вот-вот занялся программированием на пайтон и нашел похожую штуку на пайтон, которая используется для быстрого ИИ, называется Mojo, пока нету конкуренции, я хочу создать свою ИИ-игру, теперь хочу сказать спасибо за совет.
Мог бы дополнительно рассказать про Оазис ИИ (то же самое что кс-ка, но с майнкрафтом и в браузере), и про Rosebud AI (то же что и проект от EA, но похуже и без своих ассетов, зато запустить можно уже сейчас в браузере)
мне стало интересно, поможет ли этот разрекламированный NPU блок, в новых процессорах ускорить эту "игровой" нейронку, достаточно что бы появилась разница между применением NPU и чисто процессора, или он даже по прямому назначению (работы с нейронкой) не справится?)
2028 - роботизация, первые массовые андроиды 2031 - первые киберимпланты 2032 - игры и контент создаются «налету» нйросетями 2033 - первое проектирование и производство нейросетями вещей на автоматических заводах 2034 - курс BTC 1.2 млн. $ 2036 - бум популярности виртуальных миров, созданных нейросетями 2037 - биткоин - официально основная валюта планеты 2039 - первые персональные квантовые компьютеры 2041 - зарождение сознания у компьютера (квантовая нейросеть) 2045 - базы на Луне future
Бред😂, чтобы ИИ делал контент на лету в 2032?😂😂😂 Даже сейчас rtx 4090 не способен сделать трассировку лучей на уровне анимации финальной фантазии 2001 года, ты о чем?! ИИ будет в полном объеме не раньше 2060 года
А насчёт битка все возможно, тут. Многие говорили что он лопнет, а по факту сделал многих миллиардерами, а кто сомневался как был бедным, так и остался 😅
В смысле "скорее всего можно"? Первой игрой, которую запустили на нейронке был Doom 1. Потому что любая новая платформа делается так: Запускается Doom, потом вокруг него строится всё остальное.
говоря о таких проектах ты чаще всего забываешь уточнить что они наструганы на коленке командой из 2.5 орангутангов, и дай похожее тз крупной студии (чаще всего) они допилят всю эту чепуху до идеала. стокфиш ведь обучили каким то образом играть безошибочно? значит нет ничего невозможного
Ты прав фильтры. Но не только те которые показал. Постепенно обучат на матерьалы при разном освещении. По слоям. Потом тени и отражения.не путать с dlss. После чего матерьалы в движке будут иметь маркеры для нейронок. На компе это будут массивы из уже обработанных чисел. Которые нейронка будет вертеть в зависимости от x, y, z освещения и скорости.
Я то думал минимум лет 5 пройдет до ИИ игр, а они уже тут, а через 5 лет гта 7 будет писаться промптом "сделай нам гта 7, чтоб было (круче:2) чем гта 6" :))
Нет межпрастрансвенной связи во сне. Хз у меня были. А ещё говорят читать нельзя. Читал книги и даже запомнил о чём хах. И то ещё цветочки. Ну может то редкость или ноу норма , либо учёные слишком в себя поверили ) Интересный выпуск , спасибо 😁🤝⚡
приемлемый результат был бы, если игру сделали бы обычным способом, но из примитивных квадратов да кругов, чтоб не нагружать комп, а нейронка бы преобразовывала в реалистичные объекты с текстурами да освещением
Так потому что на процессоре надо запускать, он быстрее обрабатывает небольшие обьемы данных, а видюха наоборот, большой обьем, но дольше, а ИИ как раз надо быстро и небольшие обьемы
"Задержка приемлемая" (тут прямо напрашивается пошлая шутка) В том-то и дело, что лишь приемлемая... Но ни разу не комфортная. А тут она минимум удвоится (туда и обратно) + время на обработку кадра нейросетью.
Ну сравнение такое себе, лично я вижу четкую картинку во сне, незнаю как у других. А аот то что суть изображения довольно похожа это да, так как по сути нейросеть, как и мозг в отключке просто смешивает все изображения полученные при работе и выходит порой дикая дресня
Я думаю, что игры на нейросетях - это в целом-то наше будущее. Но делать игры на ИИ надо немножечко иначе. Нельзя давать им полностью креативить. Нужно создавать базовую игру на примитивах, чтобы она запускалась в такой конфигурации хоть на калькуляторе. И нейросетями позволять улучшать визуализацию. Просто если раньше 3д-модели весили гигабайты, то теперь гигабайты будут весить промты для таких вот рендеров
Пока ни в одной нейро-игре не задумывались о сохранении прогресса и возможности его продолжить, так что до сюжетных ии-игр далеко. Да и даже если бы были реализованы сохранки, то сложно доверять сохранению/загрузке без конкретной структуры и конкретного алгоритма. Я думаю, годные нейро-игры на данный момент возможны, только если доверить ИИ определенные аспекты - сюжет (вокруг изначально заложенной основы), доп. миссии, поведение и диалоги NPC, случайные события, некую вариативность окружения (погода, ветер, времена года, разрушаемость и состаривание построек)
не дядь, ты вообще не вкурил сути видео, главный посыл был с примером гта 5, где кадр бьётся на слои и нейронка понимает как встраивать рил кадры накладывая на игровой геймплей, то есть сама игра обрабатывается на твоём пк, а нейронка просто накладывает фильтры, для рил лайф картинки этого уже будет достаточно, и сохраняться ты сможешь и миссии проходить, ведь это та самая игра, ии только фильтр делает
@@ктоя-о8щ это я вкурил, но как раз таки использование нейронок чисто для графики я считаю неинтересным направлением. Это не добавит играм реиграбельности, и уникальности игрового мира в каждом твоем прохождении. Геймплей и сюжет важнее графона
А применение нейронок для графона считаю оправданным, только если это удешевило бы стоимость игр для конечного пользователя, т.к. произошло бы снижение затрат игровых студий на создание ассетов, шейдеров и пр. (ну и саундтрека, например, хотя это не к графике)
@@deadbyte42 Нейронки не смогут создавать полноценные игры, единственное что сейчас мы имеем - нейронку которой скормили тысячи часов геймплея и теперь она может имитировать геймплей кс.
18:41 Автор, кстати ты путаешь обучение нейронных сетей и запуск чего на обученной нейросетке. H100 созданы для обучения, там гиганская производительность. А если на ней запускать уже обученную нейросетку это совсем другое и столько вычислительной мощности ненужно
4:00, видеокарта это грубо говоря тот же процессор, но мощнее в несколько сотен раз, но и разницу в передаче конечно никто не отменял, вот тебе и ответ)
Ну слушай, это очень очень поверхностно, потому-что чип сам по себе может в чём-то похож, но его задача, его скажем так строение другое. Да не спорю что это тот же процессор, но это если пытаться объяснить человеку, который знает что такое процессор, но не знает что такое видеокарта
@@leehoy228Тут проще сказать, что инженерно видеокарта и процессор разные вещи, они сами по себе аппаратно нацелены на разные задачи, хотя основная суть у них одна и тажа. (Правда GPU это почти как комп в компе, с точки зрения программирования)
@Partizag именно, я думаю что интерпретировать это можно по разному, главное что понятна сама суть. Ну и беря это в пример, ответить на вопрос из видео. :)
Задача видеокарты, выполнить шейдеры, покрасить и отрисовать пиксели. Обычно это все неплохо так параллелится, поэтому видеокарта состоит из огромного множества тупеньких ядер, каждое из которых может выполнять свою задачу. Пока проц пердя отрисовывает изображение на своих в лучшем случае 24 потоках (десктоп сегмент), каждый вычислительный блок видеокарты (которых, напомню, дохуя) рисует свой сегмент изображения на опр этапе (растеризация, шейдеры и прочая залупа). Вот так и получается, если сильно упростить.
@@leehoy228Разницу между процессором и видеокартой можно описать количеством ядер и их мощности (не углубляясь в память, кэш). У процессора - несколько очень производительных ядер. У видеокарты - тысячи слабеньких ядер, которые могут выполнять одну не сложную задачу, из-за чего видеокарта хорошо справляется с параллелизацией задач (в т. ч. рендер, нейросети и т.д.)
Думаю, наилучшим и доступным решением для использования нейро фильтров будет их запекание. В запечке фильтров будут сохранены все слои текстуры, материалы, карты света и тд. чтобы зафиксировать результат их работы (рендер). Или комбинирование запечки фильтров с генерацией в реальном времени ели динамика игры требует того.
Не вариант. Учитывая, как работают нейросети, чтобы запечь результат их работы понадобится бесконечный объём памяти. Сейчас и так изначально разрабатывают все модели в заведомо более высоком качестве, а потом запекают всё что только можно, и даже так получается по 150-200 ГБ.
@maxpsyh3389 Для больших игр вроде GTA ето безусловно не вариант по крайней мере сейчас, но на той же кс думаю может получится пусть и игра будет 150 весить. Как эксперимент. Хотя твое замечание конечно хорошое.
@@АртемГолодок-о7я А смысл? С учётом размера и простой геометрии арен, сделать в КС фотореалистичную графику можно хоть вчера. Только вот КС-серам более важно читаемость окружения и 240 FPS на ноутбуке 10-летней давности.
Про осознание в пространстве - это ограничение определенной модели. Я не в курсе какая модель использовалась для "нейроксго" и че там у нее по слоям, но создание буфера для хранения Н-ого количества последних кадров не новинка и практически повсеместно используется в предикторах на модели. Я по крайней мере работал с предиктом направления движения ( для считывания стрейфов ) и при буфере в 10-20 кадров вполне был чистый результат.
Разочаровался, что на моменте "поэтому у меня есть шансы разобраться в питоне" не было рекламы скиллбокса
Я по привычке начал перематывать😅
+++
Просто скилбоксы посмотрели на этого иишкадебика и решили нунах.
Второе разочарование, когда оказалось ему просто нужно было подрубить CUDA, на котором изначально и подразумевалась работа.
@@onlimkun8476 У меня такой же рефлекс сработал;)
Когда мы спим и нам снятся сны, это значит что кто то нас тренирует как ту нейросеть из видео
Нет. Мозг сортирует и обрабатывает информацию. Что то удаляет, что то сохраняет, расставляет приоритеты и т.д.. Есть разные уровни. Крч, происходит оптимизация полученной информации, чтобы твой котелок не закипел от переизбытка. А то, что ты видишь как сон, лишь побочный эффект от вышеупомянутых процессов. Но это я грубо описал. На самом деле все куда сложней и есть что изучать в этом плане.
@@Orbuzzon Интересная теория, но все мы знаем правду)
@@Orbuzzon Откуда ты это знаешь? Может тебе это внушили? Ж)
@@Orbuzzon ну, теория сна всё ещё сильно не изучена так как у всех разные типы снов. Мне к примеру всегда снятся своеобразные фильмы. Кому-то может будут сниться переживания по прошлому или желания в будущем и так далее
@@Orbuzzon Чел же очевидно рофлит.. блин..
теперь денува не проблема. можно просто заставить нейронку чекать геймплей понравившейся игры и играть в нее, когда будет температура
Я думал денува не проблема, потому что можно заставить нейросеть ее взломать))
@@alexeytsvigune6230 не, это квантовые компы будут ломать
@@alexeytsvigune6230 денува денува. Вы лучше про стар форс узнайте
Когда это денува вообще была проблемой?
@@kamasutr-a просто зумерки выучили новое слово, вот и повторяют его. Школота, видимо не знают про старфорс
А прикиньте в будущем будут такие соревнования когда игроки скармливают нейросеткам свои катки, а после этого проводятся матчи среди этих нейросеток
афк киберспорт
@@shadow_nekit Афки в станке2 их куча
Чисто битва между алгоритмами, каждый качал по своему и потом выставляет своё детище на соревы
а как же ии майнкрафт?
Там еще рановато 😂
Нейро-сама уже вполне играет.
@@JustFunnestCHесли что давно я её не смотрел, интересно, что вообще за это время изменилось?
@@JustFunnestCH Тут не нейро сама играет, а нейро сама игру делает с нуля в которую можно играть
ртх забыли там
Да, в интересное время мы живем. Жаль в данный момент нет развитых нейроинтерфейсов, ато только представьте, какие были бы возможности.Например, с помощью нейронки оцифровать мыслеформы и записать сон, чтоб потом была возможность вернуться в конкретный сон в любой момент. Включить сознание во снах по желанию. Игры с фотореалистичной графикой с полным погружением.
Еще слишком мало времени прошло с момента начало эпохи Нейросетей и Ии
Шизофрения в подарок будет)
Даже не верится! Все это время я думал что играм уде некуда развиваться. А щас нейронка сама из памяти рисует игру
Только видеокарты развития медленно
@@ikolya нефритовый стержень Xi недоволен вашим качеством передачи видео текст. Необходимо растрированно передавать текст без уникальных текстов грамматика
Ай ай ай! Мастер Xi доволен вашим комментарием и приглашает вас погостить в санаторий с уйгур. У вас нет права на отказ!@@g1mby4
Я огорчён тем что сейчас не пытаются оптимизировать то что есть для супер-слабых ПК а берут и ещё сильнее нагружают системы миллиардами обработок! Даже если это всё будет работать на отлично то это будет доступно малому кругу лиц, у которых будет пару лишних миллионов на такие вот вещи! Простым работягам тоже хочется играть в такие игры!
@@старыйформат держу в курсе, в этом и заключается прогресс. Такие корпорации как амд и нвидиа созданы для того, чтобы создавать новое, развивать свою область и двигать ее вперёд, а улучшать и доводить до совершенства уже созданное - удел компаний чуть поменьше, чем они собственно и завлекают клиентов. У каждого своя роль
На самом деле, если бы нейронке дали бы возможность строить свёртки отдельно от кадра и передавать их, скорее всего она бы научилась запоминать местоположение игрока. Та же GPT видит не только полную историю токенов, но и может генерировать скрытые, что значительно расширяет способности к мышлению, ведь не все мысли удаётся сгенерировать за один такт нейронки. Тут нет ни скрытых кадров, ни скрытых свёрток, нейросеть буквально балансирует между функциональностью и точностью.
Так можно наснимать видео в реальности, потом обучать сеть, указав в нужные моменты клавиши WASD (эта информация может быть записана, например, акселерометром при съёмке)
И тогда можно будет играть в реальную жизнь, но воспроизведенную нейронкой😮
Зачем акселерометр записывать если сначала можно видео прогнать через нейросеть которая будет будет записывать векторы движения камеры относительно пространства. Есть дроны с такой системой навигации и она в некоторых случаях точнее GPS, дрон на Марсе камерой проверял расстояние скорость и свое расположение и разбился потому что при посаде попал на местность похожую на монотонный шум из песка и не правильно посчитал расстояние до земли и шмякнулся так что лопасть сломалась.
Ура ! Первый в мире видос СЫча в трезвом состоянии !!!
Протрезвей
УРА😂
Я где-то читал что русечи прекрасно подходят на роль бесплатных туалетов и даже можно сказать для этого созданы!
Надо чтоб нейронки не полностью перекрашивали игру в нечто, а только правили чутка тени/детали/цветокор, тогда мб будет полезно
Это называется оптимизация кода
ИИ это человеческое воображение выраженное во вне. это тупо то что бы происходите у человека в памяти если бы он пытался что-то вспомнить.
Скорее во сне
Отвечу, как программист. Нейронкой сейчас пользуются через одно место. Заставляют каждый кадр перерисовывать.Это же огромная трата ресурсов. А надо сделать так, что нейронка один раз нарисовала текстуру, запомнила и потом просто масштабировала её по геометрии. Разработки в этом направлении ведутся, но появятся не скоро, так как там требуется знание математики. Так что сейчас просто по приколу всё пускают на перерисовку каждого кадра, поэтому все выглядит так криво и косо.
Натягивание текстур на геометрию, где ещё требуется знание математики? Это же растеризация.
1:40 Рука автоматом потянулась к перемотке.
Ты не один😢
Была бы такая же совершенная нейросеть как у человека которая имеет чуйку на предстоящую рекламную интеграцию и которая будет пропускать эту самую рекламу.
@@SirusStarTV Да есть расширение для браузера пропускающее рекламу, называется SponsorBlock. Но так как указанный мной тайминг не реклама поэтому я завис с мыслью "Какого фига реклама".
@@SirusStarTVна пк это sponsor block на телефонах это revanced и ни каких нейронок не надо
По сути, DLSS 3 этим и занимается со своей генерацией кадров. Нужно просто вложить в эту технологию ещё пару миллиардов долларов и года 3 кранчей, чтобы увидеть действительно реализм в игре. И будут у нас нейро-видеокарты)
Зачем нам полный реализм в игре то? Если играешь за реализмом то мне тебя жаль
@@raptor19имеется ввиду графика фотореалистичная, а не то что сейчас
@smeeryx Так я о том же лол
@@raptor19 ну и рубись в нинтендо)
@@ThePAPAPSIH Высрал так высрал не думая) зачем тебе реализм если ты итак в нем живешь?😆
в основе таких решений сверточные сети и почти все из них - последовательные нелинейные преобразования, причем нелинейность на конце очередного слоя (для разделимости данных), а сами слои - линейная комбинация весов, искажений и вводов (обычно в виде канонического вида линейного уравнения, Ax + B). Буквально все и сразу содержимое очередного кадра, выборочно отфильтрованное/искаженное по пути до конца нейросети суммируется с предыдущими представлениями кадров (это имеющиеся значения весов на протяженности сети, в каждом из слоев) в виде разницы между требуемым и имеющимся выхлопом сети при обучении. Потери качества при обучении тут и на совести качества исходного видео, и количества кадров в нем, и малого объема датасета (а тут похоже что есть добавочные данные о позиции на карте, нажатых кнопках, инвентаре итд), и конечно малого размера модели, чтобы она выдавала хотя бы эти FPS. Проблема с размытыми анимациями в самой сути процесса обучения - и стохастический градиентный спуск, и аналогичные методы обучения не делают предположений о том, чему и как надо учиться, они моделируют вероятностную картину задачи и в ней ищут оптимальные точки, достаточно хорошие решения как значения весов нейросети. Чтобы ответы подходили под всё, чему учили модель, одновременно - не только один или несколько примеров. А по % времени видео (т.е. от объема датасета по сути) перезарядки занимают в сумме дай боже несколько минут. По сравнению с перезарядками кадров оружия на фоне стены в тысячи раз больше, потому кадры перезарядки на входе такой глубинной сети просто не имели шанса достаточно сильно "въесться" в имеющиеся веса/биасы в очередную эпоху обучения. имейте в виду, что вы используете недообученные нейросети, полное обучение (предсказание всего, что в обучающем датасете, на 100%) называется "оверфиттинг" и обычно значит, что другие/реальные данные будут предсказаны неверно. если обучение ветвится и разные варианты после достижения оптимальной точки обучения проверяются руками, в одном из них этот баг может исправиться, но это бесконечно дорого, потому используются самые разные трюки, если увеличение датасета и обучение по новой не помогают или невозможны...
Я думал что я сошел с ума, но когда ты сказал что тоже видел проекцию игры во сне как и я , значит я не один такой
Блин, а ведь в будущем старые шедевры по типу "Hitman - blood money" можно будет приравнять к современным, ведь как автор видоса сказал:
"Все будут обращать внимание не на графику, а на геймплей"
Качественно подобранная инфа, спасибо что деришь в курсе новинок!
15:46 d-e-e-p, Ввод. Лукьяненко в Лабиринте Отражений же описывал именно это, только в его фантастике специальная программа гипнотизировала мозг человека который воспринимал простейшую графику и "дорисовывал" до реальности. И вот, спустя ~30 лет мы будем дорисовывать ИИшкой.
В каждой игре процессор сначала подготавливает кадр для видеокарты и потом отправляет его на видеокарту и она его дорисовывает
Почему нельзя этот процессорный кадр отправить в нейронку как входные данные, а конечный кадр который выведется на монитор будет выходными данными, тогда входные кадры от процессора будут содержать и координаты и направления света и все остальные координаты и границы
Вы представляете к чему это может привести? Это хоть и концепт, но если люди придумают как создать ИИ с памятью и прокачают ее очень сильно, то игры могут быть созданы просто одним промтом человека. Захотел сегодня поиграть в средневековый экшен с драконами, бац и она сделала игру по запросу. И больше того скажу что возможности в этой игре будут безграничны. Захотел что бы здание рухнуло? Взорвал и оно обвалилось по физике. Захотел зайти в любое здание? Вуаля, там не пусто, есть интерьер и т.п. и это если только говорить про реалистичный сеттинг. Возможности безграничны. Считайте что это гаррис мод на максималках.
Как раз таки возможности ограничены. Уже сегодня обучении ии затрачивает непропорционально больше ресурсов, а результат не особо впечатляет. Чтобы тобой описанное произошло, нужно получить реальный ии и затратить на его создание нереальное количество денег и сил, а не нейронку. Нейронка на такое не способна и в обозримом будущем.
@ если ты прочитал бы внимательно, то я написал ИИ, а не нейронка. А еще ты недооцениваешь масштаб вложений в развитие нейросетей и ИИ. Все что может использоваться в военных целях и давать преимущество будет спонсироваться свыше в огромных масштабах, а позже и придет к людям, так что это будет скоро, и это скоро может настать через лет 10-20.
@@НовостиЗумера ты сперва хоть разберись в возможностях нейронки типа SD, чем пороть фантастический бред. Посмотри ролики тех людей, кто подробно рассказывает что такое нейросеть и собственно ИИ. Нет ии в природе и с нейронки он не появится. Об этом говорилось неоднократного.
😊
@@stepashka_skrepaа ты подожди, возможно и появится, хоть всё завязано на простом алгоритме связей но подожди ещё немного времени и сразу же появляется новый алгоритм, на основе нашего мозга! Если ты не знал то сейчас изучают как мозг интерпретирует информацию, скорее всего через лет так 10 смогут изучить как работает логическое мышление и пространственное ориентирование, тем самым предоставляя алгоритм работы этого всего в головном мозге!
Надо чтобы нейронка считывала объекты на сцене, а сами объекты сделать в виде обычных 3д кубиков, прямоугольников, даже людей моделировать не надо. Потом нейронке дать заранее нарисовать эти объекты и зафиксировать картинку статичных объектов на карте. Все что разрушается из 3д объектов, просто удаляется с карты. Все что двигается, дать обычную физику кубикам. Спецэффекты все можно заранее нарисовать нейронкой и просчитать. И все - получится революционная игра мечты, в которой можно сделать полностью разрушаемую карту. Остается только надеяться, что кто-то догадается так сделать
И спецэффекты, всё привязать к 3д объектам нейронкой, чтобы она не путалась и галюционировала
Это совершенно не так легко, как ты думаешь 😅
@@АрчиМур-ф7с ясен пень) Увы разрабы не такие смелые, чтобы идти в неизвестность) Затраты денег, все дела. Поэтому пока родят что-то революционное, пройдет лет 5 минимум
@@Nereal_Dvigatel С этим согласен, рисковать не хотят, но готовы рисковать зато со своей воук политикой
@@АрчиМур-ф7с да и безбашенных энтузиастов маловато мне кажется, которые горят какой-то идеей. Идею сначала надо показать, реализовать, сами что-то придумывают только единицы
Тоже задумывался насчёт того, что в скором времени перейдем на облако, где нам будут транслировать картинку, ТК либо будут технологии передачи сигнала(настолько хорошие, что ну задержки практически не будет), либо комплектующие где нет смысла покупать их обычному юзеру и будет легче купить облачную подписку(кст год-два назад друг уже играл на облаке, пока не купил себе по мощнее ноут). Задумываюсь ещё что будут локальные центры по городам, например как провайдеры интернета, ток провайдеры пк, в общем просто по кабелю, либо по сигналу.
Ну удачи конечно, но, чтобы это окупалось, надо ещё задирать цены, иначе никто этим не займётся
От задержки в передачи информации малость не избавиться (в обозримом будущем) так как она ограничена скоростью света, собственно мы как раз и упираемся в это значение сейчас и потому у нас задержка с сервером в США под 100 мс.
2:20 может быть 95 ТЫСЯЧ часов геймплея? (погуглил, действительно 95 часов)
Нет, 95
@EndlessExploration-k5r пшел отсюда
ага, 95 тысяч часов геймплея весом 600 гб?
@@ктоя-о8щ упустил момент, просто обычно чтобы неиросеть хоть что то запомнила нужно очень много информации, и плюс я погуглил и действительно модели от этой компании обучаются на сравнительно маленьком количестве данных около 80-90 гб, и я считаю что для 90 часов геймплея неиронка показывает очень хороший результат очень хороший результат
вот это технологии дошли, мы можем нажимать на буковки, и управлять челом
Мне кажется это просто прикол. По сути это простой инпейнт с добавлением промпта в виде кейинпута игровых клавиш. Процедурная генерация Баггерфола была "умнее" и технологичнее в этом плане=)
Ребят, а ни у кого нет такого что когда смотришь на нейро кс, нейромайнкрафт, либо просто в игре где то в лабиринте теряешься, то болит голова и хочется спать?
Автор неплохо так разобрался в сетках и поведал нам базу. Респект! Было интересно
Всё, я понял, третья халва выйдет, когда Валв создаст и обучит собственную нейронку
Аа я понял, мы не ложимся спать, мы попадаем в нейросеть
Рил нейронка это наш мозг, игры сейчас как во снах будут
я когда впервые вообще увидел игру от ии, я сразу начал вспоминать свои сны... это же буквально сны искусственного интелекта... до чего дошел прогресс...
Ну первое что я могу сказать Гугл скоро сделает это возможным учитывая что они уже работают на Genie 2 и результаты там довольно хорошие так что ждем Genie 3 и там уже можно будет трезво оценить возможности нейронки, если нейронка будет все запомнать в открытом мире а не просто в квадратной коробке то это уже будет неплохой результат
Эффект от визуальной составляющей в играх подкрепляется фактором коллективной эмпатии, уходя корнями глубоко в коллективное бессознательное. Смотря на то как Артур Морган умирает в конце РДР2 переживание усиливается за счет ощущения сопричастности к колективному опыту миллионов других игроков. Сделав визуальный ряд для каждого игрока уникальным ИИ может убрать эту важную компоненту. это интересный психологический момент.
Watch Dogs Legion передаёт привет
Интересно посмотреть как нейронка покажет первого ассасина, это вероятно будет похоже на тот момент когда дезмонд нестабилен и мы не можем ничего разглядеть, все смазано в начале игры
Следующий этап развития игровой индустрии - игра, которая запускается внутри мозга человека
Ролик родился на глазах. Лайк
Я вот-вот занялся программированием на пайтон и нашел похожую штуку на пайтон, которая используется для быстрого ИИ, называется Mojo, пока нету конкуренции, я хочу создать свою ИИ-игру, теперь хочу сказать спасибо за совет.
Я уже думал будет реклама, промотал и не понял "а где, а что произошло" и пришлось мотать обратно, хитрец
Я рад, что сам догадался пару месяцев назад до того, что разработчики скоро будут делать лишь "оболочку" игр, а за визуал будут отвечать нейронки 😁
Как то странно насчет пространственного мышления, я только сейчас понял что во сне я никогда не шел назад...
8:47 дед сам по итогу сдался и застрелился
Куда пропала шутка про деда
Я не знаю как я сюда попал, но это очень иннтересный видос. Классно Озвучиааешь и шутишь. Боже храни ютуб
4:08, ты что, мы завтра не учимся, а вот после завтра экзамен по химии😭😭😭
Классный обзор. За шутки про огурчик и огонь отдельное спасибо. О_о
Welcome to the club, body! Mr. Programmer.
Добро пожаловать в клуб, чувак! Мистер Программист
XDDD
Мог бы дополнительно рассказать про Оазис ИИ (то же самое что кс-ка, но с майнкрафтом и в браузере), и про Rosebud AI (то же что и проект от EA, но похуже и без своих ассетов, зато запустить можно уже сейчас в браузере)
Кстати уже есть нейронка майна только там все легче просто открываешь сайт и играешь
тут и не нужно быть экспертом, через 50 лет вряд ли кому-то в школу понадобится, нас не будет ))
мне стало интересно, поможет ли этот разрекламированный NPU блок, в новых процессорах ускорить эту "игровой" нейронку, достаточно что бы появилась разница между применением NPU и чисто процессора, или он даже по прямому назначению (работы с нейронкой) не справится?)
2028 - роботизация, первые массовые андроиды
2031 - первые киберимпланты
2032 - игры и контент создаются «налету» нйросетями
2033 - первое проектирование и производство нейросетями вещей на автоматических заводах
2034 - курс BTC 1.2 млн. $
2036 - бум популярности виртуальных миров, созданных нейросетями
2037 - биткоин - официально основная валюта планеты
2039 - первые персональные квантовые компьютеры
2041 - зарождение сознания у компьютера (квантовая нейросеть)
2045 - базы на Луне
future
Бред😂, чтобы ИИ делал контент на лету в 2032?😂😂😂 Даже сейчас rtx 4090 не способен сделать трассировку лучей на уровне анимации финальной фантазии 2001 года, ты о чем?! ИИ будет в полном объеме не раньше 2060 года
А насчёт битка все возможно, тут. Многие говорили что он лопнет, а по факту сделал многих миллиардерами, а кто сомневался как был бедным, так и остался 😅
думаю, базы на Луне появятся раньше, в 30х
2033 все живут в метро и едят гнилых крыс
Завтра ко второму, можно поспать. Сыч, не благодари
настоящее поезное видео в этом канале) не зря так долго подписан
В смысле "скорее всего можно"? Первой игрой, которую запустили на нейронке был Doom 1. Потому что любая новая платформа делается так: Запускается Doom, потом вокруг него строится всё остальное.
Теперь ловить трипы стало проще благодаря нейросетям.
говоря о таких проектах ты чаще всего забываешь уточнить что они наструганы на коленке командой из 2.5 орангутангов, и дай похожее тз крупной студии (чаще всего) они допилят всю эту чепуху до идеала. стокфиш ведь обучили каким то образом играть безошибочно? значит нет ничего невозможного
Ты прав фильтры. Но не только те которые показал. Постепенно обучат на матерьалы при разном освещении.
По слоям.
Потом тени и отражения.не путать с dlss. После чего матерьалы в движке будут иметь маркеры для нейронок. На компе это будут массивы из уже обработанных чисел. Которые нейронка будет вертеть в зависимости от x, y, z освещения и скорости.
Я то думал минимум лет 5 пройдет до ИИ игр, а они уже тут, а через 5 лет гта 7 будет писаться промптом "сделай нам гта 7, чтоб было (круче:2) чем гта 6" :))
А прикиньте, если подключить ПК в мозг. Мы могли бы продолжать в игры даже во сне.
Вроде нейросети работают также как нейроны мозга
А зачем если сны круче игр?
@bebra2132 Разницы вроде нет. Просто появится возможность стримить во сне)
Нейросети сильно отличаются от работы мозга, почитай книжку по биологии за восьмой класс.
Не умничай.
Нейросети были созданы по образу нейронов. Принцип работы может иногда отличаться, но логика та же.
Нет межпрастрансвенной связи во сне.
Хз у меня были.
А ещё говорят читать нельзя. Читал книги и даже запомнил о чём хах.
И то ещё цветочки.
Ну может то редкость или ноу норма , либо учёные слишком в себя поверили )
Интересный выпуск , спасибо 😁🤝⚡
Я тебе скажу больше.
Я более 2-ух лет играю в облаке.
И чувствую себя прекрасно
Ну как думаешь GTA VI будет в такой графики? Ролики смотрел вроде похоже
Нужно создать игру чтобы нейронка создала с неё игру, понял🫡
18:52 скажу что для качественного датасета нужна не "1-2 H100" , а хотя бы несколько десятков, или и того больше.
не знаю по поводу того что в 5090 будут такие возможности но её можно уже купить в сборном пк за евро)
Все мы становимся программистами на пайтоне когда речи заходит о локальном ии
18:41 - показывает евро, говорит доллар, гениально
указывает на ошибку и сам ошибается
это фунты
@@Эль-мырзаЭрмеков-х8ьне выкупил
Единственные кто сейчас что-то хорошее делают - это мододелы.
приемлемый результат был бы, если игру сделали бы обычным способом, но из примитивных квадратов да кругов, чтоб не нагружать комп, а нейронка бы преобразовывала в реалистичные объекты с текстурами да освещением
Конкретный питон отдельно качать не нужно, там в промпте для конды указывается версия питона, анаконда сама его скачает
swich недопонятый гений, чтоб понять надо через ликероводочный отдел пройти
Так потому что на процессоре надо запускать, он быстрее обрабатывает небольшие обьемы данных, а видюха наоборот, большой обьем, но дольше, а ИИ как раз надо быстро и небольшие обьемы
Как же мне нравится его юмор 😁
7:31 ну це було сильно! ахаххах
Интересная тема, подписался, буду следить.
Спасибо за вставку робота Pulse 75, это помогает узнаванию бренда
судя по всему голо-палуба из
стар-трека вполне близко👌👍
за нейросетями явно будущее, но совсем не такое каким его создают сейчас.
18:48 Насколько же охеренно выглядит освещение сделанное нейронкой, почему разрабы игр не могут сделать это своими руками?
"Задержка приемлемая" (тут прямо напрашивается пошлая шутка) В том-то и дело, что лишь приемлемая... Но ни разу не комфортная. А тут она минимум удвоится (туда и обратно) + время на обработку кадра нейросетью.
Бригада, что будет если встроить самообучающиеся нейронку в робота пустышку💀
И дать дробаш
Слушай давай ты создашь игру на движке Cryengine и покажешь как это делать
В удивительное время мы живем,шок!😮👍🏻
ПЕРВАЯ В МИРЕ ИГРА НА НЕЙРОСЕТИ С КРУТОЙ ГРАФИКОЙ! также ИИ макнкрафт💀💀
думаю это след ступень DLSS, движок будет отрисовывать каркас графика, а вместо трассировки или растеризации нейронный рендер
Наконец то я увидел сравнение ИИшки со сном человека, последнее время все чаще задумываюсь об этом
Ну сравнение такое себе, лично я вижу четкую картинку во сне, незнаю как у других. А аот то что суть изображения довольно похожа это да, так как по сути нейросеть, как и мозг в отключке просто смешивает все изображения полученные при работе и выходит порой дикая дресня
9:39 можно создать мешами карту с которыми будет работать нейронка накладывать на них образы.
дальше в видео про этот способ говорится.
привезли груз 200 в иркутск: - а ничего страшного....
заблокировали ютуб по всей нарасии:- вой на болота😮
Я думаю, что игры на нейросетях - это в целом-то наше будущее. Но делать игры на ИИ надо немножечко иначе. Нельзя давать им полностью креативить. Нужно создавать базовую игру на примитивах, чтобы она запускалась в такой конфигурации хоть на калькуляторе. И нейросетями позволять улучшать визуализацию. Просто если раньше 3д-модели весили гигабайты, то теперь гигабайты будут весить промты для таких вот рендеров
Пока ни в одной нейро-игре не задумывались о сохранении прогресса и возможности его продолжить, так что до сюжетных ии-игр далеко. Да и даже если бы были реализованы сохранки, то сложно доверять сохранению/загрузке без конкретной структуры и конкретного алгоритма. Я думаю, годные нейро-игры на данный момент возможны, только если доверить ИИ определенные аспекты - сюжет (вокруг изначально заложенной основы), доп. миссии, поведение и диалоги NPC, случайные события, некую вариативность окружения (погода, ветер, времена года, разрушаемость и состаривание построек)
не дядь, ты вообще не вкурил сути видео, главный посыл был с примером гта 5, где кадр бьётся на слои и нейронка понимает как встраивать рил кадры накладывая на игровой геймплей, то есть сама игра обрабатывается на твоём пк, а нейронка просто накладывает фильтры, для рил лайф картинки этого уже будет достаточно, и сохраняться ты сможешь и миссии проходить, ведь это та самая игра, ии только фильтр делает
Так это чисто про графику, чел
@@ктоя-о8щ это я вкурил, но как раз таки использование нейронок чисто для графики я считаю неинтересным направлением. Это не добавит играм реиграбельности, и уникальности игрового мира в каждом твоем прохождении. Геймплей и сюжет важнее графона
А применение нейронок для графона считаю оправданным, только если это удешевило бы стоимость игр для конечного пользователя, т.к. произошло бы снижение затрат игровых студий на создание ассетов, шейдеров и пр. (ну и саундтрека, например, хотя это не к графике)
@@deadbyte42 Нейронки не смогут создавать полноценные игры, единственное что сейчас мы имеем - нейронку которой скормили тысячи часов геймплея и теперь она может имитировать геймплей кс.
18:41 Автор, кстати ты путаешь обучение нейронных сетей и запуск чего на обученной нейросетке. H100 созданы для обучения, там гиганская производительность. А если на ней запускать уже обученную нейросетку это совсем другое и столько вычислительной мощности ненужно
4:00, видеокарта это грубо говоря тот же процессор, но мощнее в несколько сотен раз, но и разницу в передаче конечно никто не отменял, вот тебе и ответ)
Ну слушай, это очень очень поверхностно, потому-что чип сам по себе может в чём-то похож, но его задача, его скажем так строение другое. Да не спорю что это тот же процессор, но это если пытаться объяснить человеку, который знает что такое процессор, но не знает что такое видеокарта
@@leehoy228Тут проще сказать, что инженерно видеокарта и процессор разные вещи, они сами по себе аппаратно нацелены на разные задачи, хотя основная суть у них одна и тажа. (Правда GPU это почти как комп в компе, с точки зрения программирования)
@Partizag именно, я думаю что интерпретировать это можно по разному, главное что понятна сама суть. Ну и беря это в пример, ответить на вопрос из видео. :)
Задача видеокарты, выполнить шейдеры, покрасить и отрисовать пиксели. Обычно это все неплохо так параллелится, поэтому видеокарта состоит из огромного множества тупеньких ядер, каждое из которых может выполнять свою задачу.
Пока проц пердя отрисовывает изображение на своих в лучшем случае 24 потоках (десктоп сегмент), каждый вычислительный блок видеокарты (которых, напомню, дохуя) рисует свой сегмент изображения на опр этапе (растеризация, шейдеры и прочая залупа).
Вот так и получается, если сильно упростить.
@@leehoy228Разницу между процессором и видеокартой можно описать количеством ядер и их мощности (не углубляясь в память, кэш). У процессора - несколько очень производительных ядер. У видеокарты - тысячи слабеньких ядер, которые могут выполнять одну не сложную задачу, из-за чего видеокарта хорошо справляется с параллелизацией задач (в т. ч. рендер, нейросети и т.д.)
Думаю, наилучшим и доступным решением для использования нейро фильтров будет их запекание. В запечке фильтров будут сохранены все слои текстуры, материалы, карты света и тд. чтобы зафиксировать результат их работы (рендер). Или комбинирование запечки фильтров с генерацией в реальном времени ели динамика игры требует того.
Не вариант. Учитывая, как работают нейросети, чтобы запечь результат их работы понадобится бесконечный объём памяти. Сейчас и так изначально разрабатывают все модели в заведомо более высоком качестве, а потом запекают всё что только можно, и даже так получается по 150-200 ГБ.
@maxpsyh3389 Для больших игр вроде GTA ето безусловно не вариант по крайней мере сейчас, но на той же кс думаю может получится пусть и игра будет 150 весить. Как эксперимент. Хотя твое замечание конечно хорошое.
@@АртемГолодок-о7я А смысл? С учётом размера и простой геометрии арен, сделать в КС фотореалистичную графику можно хоть вчера. Только вот КС-серам более важно читаемость окружения и 240 FPS на ноутбуке 10-летней давности.
Ии майнерафт уже больше месяца находится в открытом доступе, держу в курсе. Так что никаких иноваций в этой кс нет
Привет знаю что канал уже как год заброшен но все равно спрошу, какой у тебя комп, характеристики
Про осознание в пространстве - это ограничение определенной модели. Я не в курсе какая модель использовалась для "нейроксго" и че там у нее по слоям, но создание буфера для хранения Н-ого количества последних кадров не новинка и практически повсеместно используется в предикторах на модели. Я по крайней мере работал с предиктом направления движения ( для считывания стрейфов ) и при буфере в 10-20 кадров вполне был чистый результат.
*Когда нейросетка сделает нам нормальный Battletoads Dendy ai remastered* ??
А что реально ли Занейронить Денди / Сега игры ??
11:04 мерриуезер крышу у Тревора свистнули
ХАХХАХАХАХАХ РЕАЛЬНО
20:41 Я подумал это Винди...
И я😂😂😂
Я тоже