Старался сделать ролик очень качественным, прошу поддержать лайком и комментов) ТГ: t.me/chain_ed Upd: Одной претензией с Хуанга меньше. Я не прав был всё-таки по поводу генератора кадров на 30хх и ниже, бэкендом генерации кадров является FSR все равно, dlssg можно поставить, но я не пробовал, и не уверен, что будет работать.
@@chainedguy "заигрывающие" интонации, смишнявошки и бесконечные нападки на воображаемого оппонента. Это дурной тон, я бы сказал что в духе Шевцова образца 2014 года.
@@chainedguy У меня 4к панель 60 дюймов 50 герц. Задержка ввода 70мс. Мне все равно какую задержку дает фг это ниже задержки моего тв 4к. А ты говоришь только для высокогерцовых мониторов. Почему я не могу на 5080 включить длсс и пробустить с 15 фпс на 25 а 25 включить фреймгейн и получить зветные 60к\с . Почему я не могу использовать пк как консоль и играть на геймпаде\руле\клава\мышь? Я прошел крайзис на 9600гт на высоких - ультра настройках. обычно у меня было 25 авг фпс 30 макс и просадки до 13 особенно с последним босом. Обливион с модами прошел в 18-20 кадров. Задержку чувствую только выше 100мс. У самого реакция 190мс на изображение.
Не знаю что принял автор, но говорить что DLSS не мылит, а трассировка лучей улучшает качество графики... явно под чем-то или nvidia занесли чемоданы. Подписался. Лайк поставил.
Очевидно что кадры с "разницей" это заранее подготовленные сцены, которые хуанг лично просил вставить разрабов, чтобы продавать людям рт, если бы они их не вставили, то нвидия просто не стала бы спонсором киберпанка, вот и думайте😂😂😂 облученые😂😂😂
Эм, ну как бы да, не мылит, достаточно перейти с фуллхд хотябы на 2к и длсс качество будет по качеству +- как таа, даже четче, зато фпс будет в разы выше
Сижу на RX 580 на 27дюймовом 165гц 1080 Монике, не играю в капец требовательные игры и лишь молча смотрю на весь происходящий выше цирк. Тут обман, там украли производительность, тут цена не оправдана, эх, что ещё нужно для счастья, только хлеба и зрелищ)
@@Rezist_ вопрос денег, а не принципа, давай будем честны, если бы тебе просто так отдали условно rtx 4070 ты бы отказался? оооочень сомневаюсь и не было бы соблазна взять qhd моник и включить длсс на баланс и генерацию кадров и играть на высокой частоте?))) Хейтят только те, кто не могут позволить, оправдываясь тем, что кадры нарисованные, длсс мыло. Ну конечно, го апать техпроцесс, ну тогда будем сидеть на видеокартах размером с кондиционер и самое забавное, что выбор уже был сделан в пользу ии, а нам как потребителям лишь остается, либо сосать палец на 30 кадрах в новинках, зато в "честных" фпсиках, либо пойти и купить технологии. Ничего, народ побесится, успокоится и пойдет и купит новую карточку, если играть захочется)
Основная претензия к nvidia не в том, что она сделала длсс и генерацию кадров, а то, что они становятся обязательными в новых поколениях видеокарт. Уже сейчас nvidia не предпологает производительность своих видеокарт без длсс и генерации. Так же свою лепту внесли разработчики игр, которые так же очень сильно полагаются на эти технологии, и из за этого почти не оптимизируют свои игры. Black myth wukong вообще не дает отключить апскейлеры. Но на full hd это выглядит ужасно, и если для 4к апскейлеры это допустисо, то никак не для full hd. Вот и получается, что даже без трассиовки лучей новые игры работают все хуже и хуже, и уже требуют костыли в виде длсс и генерации, и это при том, что без этой самой трассировки лучей графика далеко от уровня 16-18 года не ушла.
4К стал таким популярным из-за поголовного распространения телевизоров с разрешением 3840на2160. За развитием телевизоров с 4К начали тянуться производители консолей, которые начали в своих рекламных материалах продвигать то, что их немощные 300баксовые коробки могут запускать игры в 4К(нет). Вот Nvidia и пришлось следовать этому пути, о том что их карты вообще то тоже могут 4К да ещё и с ФПС огромным.
трассировка это база, а длсс мылит изображение, но это легко обходится, просто надо выставить разрешение выше, чем то, на котором ты играешь, но это чревато потерей тех самых, "халявных" кадров т.е., для 1080р гейминга надо выставить 2к и длсс на баланс, тогда, внезапно, картинка станет лучше, чем 1080р натив, а когда ты просто включаешь 1080р и длсс качество, то картинка рендерится в 720 с дальнейшей достройкой. оно по умолчанию хуже нативного 1080
Я, как обладатель двух мониторов: 23.8" Full HD и 23.8" Quad HD, со всей ответственностью заявляю - QHD может выдать больше производительности, чем FHD, при этом картинка на QHD будет заметно четче, чем на FHD. А вообще, вы фсё врёти. RTX не нужон, DLSS мыло, а Frame Gen это месиво из пикселей, да и вообще, кадры ненастоящие! Подписался, лайк поставил.
Без RTX спокойно можно обойтись и при этом иметь картинку +- настолько же хорошего качества, т.к. в большинстве игр RT выступает в роли маленького дополнения, которое жрёт ФПС как не в себя. DLSS по факту мыло, даже на 2К и с режимом Quality, сыграй во что-нибудь без ДЛСС и с ним - видна разница? Мне лично да. Единственное, разницу между FG On и FG Off вообще не заметил. Да и кадры всё-таки не настоящие (2K DLSS != 2K), т.к. из меньшего разрешения генерируются. Тут не столько претензий к NVIDIA у людей (зарубежных, по крайней мере), сколько к тупорылым разработчикам, которые увидев технологию DLSS, окончательно забили на оптимизацию. Я более чем уверен, что 5090 имела бы сильно больший прирост производительности если бы разрабам было бы не лень оптимизировать их продукты.
Дело не в том, что технологии плохие, а в том, как они преподносятся. В том числе и производителями игр. Купи сейчас, но работать будет потом, когда купишь еще, но тогда не будут работать следующие проекты, а предыдущие графически устареют. Ну и масштабирование ДЛЦЦ выгдядит как мясляная краска, говорить что с ней лучше - глупо. Лучше без нее, но без нее не тянет. То есть придуманы технологии которые пытаются, но не могут, при этом все предыдущие годы технологии были ясными-понятными и без попытки нае 6 ать. Вот об этом и бугуртят геймеры.
Если бы не dlss и fsr, видяхи точно были бы уже размером с кондиционер. Ибо бесконечно наращивать частоту и постоянно создавать "революционные" архитектуры невозможно.
Ну по факту, сырая мощность заходит в тупик, поэтому новое хрючево гоям впаривают улучшая всякие трассировки, AI и прочее, что есть возможость улучшить. А уж как к этому относится - каждый решает сам. Как по мне, так впринцепе само по себе это не плохо, в конце концов 4000ю карту никто не украдет из твоего компа, можешь и дальше ей пооьзоваться. А весь сыр-бор с хейтом к ДЛССам вызывал маркетинговый прием "5070 = 4090", что является наглым пи*дежом, ибо по факту 5070 от 4070 то недалеко ушел. При этом является ли DLSS, FraneGen, Reflex 2 и прочее чем то плохим? Да нет, конечно! Просто давайте не будем приравнивать реальную мощь карт к всем этим улучшаторам картинки, генераторам кадов и прочему, и ок.
9:10 Геймеры решили, что 4k 60fps это новый стандарт, Хуан взял под козырек и сделал рей трейсинг. Виноваты геймеры, не угадали, что хотел сделать Хуан
@@TheSmokySwanстандарт уже 120 а комфорт начинается с 240-300 фпс в 8 к и вот запусти сейчас ту же 2 халву она все это даст без каких либо апскейлеров и трассировки вот и задаешься вопросом что индустрия не туда повернула и пошли специально просто так утежелять игры чтоб не давать нам это
ну так рил глупо решили. тот же rdr 2 не тянул на 2080 ti на ультрах, хоть там и нет трассировки. самые красивые игры поколения очевидно не тянут на современном железе
важная поправка: картинка в старых проектах такая чётенькая вообще не столько из за сглаживания, сколько из за дальности отрисовки и детализации объектов, раньше небыло впринципе игр с большой дальностью прорисовки(всё либо скрывалось туманом, либо игры были корридорными) ну и добавьте туда низкую детализацию. ествествено, когда у тебя в модели мало полигонов то и пикселей нужно для этой модели гораздо меньше, отсюда и берётся эффект чёткости)
Ты прав, однако сглаживание всё-таки больше роляет, иначе бы коридорные игры были бы чётче, но они такое же мыло. И длаа бы не давал такой буст картинки. И видел как таа смотрели на примере хл2, там все плохо
Мне ненравится то, что нельзя наращивать мощность. Просто вставив еще одну видеокарту. Шин PSI хватает. Модульность вообще загнали в разряд данух. При этом супер компьютеры на тех же блеквелах модульные! С вокселями и физикой тоже не все гуд. Так вот все эти фишки, можно решать аппратно. По принципу отдельных карт в PSI. Но из за неизвестных причин все пытются запихать в одну карту как результат высокие цены. Высокое эненргопотребление, мыло, инпутлаг. температуры. Прочие давно описанные проблемы.
@alexeyfalco хорошие материнки должны без проблем тащить при условии, что проц хороший. В нем зашиты линии PCI. Я не против, чтобы карта одна тянула всю игру. Но уже очевидно, что предел кремния требует отдельных устройств для расчёта физики, вокселей, дымов, и.т.д. Есть же звуковые карты которые вставляются в PCI. Тут тоже самое, специализированные вычисления на аппаратном уровне. И ещё теже PCI справляются в суперкомпьтерных кластерах.
Во 1, ни геймеры решили что 4к стандарт, а производители мониторов и прочей техники. Во 2, Новые видяхи новые игры и в FULL HD нифига не тянут, отсюда и мнение что нет оптимизации Во 3, Сырая производительность нифига не растет, +20% - 30%, а учитывая что 50 серия по теплопокету выросла на столько же процентов, то производительность вообще не увеличилась. Лично я считаю что FULL HD вполне достаточно, у меня вместо монитора телевизор и да мне достаточно и да я без очков. Главное что нужно это избавиться от 1) мыла 2 )фризов 3) лесенок) 4) разрывов кадров) Остальное уже можно наращивать постепенно, но учитывая что мы уперлись практически в потолок того что можно выжать из кремния, разумеется нужны все эти DLSS, но это не должно противоречить всем тем пунктам которые я указал выше. Нвидию я люблю, всегда сидел на их видяхах, но стагнация на лицо и началась она давно, лично у меня к куртке минимум претензий было бы, будь по больше правды в презентации. а если 2 года мало для нормальных инноваций, то вилком релизы раз в 3 или 4 года, так и люди больше спасибо скажут, дольше техника будет актуальна
Недавно пересел с 1060 на 4060, рад что ютуб начал подкидывать такие видосы. Было интересно, спасибо! З.Ы. Кстати лучики спокойно работают и на моей 4060, играю правда в FullHD, но судя по тестам на ютубе в 2к она тоже спокойно тянет 60фпс с лучами (конечно ДЛСС включен). Теперь блин думаю, может таки 2к моник мне нужен...
Самое забавное что сильный скачок ощущается между 24 фулл хд и 27 квад но с квада до 4к - не такой сильный скачок ты его конечно ощутишь, но не настолько ВАУ эффект как от квада впервые зато по производительности это ударит очень ощутимо
Нашел этот мод, работает отлично, с RT на ультра, QHD, DLSS качество около 90 FPS в городе. Path Tracing все же немного артефачит, мало изначальных 25-30 ФПС ибо. Но изначально я играл без RT вообще, чтобы ФПС был норм, но без него графика унылая. А щас кайф, ебааа@@chainedguy
Не знаю зачем в играх эта ультра-реалистичная картинка, особенно ценой 3/4 FPS, как будто люди на физически корректное освещение в реальной жизни не насмотрелись. При использовании SSLR пропадают отражения объектов вне кадра? Всё ппц, как теперь спать-то по ночам)
DLSS однозначно хорошая технология. Особая благодарочка моддерам, которые добавляют его в старые/не поддерживающие по умолчанию игры, по типу скайрима и тд.
Трассировка просит неоправданно высокий ценник за то чтобы ты смотрел на шумы через тонны мылоскейлеров с максимальным энергопотреблением на кадр, что не логично вот вообще во ВСЕХ отношениях, для конечно потребителя это выглядит как деградация. Взять miside, valheim, baldurs gate 3 и им подобные, всех их объединяет то что они делались чтобы в них ИГРАЛИ с упором на "визуальный стиль", а не реализм, который выглядит как мыло на убогом технодемочном UE. Ваша подборка "статик" сцен в начале разрушится, если начнёте двигать камеру, все зарубежные блогеры уже давно так делают, чтобы показывать реальный мылотрэш в динамике. UE будет хорошо если вообще перестанет существовать, игры на нём НИКТО не умеет делать, ни визуально ни геймплейно, абсолютно все они геймплейно словно по шаблону сделаны (как когда-то любая поделка на Unity в 2010 годах), меняются только ассеты и сюжет.
Играю в Cyberpunk 2077 на RTX 4060, в Full HD, High выдаёт около 60 фпс с фулл RT(не path tracing), итог: 80% отражений всё равно напоминают акварельный рисунок, даже на вполне ровных стеклянных поверхностях; *Зеркальные* поверхности(не зеркала) отражают некорректно - в отражении сцена выглядит упрощённой, с машин и педов пропадают текстуры, а например, голограммы, вообще отсутствуют; При включённом DLSS, или при просадке FPS освещение с резким поворотом головы просчитывается прямо на глазах крупными "мазками"; Path tracing не успевает нормально просчитывать слишком динамичные вспышки света(что заметно и на видео - 2:02); В подавляющем большинстве сцен искать разницу RTX on/off надо прям по скриншотам - освещение смотрится абсолютно достойно и при выключенном RT, да и в динамике игра работает намного стабильнее, реже нагружая видеокарту до пиковых значений. Вывод: Технология сырая. Потенциал у RTX определённо есть, но раскроется он через добрых лет 5-10, когда можно будет комфортно играть в Full HD на бюджетных видеокартах и без лютых артефактов, что выбивают из погружения.
Автор действительно использует лучи? У меня появились сомнения на этот счет, RT не используют из-за конских требований для видеокарты, а не потомц что не видят разнице в картинке с ним и без него. В придачу лучи еще и процессор нагружают... Не знаю, что ты там придумал, но у меня с 4070 ti нет лишней производительности чтобы тратить ее на лучи, а DLSS это не покрывает эту разницу на качестве. На других пресетах артефакты лезут время от времени. Лучи улучшают картинку, но не везде значительно(пока что), т.к. игры делают под консоли, которые их не тянут. За RT будущее, это да, но по-моему еще рановато. Насчет дегенерации кадров сюр какой-то, игроки добиваются повышения FPS именно для уменьшения задержки ввода, а не столько для плавности картинки. DLSS тут обманывает глаза, а не руки, напомню в игры мы ИГРАЕМ, а не просто смотрим в монитор. Не знаю, что скажут другие, но я выберу DLSS на качество без лучей в большинстве игр, чтобы сделать игровой процесс максимально комфортным. За технологии раскидал хорошо, не бей пж.
Dlss enabler на Нексус модс Upd: тут я не прав был всё-таки, бэкендом генерации кадров является FSR все равно, dlssg можно поставить, но я не пробовал, и не уверен, что будет работать.
@@chainedguyтам фср, нельзя выставить длсс на 30серии, то все обман, да и не будет он работать как длсс 3 на 40 серии там принцип работать будет заметно лучше Иза ии блоков
@@MakarPirog все включается модом, причем в любой игре. Даже в Marvel Rivals я себе активировал фрейм генератор. Работает отлично, можешь сам проверить.
@ смотрел я видео как включают и как скачивают и тп, там не такой длсс 3 а если и был таким же не работал так же хорошо как в 40 это же логично и за ии блоков
@@Имзлат я думаю человеку интересно развитие этой технологии. Например я жду развития физики PhysiX. И когда куртка уже наконец анонсирует сжатие текстур для видеопамяти
Почему лично я отношусь с недоверием к RTX картам? Посмотрим на 5000 линейку карточек у ЭнвидЭ. Потребление электричества как у всех приборов, что есть в квартире, львиная доля производительности достигается программно, а не нативно (короче, это как деньги из Монополии вместо настоящих), да ещё и ценник конский. Уже 5 лет стукнуло этой идеее продвижения лучиков, а проектов с реально видимым рейтрейсингом раз-два и обчёлся. На примере 4000 серии карт от ЭнвидЭ уже было много случаев, когда 4090 задыхалась в играх выдавая 40 ФПС. Получается, что проще уж купить игровую консоль для игр, чем отваливать Куртке кучу бабла, ведь она стоит значительно дешевле и разница в графике не видна, особенно когда подальше от экрана отошёл. У меня самого по 60 часов в Киберпанке на Иксбокс Series X, и на компьютере с Radeon 7900 XTX. Лучики не включал практически, потому что в динамике их не разглядишь, а в статике они мне не нужны. Фоторежимом в игре я не пользуюсь из отсутствия нужды делать красивые скриншоты, которых в интернете и так завались. Как-то так. Я - обычный любитель игр и вижу ситуацию вокруг карт РТХ именно такой. Просто не понима, зачем переплачивать за то, что с лупой искать нужно.
Не знаю как современное поколение хейтеров, но лично я и мои знакомые хейтят nvidia и хуанга в частности за то, что он превратил в монополизацию продажу видеокарт. Он формирует цены на видеокарты в мире, так как от его цен отталкиваются конкуренты, которых практически нет. Прибавьте к этому то, что все играют в старые игры, пушто в них интереснее играть, за последние 10 лет ни одной запоминающейся и выдающейся игры по типу третьих фаркраев, фолаутов, героев и ведьмаков. Проходят года и вместо нормальной игры с нормальным сюжетом нам делают старфилд с офигенной графикой, но в которую никому не интересно играть, так как новых идей - 0 Поэтому индюшатина и китайские обезьяны и геншины в топе, там на графоний похуй, в них тупо прикольно и интересно играть. А духота и хейт по поводу графики только от тех, кто видимо до сих пор на кнопочных телефонах сидит. Прогресс в играх хотя бы в графике лучше чем регресс.
@@Witchhouse1990 Ну, это не вина Хуанга, что не выходит игр, которые бы интересны были именно тебе) А по поводу цены. Всё дорожает, абсолютно. Инфляция сжирает и доллар, а на его фоне другие валюты ещё сильнее обесцениваются. Да и сейчас видеокарты это реально комбайн, с кучей аппаратных блоков, по типу тензорных, РТ, аппаратных декодеров. К тому же, переходить на новых техпроцесс с каждым нм становится все дороже и дороже. Поэтому нужно серьезно вкладываться в технологии, а значит, пылесосить рынок и хантить лучших спецов, а им тоже платить надо. Так что, учитывая монополизированное положение нвидии, ценовая политика ещё терпима (не берём в расчет хх90, ибо это для энтузиастов или профессионалов). Когда ты покупаешь нвидию, ты покупаешь dlss, rt, бесспорно лучшую производительность в софте (3д, монтаж), frame generator, DLDSR Крч, все самое современное, качественное и передовое. Это как с тачками, можно купить Камри, которая норм машина, быстрая, относительно комфортная, но она не сравнится никогда с мерсом или бмв
А ты спроси у своих знакомых, почему же великая компания АМД не обскачет Нвидию и не сделает лучше?) Что им мешает?) Почему АМД тоже пошла в апскейлер и генератор?) Какое у них будет объяснение?) Если Хуанг делает неправильно, почему все следуют его примеру?)
За 10 лет ни одной хорошей игры не вышло? Да ты угараешь, чел. Вышло куча проектов разных жанров и бюджетов, синдром утёнка скорее свою роль играет в твоём случае, нежели тейк про то что индустрия скатилась и не делаются отличные игры
@@erikroth1569 прикол, что такое синдром утенка ахахахах. ну а на самом деле если честно я соглашусь опом, в последнее что играл из современного - киберпанк (и то можно ли назвать его современным, 5 лет так то уже прошло вроде). Ну и щас за последние годы только пару игр вышло которые зацепили, все. Хз это меня так сложно удивить либо игры скатились - но точно что то посередине). PS: ну и я щас именно про трипл а проекты, если по другим жанрам посмотреть то конечно да что то интересное постоянно выходит
Ну FSR не мылит, а овершарпит картинку) А насчет нейросетей, так и AMD все это время занималась разработкой нейросетевых блоков, просто они шли не для RDNA а для проф ускорителей XDNA. Но то что FSR 4 скорее будет хуже DLSS это да, но не сильно, даже FSR 3 без всех нейросетевых обработок смог выдавать сносную картинку. Макс антибаза по Амиде, не шаришь.
Ну, официально по слухам читал, что уже после этого поколения АМД будет сливать две архитектуры (RDNA и CDNA) в одну - UDNA. Мб поэтому они в этом поколении отказались от конкуренции с топами нвидии. У меня у самого каждое поколение появляется червь, который ест мозг мыслью "а мож АМД взять?", но с холодной головой понимаешь, что нвидия даёт в разы больше. А fsr хз. Учитывая, его ограниченные возможности - да, неплохо работает, но до уровня DLSS 3 ооочень далеко. Даже XeSS мне больше нравится. Думаю, новый фср и будет на уровне длсс 3. Ну и банально, амдешный генератор кадров вполне неплох с длсс, но в паре с фср там ужс.
@@chainedguy амуде можно купить только в 1 случае, это выгода, типо как я купил 7700 хт за 40к. А так очень надо думать об покупке, ибо без DLSS часто будет тяжко, а 7000 карты неплохо тянут лучи, но вот отсутствие адекватного аналога DLSS все портит.
@@ImptovskiiHW я так купил 3080 тоже за 40к)) До этого была 3070, которую как-то смог продать за 41к Наверное, потому что это была Sakura Edition и тупо красивая
@@chainedguy ну 7700 хт новую, в пленочках, и т.д. То есть да. Sapphire Pure, тогда в магазах только Sapphire Pulse была за 51к, а я купил одно из лучший исполнений карточки. Вкусный лот, был. А так посмотрим че по ценам у 5000 жифорсов или 9000 радиков будет, там возьму что выгодней будет.
@@chainedguyхах, я примерно такое же провернул, продал 4070 и добавил на 4080 (по хорошей цене была на авито). Прохожу Alan Wake 2 с трассировкой пути при 1440р с DLSS на качество, да ещё и с генератором, 100+ кадров с просадками в лесу до 80. Пришёл от GodRay'я, подписался, наконец-то на ютубе формируется оппозиция этой безграмотной шизе.
Со всем согласен, сам на нвидиа почти всю жизнь, за технологии обоими руками. Единственное разочарование от 50й серии - очень мало видеопамяти. Сижу на 3080ti в которой 12 гигов видеопамяти и по сути уже почти впритык её, а в некоторых проектах уже и больше надо, а для виара еще больше. В итоге по сути для 4к разрешения карты от нвидиа и нету. т.е. в 5080 всего 16 гигов, дальше гигантская пропасть и следующая ступень - 5090 с 32 гигами видеопамяти, что в целом избыточно для геймера. Нету промежуточного решения для 4к. Завезли бы в 5080 гигов 20 и уже бы с радостью купил, а так что-то не вижу смысла переходить на 50ю серию. Видимо придётся ждать когда выйдет ti версию 5080 или смотреть в сторону 4090 сейчас.
наверно геймеров бомбит потому что трассировка больше похожа на лужу натянутую на модель/текстуру ,тогда как обычные лужи раньше работали без трассировки и прочего
Они работали совсем по-другому, по сути там либо запечённая картинка была, либо просто 2я сцена генерировалась которая исчезла в той части , где первая сцена выходила за линию изображения в мониторе...+ отражений то и не было по факту
ну хуанга стоит не любить хотя бы за его фразу что пользователи платят не за поколение видеокарты а за производительность и почему новое поколение должно стоить так же как прошлое если оно производительней?! хотя по факту на производство новых и старых карт тратиться такое же количество физических ресурсов (текстолита, меди и редкоземельных металлов). Дорожает только разработка т.к 80% сотрудников нвидии долларовые миллионеры, и они сейчас меньше чем за 100тыс. зелёных в месяц вряд ли хотят работать.
Видеокарты это не только текстолит, кремний и металлы. А ещё освовение нового техпроцесса, разработка технологий (поэтому столько и зарабатывают, потому что у нвидии лучшие технологии). Но в целом, да, это больше бизнес модель. Хочешь производительность - плати. Но работает и в обратную сторону. В 5000 не дали сильного буста, поэтому и цены снизили.
@@chainedguy отличные технологии, доступные лишь на новых поколениях видеокарт. Я в конце 23 года купил 4070, чтобы потом узнать о супер-пупер новой вариации ДЛСС (которая, как минимум, в полтора раза производительнее), доступна она, кстати, лишь в 5000+ сериях. Кайф.
@@thehound148 у тебя не будет только фрейм генератора нового, который нафиг тебе не нужен. Ну разве что у тебя 300гц моник и ты хочешь играть в синглы с таким фреймрейтом. Все прелести DLSS 4 ты получишь, включая новый Ray Reconstruction, новую архитектуру нейросети, улучшенную четкость, уменьшенные артефакты. Это даже получат обладатели 30 и 20 карт. Так что все ок, не переживай, 4070 отличная карта, в которой есть все современные архитектурные улучшения (OOM, Shader Execution Reordering) и тд
9:07 скорее геймеры не сами решили, а так решили маркетинговые отделы продавцов мониторов, и да, правды ради 9 лет назад разрешением для топ сегмента ГПУ уже было не FHD а QHD. так что метафора то красивая, но в реальности люди хотят прыжок в два раза, а не в 4)
Ну мейби так и было, в любом случае, обладателей FHD среди игроков все равно большинство) А даже если так, то тут палка о двух концах, либо графика, либо разрешение) В растеризации, мне кажется, и в кхд щас все норм даже на средних картах
@@chainedguy ссталкер 2 передаёт привет)) скорее просто ненужно искать прямую связь роста графики и роста производительности карт. Рост графики появляется с новыми технологиями, а рост производительности с либо грубым её ростом(частоты, количество транзисторов и т.д.) либо с появлением спец блоков под ту или иную технологию. тоесть эти вещи не то чтобы прям сильно зависят друг от друга
@@spect6861 это понятно, но все равно же с ростом производительности появляется возме вмещать больше геометрии в кадр, увеличивать разрешение карт теней, усложнять материалы, увеличивать количество лучей и так далее по списку. Но без самих технологий тоже не уедешь далеко)
@@chainedguy я это к тому, что у нас впринципе по требовательности графика скакнула сильнее, чем производительность ГПУ(хотя что именно считать оптимальной графикой для гейминга тот ещё вопрос, не трассировку пути явно) да и сами консоли типа ps 5, которые имеют ГПУ +- на уровне 3060-3060ti по сухой производительности, как бы намекают, что средний сегмент xx60 карт скорее стал Лоу сегментом для AAA игр. И как на 1060 в своё время прыгнуть заметно дальше уровня консольной графики, да ещё и при большем ФПС в наше время не получится
У МЕНЯ ТОЛЬКО ОДИН ВОПРОС, АВТОР, ТЫ ВООБЩЕ КАК НОРМАЛЬНЫЙ?🤦♂ Старался сделать ролик очень качественным, прошу поддержать лайком и комментариями) Пфф. СКА КЛОУН.🤡
Intel уже "догнали" Nvidia со своим нейросетевым сглаживанием/апскейлером XeSS. Обычно XeSS визуально схож с DLSS и лишен противного зернистого гоустинга FSR
@@NotReallyLaraCroft в качестве, Интеловский лучше FSR, но хуже DLSS, он посередине между ними. Не зря Nvidia столько лет допиливает DLSS, сейчас дошли до версии 3.8.1, которая ложит на лопатки абсолютно всех, но не забывай, что 30 января выходит DLSS 4 для всех RTX карт, который сделает очередной скачет в качестве.
@@NotReallyLaraCroft качество апсейлера зависит от количества данных на которых его обучали и от реализации на аппаратном уровне, у Nvidia в этом плане фора вперед на 3 шага, и эта фора всегда будет, тем более сейчас при переходе от свёрточной нейросети в dlss 3 к модели трансформер в dlss 4, они прут вперед как локомотив и тащат за собой всех остальных, именно поэтому dlss и генерация есть абсолютно во всех новых играх года два как уже!
Ну почти база вышла, только вот про видеопамять не совсем согласен, сижу на ноутбучной 3050ti на 4гига и как то проблем нет, ну разве что крайне редко (сейчас будет звучать как полный пиздежь но это чистая правда, киберпанк прошел на релизе на системе из: i3 7100 + 1050ti, да да не удивляйтесь, да на низких но в 1080 и 50-60 кадров, на 3050ti высокие и 60-70 с длсс качество) хотя против большего объема vram не имею ничего против, но лично для меня хватило бы с головой и 6 гигов (для 1080p)
Сейчас игры пошли которые в FHD даже требуют 10 гб видеопамяти (например Индиана Джонс) на высоких настройках. Я и сам проходил Alan Wake 2 на 1650Ti с 4 гб видеопамяти, но то что 8 гб уже недостаточно - это прям да, нужно минимум 12, а Nvidia которое поколение просто жмотят её
Вообще, у амд это будет скорее второе поколение ядер, 7000я серия в себе примитивные от ядра имеет. Но да, по сравнению с нвидиа там лучше только цены и объем памяти, да и то не всегда.
а что на счёт задержки вывода кадров при генерации, которая необходима для самой генерации и вставления сгенерированных кадров между реальными в буфере и потом уже их вывод. из за этого даже с генерацией одного кадра на 2 было жилейное управления а как они решат эту проблему на уровне многократных генераций в длсс 4? Там чисто технологически ничего нельзя сделать, так работает эта генерация что ей нужны кадры в буфере предыдущий и последующие и пока она не сгенерирует кадры которые между она не будет их выдавать но реальное время то идёт а кадры выводятся не на монитор а в буфер и игрок всё видит с задержкой
Ну, нвидия в каждом поколении чуть ли не двухкратно увеличивает мощность тензорных ядер, так что вполне возможно, что они просто генерируют быстрее, что задержка не сильно страдают + будет дождить рефлекс 2 с frame warp Но посмотрим на практике
Я думаю, чтобы придумать, как выводить кадры быстрее, надо хотя бы быть инженером железа, иметь штат высококвалифицированных разработчиков ПО и подумать чуть больше, чем пару минут.
@@chainedguy первые китайские тесты показали рост производительности в 20%+- на rtx5090d относительно rtx4090. Прирост не плохой, но вот новая 3-х кадровая генерация смущает и смущает, что для уменьшения задержек старый кадр будет дорисовываться ИИ, да будет как будто плавно, но артефакты неизбежны. Так же если в правом крайнем углу будет враг в игре, а ии будет дорисовывать исходя из старого кадра где врага нет, то будет не приятно если тебя невидимый враг шотает или неожиданно появляется по середине экрана
@@D3mension да есть же уже lossless генератор, или как-то так, там хоть 10 кадров генерации можно выставить, на таком количестве, конечно, артефакты появляются, но эта штука даже тензорные ядра и ИИ не юзает. А в блеквелах аппартаный блок для fp4 вычислений добавили, тензорные ядра качнули, длсс на трансформер перевели, а значит изначальный кадр будет меньше артефактов давать. Так что будет норм, думаю.
Очередной Гуру из секты "Свидетели 500 fps с DLSS" решил набросать на вентилятор и ответить "всем хейтерам божественного DLSS". За массой технических моментов мы так и не услышали, почему RTX 5090 в Вуконге с лучами и прочей лабудой не выдаёт 60 fps без DLSS? Это самая топовая видеокарта для пользовательского сегмента. Почему "двигатель прогресса" на презентации посвятил большую часть описанию преимуществ новой версии DLSS? Пририсовка к одному кадру трёх дополнительных - это прогресс? То, что топовая карта не тянет все лучи и трейсинги без DLSS, это прогресс? Ну, ладно, пусть RTX5070 не тянет без костылей, это ещё куда ни шло, но самая топовая карта не может выдать 4к в нативе со всей лабудой!! Речь тут не о картинке, это вещь субъективная, а о голой производительности. И да, об оптимизации, потому-что это базис всего. Нам предлагают потратить 2500 $ за 4к гейминг с DLSS??? А может лучше купить 4070ti SUPER и наслаждаться в 2к, сэкономив кучу эдди? Чувак, ты похож на маркетолога Nvidia, который пытается запудрить нам мозги технической лабудой и при этом не объяснив простых моментов.
На самом деле генератор кадров работает нормально и при 30 FPS. В итоге получается 60. Да задержка выше, чем при 60 FPS без генератора, но она и не ужасная, более чем играбельно, FPS monitor в киберпанке на моей 4060 при ультра + path tracing, + full hd + dlss quality показывал задержку от 24 до 32 ms, а теперь для наглядности откройте на телефоне секундомер и посмотрите на скорость изменения первых двух цифр (первая цифра это a*10ms вторая b*100m), по мне в теории в управлении уже ощутимая задержка для синглплеера от 40ms, 100 уже очень плохо. Зато при генераторе картинка при 30 FPS плавная как при 60 и если 30 FPS при игре на геймпаде ещё нормально, т.к физически ты не сможешь сделать резкие рывки, то на клавамыши это уже плохо по ощущениям и нужно хотя бы 40, а 60 для полного комфорта. В общем генератор мне помогает видеть плавную картину при 30 FPS, как при 60 FPS, правда при более низком FPS генератор игру сделает только хуже, а не лучше.
Ну лично у меня немного диссонанс между плавностью картинки и инпут лагом при 30 фпс. В киберпанке это особенно чувствуется при управлении авто. Но для геймпада, кстати, будет нормально. Но лучше так, чем при чистых 30 фпс, ибо в фхд длсс ниже качества ставить, ну вообще каша будет
@chainedguy в целом со всем согласен, единственное у меня такое мнение, что даже если задержка есть в сингле к этому можно привыкнуть. Кстати моя 4060 ноутбучная с TGP 115W, как на ПКшной версии. У меня там QHD моник, на нём от установки FHD не появляется мыло, но там где я могу позволить QHD до сих пор не могу определиться, ставить dlss в качество или баланс.
10% игр если не меньше где нужны лучи который зависит от рт/патч рт/рт овердрайв котове жрут от 1,5 до 3 раз больше фпс, пока мало где можно включить да и еще такой жор
@@MakarPirog ты включи свою для начала, в консолях стоит хлам железо, а ведь ты знаешь, что любая игра разрабатывается для самой слабой платформы изначально и только потом как нибудь портируется на ПК, и никто не будет делать отдельные версии графики для консолей и ПК, именно поэтому мы имеем это убогое запечённое освещение во всех играх и прикрученный наспех рейтрейсинг в ПК версиях. А вот тебе другой пример - The Finals созданный на Unreal Engine 5, где разрабы запарились с ПК портом, сделали классный рейтрейсинг и общий визуал, прикрутили Наниты, полную разрушаемость и всё это просто летает без просадок.
@ пс 5 уровень райзен 5/7 3600+- 2060/2060супер иксбокс сериес икс 2080супер/3060ti пс5 про тот же cpu/ 3070 уже провели тесты даже на 5+- фпс хуже 3070, оптимизация тут не причем, графика у пс 4 там аналог gtx 750/750ti и там урезанная графика в сравнении с низкими на пк в киберпанке 2077, игры как плохо оптимизированы были 30 лет назад так и сейчас, рентген упор был на проц и видеокарту, с появлениям 4к проц толку мало стало, лучи это про будущее а не поо сейчас всего пару игр имеет смысл
Спасибо Хуангу за длсс, отличная технология, которая должна была помогать слабым картам хоть как-то тянуть современное неоптимизированное говно, теперь помогает топовым картам хоть как-то тянуть современное неоптимизированное говно.
DLSS нужно дорабатывать еще, он все еще очень плохо справляется в динамике, генерация кадров итак работает идеально при 60 настоящих ФПС в базе котоыре у тебя есть, а RTX еще не научились нормально оптимизировать, но я уверен что именно за RTX будущее, а про нейронки я до конца все еще не уверен.
Reflex убирает встроенный в любую видюху генератор лагов. Заранее подготовленные кадры или render queue на слайдах Nvidia. Как в старой байке про магнитофон где кнопка снижение шумов просто отключает генератор шумов. Только тут не шутка а всерьез такую хрень сделали.
Старался сделать ролик очень качественным, прошу поддержать лайком и комментов)
ТГ: t.me/chain_ed
Upd:
Одной претензией с Хуанга меньше.
Я не прав был всё-таки по поводу генератора кадров на 30хх и ниже, бэкендом генерации кадров является FSR все равно, dlssg можно поставить, но я не пробовал, и не уверен, что будет работать.
Мысли правильные, подача - школота.
@@cththes9340поч
@@chainedguy "заигрывающие" интонации, смишнявошки и бесконечные нападки на воображаемого оппонента. Это дурной тон, я бы сказал что в духе Шевцова образца 2014 года.
@@cththes9340 ну не хотелось делать сухой бубнеж под геймплей, увы, на вкус и цвет
@@chainedguy У меня 4к панель 60 дюймов 50 герц. Задержка ввода 70мс. Мне все равно какую задержку дает фг это ниже задержки моего тв 4к.
А ты говоришь только для высокогерцовых мониторов. Почему я не могу на 5080 включить длсс и пробустить с 15 фпс на 25 а 25 включить фреймгейн и получить зветные 60к\с . Почему я не могу использовать пк как консоль и играть на геймпаде\руле\клава\мышь? Я прошел крайзис на 9600гт на высоких - ультра настройках.
обычно у меня было 25 авг фпс 30 макс и просадки до 13 особенно с последним босом. Обливион с модами прошел в 18-20 кадров. Задержку чувствую только выше 100мс. У самого реакция 190мс на изображение.
Не знаю что принял автор, но говорить что DLSS не мылит, а трассировка лучей улучшает качество графики... явно под чем-то или nvidia занесли чемоданы. Подписался. Лайк поставил.
Ой... Спалили...
Очевидно что кадры с "разницей" это заранее подготовленные сцены, которые хуанг лично просил вставить разрабов, чтобы продавать людям рт, если бы они их не вставили, то нвидия просто не стала бы спонсором киберпанка, вот и думайте😂😂😂 облученые😂😂😂
@@worstsixdigit ты серьезно? так работает машинное обучение если чё, жаловаться на это не надо. ну и есть прямая демонстрация от digital foundry
Длсс это еще сглаживание. А сглаживание действительно может мылить
Эм, ну как бы да, не мылит, достаточно перейти с фуллхд хотябы на 2к и длсс качество будет по качеству +- как таа, даже четче, зато фпс будет в разы выше
Обычно так хейтят технологии RTX карт обладатели GTX серий по типу 1060-1660 и также ярые обладатели RX 580.
У меня 1660. В этом году планирую кудахтер брать под 1440р. Естественно DLSS и RT я буду использовать
Новое поколение видеокарт амд обещает ХОРОШИЙ приррст в трассировке, если будут по адекватной цене в рф то куплю 9070xt.
Сижу на RX 580 на 27дюймовом 165гц 1080 Монике, не играю в капец требовательные игры и лишь молча смотрю на весь происходящий выше цирк.
Тут обман, там украли производительность, тут цена не оправдана, эх, что ещё нужно для счастья, только хлеба и зрелищ)
Проще говоря это нищеброды малолетние😊
@@Rezist_ вопрос денег, а не принципа, давай будем честны, если бы тебе просто так отдали условно rtx 4070 ты бы отказался? оооочень сомневаюсь и не было бы соблазна взять qhd моник и включить длсс на баланс и генерацию кадров и играть на высокой частоте?))) Хейтят только те, кто не могут позволить, оправдываясь тем, что кадры нарисованные, длсс мыло. Ну конечно, го апать техпроцесс, ну тогда будем сидеть на видеокартах размером с кондиционер и самое забавное, что выбор уже был сделан в пользу ии, а нам как потребителям лишь остается, либо сосать палец на 30 кадрах в новинках, зато в "честных" фпсиках, либо пойти и купить технологии. Ничего, народ побесится, успокоится и пойдет и купит новую карточку, если играть захочется)
Основная претензия к nvidia не в том, что она сделала длсс и генерацию кадров, а то, что они становятся обязательными в новых поколениях видеокарт. Уже сейчас nvidia не предпологает производительность своих видеокарт без длсс и генерации. Так же свою лепту внесли разработчики игр, которые так же очень сильно полагаются на эти технологии, и из за этого почти не оптимизируют свои игры. Black myth wukong вообще не дает отключить апскейлеры. Но на full hd это выглядит ужасно, и если для 4к апскейлеры это допустисо, то никак не для full hd. Вот и получается, что даже без трассиовки лучей новые игры работают все хуже и хуже, и уже требуют костыли в виде длсс и генерации, и это при том, что без этой самой трассировки лучей графика далеко от уровня 16-18 года не ушла.
Нужно понимать простую истину, дурака проще обмануть, чем доказать что он был обманут)
Базу выдаёте, сударь. По фактам
4К стал таким популярным из-за поголовного распространения телевизоров с разрешением 3840на2160. За развитием телевизоров с 4К начали тянуться производители консолей, которые начали в своих рекламных материалах продвигать то, что их немощные 300баксовые коробки могут запускать игры в 4К(нет). Вот Nvidia и пришлось следовать этому пути, о том что их карты вообще то тоже могут 4К да ещё и с ФПС огромным.
трассировка это база, а длсс мылит изображение, но это легко обходится, просто надо выставить разрешение выше, чем то, на котором ты играешь, но это чревато потерей тех самых, "халявных" кадров
т.е., для 1080р гейминга надо выставить 2к и длсс на баланс, тогда, внезапно, картинка станет лучше, чем 1080р натив, а когда ты просто включаешь 1080р и длсс качество, то картинка рендерится в 720 с дальнейшей достройкой. оно по умолчанию хуже нативного 1080
Я, как обладатель двух мониторов: 23.8" Full HD и 23.8" Quad HD, со всей ответственностью заявляю - QHD может выдать больше производительности, чем FHD, при этом картинка на QHD будет заметно четче, чем на FHD.
А вообще, вы фсё врёти. RTX не нужон, DLSS мыло, а Frame Gen это месиво из пикселей, да и вообще, кадры ненастоящие! Подписался, лайк поставил.
Без RTX спокойно можно обойтись и при этом иметь картинку +- настолько же хорошего качества, т.к. в большинстве игр RT выступает в роли маленького дополнения, которое жрёт ФПС как не в себя. DLSS по факту мыло, даже на 2К и с режимом Quality, сыграй во что-нибудь без ДЛСС и с ним - видна разница? Мне лично да. Единственное, разницу между FG On и FG Off вообще не заметил. Да и кадры всё-таки не настоящие (2K DLSS != 2K), т.к. из меньшего разрешения генерируются. Тут не столько претензий к NVIDIA у людей (зарубежных, по крайней мере), сколько к тупорылым разработчикам, которые увидев технологию DLSS, окончательно забили на оптимизацию. Я более чем уверен, что 5090 имела бы сильно больший прирост производительности если бы разрабам было бы не лень оптимизировать их продукты.
@thehound148 с хрена ли вдруг они ненастоящие, если рендерятся в меньшем разрешении??
@@123Bratv ненастоящие в плане своего разрешения. У тебя по сути растянутый и сглаженный кадр меньшего разрешения
@thehound148 когда же вы поймёте, что длсс это не банальное натягивание кадра низкого разрешения на весь экран со сглаживанием
@@thehound148 конечно видна разница - в нативе картинка сыпется пикселями, а уж в новье типа ждалкера 2 вообще страшнавырубай)
Дело не в том, что технологии плохие, а в том, как они преподносятся. В том числе и производителями игр.
Купи сейчас, но работать будет потом, когда купишь еще, но тогда не будут работать следующие проекты, а предыдущие графически устареют.
Ну и масштабирование ДЛЦЦ выгдядит как мясляная краска, говорить что с ней лучше - глупо. Лучше без нее, но без нее не тянет.
То есть придуманы технологии которые пытаются, но не могут, при этом все предыдущие годы технологии были ясными-понятными и без попытки нае 6 ать. Вот об этом и бугуртят геймеры.
Если бы не dlss и fsr, видяхи точно были бы уже размером с кондиционер. Ибо бесконечно наращивать частоту и постоянно создавать "революционные" архитектуры невозможно.
Самое главное , что засчёт ai можно генерировать лица , волосы или вообще детальные дороги.
Ну по факту, сырая мощность заходит в тупик, поэтому новое хрючево гоям впаривают улучшая всякие трассировки, AI и прочее, что есть возможость улучшить. А уж как к этому относится - каждый решает сам. Как по мне, так впринцепе само по себе это не плохо, в конце концов 4000ю карту никто не украдет из твоего компа, можешь и дальше ей пооьзоваться. А весь сыр-бор с хейтом к ДЛССам вызывал маркетинговый прием "5070 = 4090", что является наглым пи*дежом, ибо по факту 5070 от 4070 то недалеко ушел. При этом является ли DLSS, FraneGen, Reflex 2 и прочее чем то плохим? Да нет, конечно!
Просто давайте не будем приравнивать реальную мощь карт к всем этим улучшаторам картинки, генераторам кадов и прочему, и ок.
Как правило о ненужности длсс и генерации говорят владельцы карт на три буквы)
9:10 Геймеры решили, что 4k 60fps это новый стандарт, Хуан взял под козырек и сделал рей трейсинг. Виноваты геймеры, не угадали, что хотел сделать Хуан
Ну на 4к сразу после ФХД, как-то не странно, не думаете?
@@astreyrize5210 судя по всему у них стандарт не 4к 60 FPS , а скорее даже 4к 120 FPS, ибо 60 FPS по их словам минимальный комфорт , а 120 стандарт
@@TheSmokySwanстандарт уже 120 а комфорт начинается с 240-300 фпс в 8 к и вот запусти сейчас ту же 2 халву она все это даст без каких либо апскейлеров и трассировки вот и задаешься вопросом что индустрия не туда повернула и пошли специально просто так утежелять игры чтоб не давать нам это
ну так рил глупо решили. тот же rdr 2 не тянул на 2080 ti на ультрах, хоть там и нет трассировки. самые красивые игры поколения очевидно не тянут на современном железе
@@normchel197rdr2 делали под консоли, на пк выбросили какой то огрызок вот в этом дело
важная поправка: картинка в старых проектах такая чётенькая вообще не столько из за сглаживания, сколько из за дальности отрисовки и детализации объектов, раньше небыло впринципе игр с большой дальностью прорисовки(всё либо скрывалось туманом, либо игры были корридорными) ну и добавьте туда низкую детализацию. ествествено, когда у тебя в модели мало полигонов то и пикселей нужно для этой модели гораздо меньше, отсюда и берётся эффект чёткости)
Ты прав, однако сглаживание всё-таки больше роляет, иначе бы коридорные игры были бы чётче, но они такое же мыло. И длаа бы не давал такой буст картинки. И видел как таа смотрели на примере хл2, там все плохо
Мне ненравится то, что нельзя наращивать мощность. Просто вставив еще одну видеокарту. Шин PSI хватает. Модульность вообще загнали в разряд данух. При этом супер компьютеры на тех же блеквелах модульные!
С вокселями и физикой тоже не все гуд. Так вот все эти фишки, можно решать аппратно. По принципу отдельных карт в PSI.
Но из за неизвестных причин все пытются запихать в одну карту как результат высокие цены. Высокое эненргопотребление, мыло, инпутлаг. температуры. Прочие давно описанные проблемы.
в новых мамках уже 2 ссд нормально не поставишь - линии отваливаются, а ты видеокарты хочешь😂🤣
@alexeyfalco хорошие материнки должны без проблем тащить при условии, что проц хороший. В нем зашиты линии PCI.
Я не против, чтобы карта одна тянула всю игру.
Но уже очевидно, что предел кремния требует отдельных устройств для расчёта физики, вокселей, дымов, и.т.д. Есть же звуковые карты которые вставляются в PCI.
Тут тоже самое, специализированные вычисления на аппаратном уровне. И ещё теже PCI справляются в суперкомпьтерных кластерах.
Во 1, ни геймеры решили что 4к стандарт, а производители мониторов и прочей техники.
Во 2, Новые видяхи новые игры и в FULL HD нифига не тянут, отсюда и мнение что нет оптимизации
Во 3, Сырая производительность нифига не растет, +20% - 30%, а учитывая что 50 серия по теплопокету выросла на столько же процентов, то производительность вообще не увеличилась.
Лично я считаю что FULL HD вполне достаточно, у меня вместо монитора телевизор и да мне достаточно и да я без очков.
Главное что нужно это избавиться от 1) мыла 2 )фризов 3) лесенок) 4) разрывов кадров)
Остальное уже можно наращивать постепенно, но учитывая что мы уперлись практически в потолок того что можно выжать из кремния, разумеется нужны все эти DLSS, но это не должно противоречить всем тем пунктам которые я указал выше.
Нвидию я люблю, всегда сидел на их видяхах, но стагнация на лицо и началась она давно, лично у меня к куртке минимум претензий было бы, будь по больше правды в презентации.
а если 2 года мало для нормальных инноваций, то вилком релизы раз в 3 или 4 года, так и люди больше спасибо скажут, дольше техника будет актуальна
Недавно пересел с 1060 на 4060, рад что ютуб начал подкидывать такие видосы. Было интересно, спасибо!
З.Ы. Кстати лучики спокойно работают и на моей 4060, играю правда в FullHD, но судя по тестам на ютубе в 2к она тоже спокойно тянет 60фпс с лучами (конечно ДЛСС включен).
Теперь блин думаю, может таки 2к моник мне нужен...
Самое забавное что сильный скачок ощущается между 24 фулл хд и 27 квад
но с квада до 4к - не такой сильный скачок
ты его конечно ощутишь, но не настолько ВАУ эффект как от квада впервые
зато по производительности это ударит очень ощутимо
Так стоп, у меня тоже rtx 3080 и qhd, как активировать на ней генератор кадров?
@@_murzi4_ dlss enabler, только прочитай в закрепе коммент. Работает хорошо, но я не совсем прав.
@chainedguy понял, спасибо
Нашел этот мод, работает отлично, с RT на ультра, QHD, DLSS качество около 90 FPS в городе. Path Tracing все же немного артефачит, мало изначальных 25-30 ФПС ибо. Но изначально я играл без RT вообще, чтобы ФПС был норм, но без него графика унылая. А щас кайф, ебааа@@chainedguy
Не знаю зачем в играх эта ультра-реалистичная картинка, особенно ценой 3/4 FPS, как будто люди на физически корректное освещение в реальной жизни не насмотрелись.
При использовании SSLR пропадают отражения объектов вне кадра? Всё ппц, как теперь спать-то по ночам)
DLSS однозначно хорошая технология. Особая благодарочка моддерам, которые добавляют его в старые/не поддерживающие по умолчанию игры, по типу скайрима и тд.
Трассировка просит неоправданно высокий ценник за то чтобы ты смотрел на шумы через тонны мылоскейлеров с максимальным энергопотреблением на кадр, что не логично вот вообще во ВСЕХ отношениях, для конечно потребителя это выглядит как деградация. Взять miside, valheim, baldurs gate 3 и им подобные, всех их объединяет то что они делались чтобы в них ИГРАЛИ с упором на "визуальный стиль", а не реализм, который выглядит как мыло на убогом технодемочном UE. Ваша подборка "статик" сцен в начале разрушится, если начнёте двигать камеру, все зарубежные блогеры уже давно так делают, чтобы показывать реальный мылотрэш в динамике. UE будет хорошо если вообще перестанет существовать, игры на нём НИКТО не умеет делать, ни визуально ни геймплейно, абсолютно все они геймплейно словно по шаблону сделаны (как когда-то любая поделка на Unity в 2010 годах), меняются только ассеты и сюжет.
Неоправданно высокий это 40к рублей за 3080?
@@kamidzun 40к, чтобы смотреть на мыло в ужасно не оптимизированных современных играх, зато с кучей кадров... кайф)
Да и 40к - это БУ 3080.
@@thehound148мыло обычно в нативе, не говоря уже об артефактах, снимите штаны и меняйте
Нищеброд малолетний😂
Нищеброд малолетний😂
Играю в Cyberpunk 2077 на RTX 4060, в Full HD, High выдаёт около 60 фпс с фулл RT(не path tracing), итог:
80% отражений всё равно напоминают акварельный рисунок, даже на вполне ровных стеклянных поверхностях;
*Зеркальные* поверхности(не зеркала) отражают некорректно - в отражении сцена выглядит упрощённой, с машин и педов пропадают текстуры, а например, голограммы, вообще отсутствуют;
При включённом DLSS, или при просадке FPS освещение с резким поворотом головы просчитывается прямо на глазах крупными "мазками";
Path tracing не успевает нормально просчитывать слишком динамичные вспышки света(что заметно и на видео - 2:02);
В подавляющем большинстве сцен искать разницу RTX on/off надо прям по скриншотам - освещение смотрится абсолютно достойно и при выключенном RT, да и в динамике игра работает намного стабильнее, реже нагружая видеокарту до пиковых значений.
Вывод: Технология сырая.
Потенциал у RTX определённо есть, но раскроется он через добрых лет 5-10, когда можно будет комфортно играть в Full HD на бюджетных видеокартах и без лютых артефактов, что выбивают из погружения.
И да, кто помог Nvidia стал монопалистом на рынке новых технологии/видеокарт (и других продуктов), конечно, игроки (они виноват во всем)
Автор действительно использует лучи? У меня появились сомнения на этот счет, RT не используют из-за конских требований для видеокарты, а не потомц что не видят разнице в картинке с ним и без него. В придачу лучи еще и процессор нагружают... Не знаю, что ты там придумал, но у меня с 4070 ti нет лишней производительности чтобы тратить ее на лучи, а DLSS это не покрывает эту разницу на качестве. На других пресетах артефакты лезут время от времени. Лучи улучшают картинку, но не везде значительно(пока что), т.к. игры делают под консоли, которые их не тянут. За RT будущее, это да, но по-моему еще рановато. Насчет дегенерации кадров сюр какой-то, игроки добиваются повышения FPS именно для уменьшения задержки ввода, а не столько для плавности картинки. DLSS тут обманывает глаза, а не руки, напомню в игры мы ИГРАЕМ, а не просто смотрим в монитор. Не знаю, что скажут другие, но я выберу DLSS на качество без лучей в большинстве игр, чтобы сделать игровой процесс максимально комфортным. За технологии раскидал хорошо, не бей пж.
про задержку в точку - 60фпс искусственно разогнанные до 100 - это откровенный инпут лаг, который будет чувствоваться даже на геймпаде.
А как вы поставили dlss 3.5 на RTX 30xx?
Dlss enabler на Нексус модс
Upd: тут я не прав был всё-таки, бэкендом генерации кадров является FSR все равно, dlssg можно поставить, но я не пробовал, и не уверен, что будет работать.
@@chainedguyтам фср, нельзя выставить длсс на 30серии, то все обман, да и не будет он работать как длсс 3 на 40 серии там принцип работать будет заметно лучше Иза ии блоков
@@MakarPirog все включается модом, причем в любой игре. Даже в Marvel Rivals я себе активировал фрейм генератор. Работает отлично, можешь сам проверить.
@ смотрел я видео как включают и как скачивают и тп, там не такой длсс 3 а если и был таким же не работал так же хорошо как в 40 это же логично и за ии блоков
@ плюс фг не будет работать на 30 серии
Разница то видна. Правда в основном в счётчике кадров и в отрицательную сторону.
Я хотел что-то вроде трассировки лучей, то есть технологию, улучшающую графику, а не только dlls 4.
Так трассировка лучей уже существует😂 все технологии для улучшения графики лежат уже на плечах разработчиков игр и движков
@Имзлат Я понимаю, мне просто хочется новый уровень графики
@@Имзлат я думаю человеку интересно развитие этой технологии. Например я жду развития физики PhysiX. И когда куртка уже наконец анонсирует сжатие текстур для видеопамяти
Почему лично я отношусь с недоверием к RTX картам? Посмотрим на 5000 линейку карточек у ЭнвидЭ. Потребление электричества как у всех приборов, что есть в квартире, львиная доля производительности достигается программно, а не нативно (короче, это как деньги из Монополии вместо настоящих), да ещё и ценник конский. Уже 5 лет стукнуло этой идеее продвижения лучиков, а проектов с реально видимым рейтрейсингом раз-два и обчёлся.
На примере 4000 серии карт от ЭнвидЭ уже было много случаев, когда 4090 задыхалась в играх выдавая 40 ФПС. Получается, что проще уж купить игровую консоль для игр, чем отваливать Куртке кучу бабла, ведь она стоит значительно дешевле и разница в графике не видна, особенно когда подальше от экрана отошёл. У меня самого по 60 часов в Киберпанке на Иксбокс Series X, и на компьютере с Radeon 7900 XTX. Лучики не включал практически, потому что в динамике их не разглядишь, а в статике они мне не нужны. Фоторежимом в игре я не пользуюсь из отсутствия нужды делать красивые скриншоты, которых в интернете и так завались.
Как-то так. Я - обычный любитель игр и вижу ситуацию вокруг карт РТХ именно такой. Просто не понима, зачем переплачивать за то, что с лупой искать нужно.
Не 5, а 7. 20 серия Nvidia в 2018 году вышла.
Не знаю как современное поколение хейтеров, но лично я и мои знакомые хейтят nvidia и хуанга в частности за то, что он превратил в монополизацию продажу видеокарт. Он формирует цены на видеокарты в мире, так как от его цен отталкиваются конкуренты, которых практически нет. Прибавьте к этому то, что все играют в старые игры, пушто в них интереснее играть, за последние 10 лет ни одной запоминающейся и выдающейся игры по типу третьих фаркраев, фолаутов, героев и ведьмаков. Проходят года и вместо нормальной игры с нормальным сюжетом нам делают старфилд с офигенной графикой, но в которую никому не интересно играть, так как новых идей - 0
Поэтому индюшатина и китайские обезьяны и геншины в топе, там на графоний похуй, в них тупо прикольно и интересно играть.
А духота и хейт по поводу графики только от тех, кто видимо до сих пор на кнопочных телефонах сидит. Прогресс в играх хотя бы в графике лучше чем регресс.
@@Witchhouse1990 Ну, это не вина Хуанга, что не выходит игр, которые бы интересны были именно тебе)
А по поводу цены. Всё дорожает, абсолютно. Инфляция сжирает и доллар, а на его фоне другие валюты ещё сильнее обесцениваются.
Да и сейчас видеокарты это реально комбайн, с кучей аппаратных блоков, по типу тензорных, РТ, аппаратных декодеров. К тому же, переходить на новых техпроцесс с каждым нм становится все дороже и дороже. Поэтому нужно серьезно вкладываться в технологии, а значит, пылесосить рынок и хантить лучших спецов, а им тоже платить надо.
Так что, учитывая монополизированное положение нвидии, ценовая политика ещё терпима (не берём в расчет хх90, ибо это для энтузиастов или профессионалов).
Когда ты покупаешь нвидию, ты покупаешь dlss, rt, бесспорно лучшую производительность в софте (3д, монтаж), frame generator, DLDSR
Крч, все самое современное, качественное и передовое.
Это как с тачками, можно купить Камри, которая норм машина, быстрая, относительно комфортная, но она не сравнится никогда с мерсом или бмв
А ты спроси у своих знакомых, почему же великая компания АМД не обскачет Нвидию и не сделает лучше?) Что им мешает?) Почему АМД тоже пошла в апскейлер и генератор?) Какое у них будет объяснение?) Если Хуанг делает неправильно, почему все следуют его примеру?)
3 ФК конечно хороший но ты считай поставил его в эталон, то что лично тебе за 10 лет ничего хорошего не вышло то проблема тут только в тебе
За 10 лет ни одной хорошей игры не вышло? Да ты угараешь, чел. Вышло куча проектов разных жанров и бюджетов, синдром утёнка скорее свою роль играет в твоём случае, нежели тейк про то что индустрия скатилась и не делаются отличные игры
@@erikroth1569 прикол, что такое синдром утенка ахахахах. ну а на самом деле если честно я соглашусь опом, в последнее что играл из современного - киберпанк (и то можно ли назвать его современным, 5 лет так то уже прошло вроде). Ну и щас за последние годы только пару игр вышло которые зацепили, все. Хз это меня так сложно удивить либо игры скатились - но точно что то посередине). PS: ну и я щас именно про трипл а проекты, если по другим жанрам посмотреть то конечно да что то интересное постоянно выходит
Это база!
Ну FSR не мылит, а овершарпит картинку) А насчет нейросетей, так и AMD все это время занималась разработкой нейросетевых блоков, просто они шли не для RDNA а для проф ускорителей XDNA. Но то что FSR 4 скорее будет хуже DLSS это да, но не сильно, даже FSR 3 без всех нейросетевых обработок смог выдавать сносную картинку.
Макс антибаза по Амиде, не шаришь.
Ну, официально по слухам читал, что уже после этого поколения АМД будет сливать две архитектуры (RDNA и CDNA) в одну - UDNA.
Мб поэтому они в этом поколении отказались от конкуренции с топами нвидии.
У меня у самого каждое поколение появляется червь, который ест мозг мыслью "а мож АМД взять?", но с холодной головой понимаешь, что нвидия даёт в разы больше.
А fsr хз. Учитывая, его ограниченные возможности - да, неплохо работает, но до уровня DLSS 3 ооочень далеко. Даже XeSS мне больше нравится. Думаю, новый фср и будет на уровне длсс 3.
Ну и банально, амдешный генератор кадров вполне неплох с длсс, но в паре с фср там ужс.
@@chainedguy амуде можно купить только в 1 случае, это выгода, типо как я купил 7700 хт за 40к. А так очень надо думать об покупке, ибо без DLSS часто будет тяжко, а 7000 карты неплохо тянут лучи, но вот отсутствие адекватного аналога DLSS все портит.
@@ImptovskiiHW я так купил 3080 тоже за 40к))
До этого была 3070, которую как-то смог продать за 41к
Наверное, потому что это была Sakura Edition и тупо красивая
@@chainedguy ну 7700 хт новую, в пленочках, и т.д. То есть да. Sapphire Pure, тогда в магазах только Sapphire Pulse была за 51к, а я купил одно из лучший исполнений карточки.
Вкусный лот, был. А так посмотрим че по ценам у 5000 жифорсов или 9000 радиков будет, там возьму что выгодней будет.
@@chainedguyхах, я примерно такое же провернул, продал 4070 и добавил на 4080 (по хорошей цене была на авито). Прохожу Alan Wake 2 с трассировкой пути при 1440р с DLSS на качество, да ещё и с генератором, 100+ кадров с просадками в лесу до 80. Пришёл от GodRay'я, подписался, наконец-то на ютубе формируется оппозиция этой безграмотной шизе.
Со всем согласен, сам на нвидиа почти всю жизнь, за технологии обоими руками.
Единственное разочарование от 50й серии - очень мало видеопамяти. Сижу на 3080ti в которой 12 гигов видеопамяти и по сути уже почти впритык её, а в некоторых проектах уже и больше надо, а для виара еще больше. В итоге по сути для 4к разрешения карты от нвидиа и нету. т.е. в 5080 всего 16 гигов, дальше гигантская пропасть и следующая ступень - 5090 с 32 гигами видеопамяти, что в целом избыточно для геймера. Нету промежуточного решения для 4к.
Завезли бы в 5080 гигов 20 и уже бы с радостью купил, а так что-то не вижу смысла переходить на 50ю серию. Видимо придётся ждать когда выйдет ti версию 5080 или смотреть в сторону 4090 сейчас.
Куртка технологии принес
qhd не намного лучше fullhd. Samsung уже 5к 27 дюймов представила, чтобы достичь 220 ppi.
наверно геймеров бомбит потому что трассировка больше похожа на лужу натянутую на модель/текстуру ,тогда как обычные лужи раньше работали без трассировки и прочего
Они работали совсем по-другому, по сути там либо запечённая картинка была, либо просто 2я сцена генерировалась которая исчезла в той части , где первая сцена выходила за линию изображения в мониторе...+ отражений то и не было по факту
Отличное видео, спасибо!
ну хуанга стоит не любить хотя бы за его фразу что пользователи платят не за поколение видеокарты а за производительность и почему новое поколение должно стоить так же как прошлое если оно производительней?! хотя по факту на производство новых и старых карт тратиться такое же количество физических ресурсов (текстолита, меди и редкоземельных металлов). Дорожает только разработка т.к 80% сотрудников нвидии долларовые миллионеры, и они сейчас меньше чем за 100тыс. зелёных в месяц вряд ли хотят работать.
Видеокарты это не только текстолит, кремний и металлы.
А ещё освовение нового техпроцесса, разработка технологий (поэтому столько и зарабатывают, потому что у нвидии лучшие технологии).
Но в целом, да, это больше бизнес модель. Хочешь производительность - плати. Но работает и в обратную сторону. В 5000 не дали сильного буста, поэтому и цены снизили.
@@chainedguy отличные технологии, доступные лишь на новых поколениях видеокарт. Я в конце 23 года купил 4070, чтобы потом узнать о супер-пупер новой вариации ДЛСС (которая, как минимум, в полтора раза производительнее), доступна она, кстати, лишь в 5000+ сериях. Кайф.
@@thehound148 у тебя не будет только фрейм генератора нового, который нафиг тебе не нужен. Ну разве что у тебя 300гц моник и ты хочешь играть в синглы с таким фреймрейтом.
Все прелести DLSS 4 ты получишь, включая новый Ray Reconstruction, новую архитектуру нейросети, улучшенную четкость, уменьшенные артефакты. Это даже получат обладатели 30 и 20 карт. Так что все ок, не переживай, 4070 отличная карта, в которой есть все современные архитектурные улучшения (OOM, Shader Execution Reordering) и тд
@@chainedguy была бы 4070 Super ;(
Она вышла буквально чё-то через месяц-два после покупки обычной версии. Тайминги, хех.
@@thehound148 тоже фигня, у них там разница процентов 10. Так что хорошая покупка
9:07 скорее геймеры не сами решили, а так решили маркетинговые отделы продавцов мониторов, и да, правды ради 9 лет назад разрешением для топ сегмента ГПУ уже было не FHD а QHD. так что метафора то красивая, но в реальности люди хотят прыжок в два раза, а не в 4)
Ну мейби так и было, в любом случае, обладателей FHD среди игроков все равно большинство)
А даже если так, то тут палка о двух концах, либо графика, либо разрешение)
В растеризации, мне кажется, и в кхд щас все норм даже на средних картах
@@chainedguy ссталкер 2 передаёт привет)) скорее просто ненужно искать прямую связь роста графики и роста производительности карт. Рост графики появляется с новыми технологиями, а рост производительности с либо грубым её ростом(частоты, количество транзисторов и т.д.) либо с появлением спец блоков под ту или иную технологию. тоесть эти вещи не то чтобы прям сильно зависят друг от друга
@@spect6861 это понятно, но все равно же с ростом производительности появляется возме вмещать больше геометрии в кадр, увеличивать разрешение карт теней, усложнять материалы, увеличивать количество лучей и так далее по списку.
Но без самих технологий тоже не уедешь далеко)
@@chainedguy я это к тому, что у нас впринципе по требовательности графика скакнула сильнее, чем производительность ГПУ(хотя что именно считать оптимальной графикой для гейминга тот ещё вопрос, не трассировку пути явно) да и сами консоли типа ps 5, которые имеют ГПУ +- на уровне 3060-3060ti по сухой производительности, как бы намекают, что средний сегмент xx60 карт скорее стал Лоу сегментом для AAA игр. И как на 1060 в своё время прыгнуть заметно дальше уровня консольной графики, да ещё и при большем ФПС в наше время не получится
У МЕНЯ ТОЛЬКО ОДИН ВОПРОС, АВТОР, ТЫ ВООБЩЕ КАК НОРМАЛЬНЫЙ?🤦♂
Старался сделать ролик очень качественным, прошу поддержать лайком и комментариями)
Пфф. СКА КЛОУН.🤡
Нахер такой локомотив, который стоит 2к бачей и без мыльницы не тянет нормально игры
Intel уже "догнали" Nvidia со своим нейросетевым сглаживанием/апскейлером XeSS. Обычно XeSS визуально схож с DLSS и лишен противного зернистого гоустинга FSR
Интелу еще догонять несколько лет, причем всё это время Nvidia не будет сидеть сложа руки.
@@Sega-q6p Конкретизируй. В чем именно апскейлер от Intel хуже Nvidiэвского?
@@NotReallyLaraCroft в качестве, Интеловский лучше FSR, но хуже DLSS, он посередине между ними. Не зря Nvidia столько лет допиливает DLSS, сейчас дошли до версии 3.8.1, которая ложит на лопатки абсолютно всех, но не забывай, что 30 января выходит DLSS 4 для всех RTX карт, который сделает очередной скачет в качестве.
@@Sega-q6p Повторяю вопрос еще раз: конкретизируй. Качество апскейла зависит от его имплементации в конкретной игре
@@NotReallyLaraCroft качество апсейлера зависит от количества данных на которых его обучали и от реализации на аппаратном уровне, у Nvidia в этом плане фора вперед на 3 шага, и эта фора всегда будет, тем более сейчас при переходе от свёрточной нейросети в dlss 3 к модели трансформер в dlss 4, они прут вперед как локомотив и тащат за собой всех остальных, именно поэтому dlss и генерация есть абсолютно во всех новых играх года два как уже!
Ну почти база вышла, только вот про видеопамять не совсем согласен, сижу на ноутбучной 3050ti на 4гига и как то проблем нет, ну разве что крайне редко (сейчас будет звучать как полный пиздежь но это чистая правда, киберпанк прошел на релизе на системе из: i3 7100 + 1050ti, да да не удивляйтесь, да на низких но в 1080 и 50-60 кадров, на 3050ti высокие и 60-70 с длсс качество) хотя против большего объема vram не имею ничего против, но лично для меня хватило бы с головой и 6 гигов (для 1080p)
Сейчас игры пошли которые в FHD даже требуют 10 гб видеопамяти (например Индиана Джонс) на высоких настройках. Я и сам проходил Alan Wake 2 на 1650Ti с 4 гб видеопамяти, но то что 8 гб уже недостаточно - это прям да, нужно минимум 12, а Nvidia которое поколение просто жмотят её
Вообще, у амд это будет скорее второе поколение ядер, 7000я серия в себе примитивные от ядра имеет.
Но да, по сравнению с нвидиа там лучше только цены и объем памяти, да и то не всегда.
Хоть кто то поднял эту тему, красавчик как всегда
а что на счёт задержки вывода кадров при генерации, которая необходима для самой генерации и вставления сгенерированных кадров между реальными в буфере и потом уже их вывод. из за этого даже с генерацией одного кадра на 2 было жилейное управления а как они решат эту проблему на уровне многократных генераций в длсс 4? Там чисто технологически ничего нельзя сделать, так работает эта генерация что ей нужны кадры в буфере предыдущий и последующие и пока она не сгенерирует кадры которые между она не будет их выдавать но реальное время то идёт а кадры выводятся не на монитор а в буфер и игрок всё видит с задержкой
Ну, нвидия в каждом поколении чуть ли не двухкратно увеличивает мощность тензорных ядер, так что вполне возможно, что они просто генерируют быстрее, что задержка не сильно страдают + будет дождить рефлекс 2 с frame warp
Но посмотрим на практике
Так уже есть технология для снижения инпут лага. Рефлекс. А как оно по факту будет - надо будет уже тестить на железе.
Я думаю, чтобы придумать, как выводить кадры быстрее, надо хотя бы быть инженером железа, иметь штат высококвалифицированных разработчиков ПО и подумать чуть больше, чем пару минут.
@@chainedguy первые китайские тесты показали рост производительности в 20%+- на rtx5090d относительно rtx4090. Прирост не плохой, но вот новая 3-х кадровая генерация смущает и смущает, что для уменьшения задержек старый кадр будет дорисовываться ИИ, да будет как будто плавно, но артефакты неизбежны. Так же если в правом крайнем углу будет враг в игре, а ии будет дорисовывать исходя из старого кадра где врага нет, то будет не приятно если тебя невидимый враг шотает или неожиданно появляется по середине экрана
@@D3mension да есть же уже lossless генератор, или как-то так, там хоть 10 кадров генерации можно выставить, на таком количестве, конечно, артефакты появляются, но эта штука даже тензорные ядра и ИИ не юзает.
А в блеквелах аппартаный блок для fp4 вычислений добавили, тензорные ядра качнули, длсс на трансформер перевели, а значит изначальный кадр будет меньше артефактов давать.
Так что будет норм, думаю.
Очередной Гуру из секты "Свидетели 500 fps с DLSS" решил набросать на вентилятор и ответить "всем хейтерам божественного DLSS". За массой технических моментов мы так и не услышали, почему RTX 5090 в Вуконге с лучами и прочей лабудой не выдаёт 60 fps без DLSS? Это самая топовая видеокарта для пользовательского сегмента. Почему "двигатель прогресса" на презентации посвятил большую часть описанию преимуществ новой версии DLSS? Пририсовка к одному кадру трёх дополнительных - это прогресс? То, что топовая карта не тянет все лучи и трейсинги без DLSS, это прогресс? Ну, ладно, пусть RTX5070 не тянет без костылей, это ещё куда ни шло, но самая топовая карта не может выдать 4к в нативе со всей лабудой!! Речь тут не о картинке, это вещь субъективная, а о голой производительности. И да, об оптимизации, потому-что это базис всего. Нам предлагают потратить 2500 $ за 4к гейминг с DLSS??? А может лучше купить 4070ti SUPER и наслаждаться в 2к, сэкономив кучу эдди? Чувак, ты похож на маркетолога Nvidia, который пытается запудрить нам мозги технической лабудой и при этом не объяснив простых моментов.
Ты вообще не посмотрел часть видео, где как раз идёт речь о сглаживании и 4к?
только длсс одно rtx отключаю так как только 5090 потянет норм rtx с нужным мне фпс
какие 4к60 фпс, 4к 240фпс, ну хотя бы 165
мне кажется вы не пк боярин раз употребляете в своей речи богомерзкие консольные слова по типу 60 фпс
На самом деле генератор кадров работает нормально и при 30 FPS. В итоге получается 60. Да задержка выше, чем при 60 FPS без генератора, но она и не ужасная, более чем играбельно, FPS monitor в киберпанке на моей 4060 при ультра + path tracing, + full hd + dlss quality показывал задержку от 24 до 32 ms, а теперь для наглядности откройте на телефоне секундомер и посмотрите на скорость изменения первых двух цифр (первая цифра это a*10ms вторая b*100m), по мне в теории в управлении уже ощутимая задержка для синглплеера от 40ms, 100 уже очень плохо. Зато при генераторе картинка при 30 FPS плавная как при 60 и если 30 FPS при игре на геймпаде ещё нормально, т.к физически ты не сможешь сделать резкие рывки, то на клавамыши это уже плохо по ощущениям и нужно хотя бы 40, а 60 для полного комфорта.
В общем генератор мне помогает видеть плавную картину при 30 FPS, как при 60 FPS, правда при более низком FPS генератор игру сделает только хуже, а не лучше.
Ну лично у меня немного диссонанс между плавностью картинки и инпут лагом при 30 фпс. В киберпанке это особенно чувствуется при управлении авто.
Но для геймпада, кстати, будет нормально.
Но лучше так, чем при чистых 30 фпс, ибо в фхд длсс ниже качества ставить, ну вообще каша будет
@chainedguy в целом со всем согласен, единственное у меня такое мнение, что даже если задержка есть в сингле к этому можно привыкнуть. Кстати моя 4060 ноутбучная с TGP 115W, как на ПКшной версии. У меня там QHD моник, на нём от установки FHD не появляется мыло, но там где я могу позволить QHD до сих пор не могу определиться, ставить dlss в качество или баланс.
Я капец как жду DLSS4!!!!!
Полезный ролик для хомячков, но тыфсврешь😂
Красава, отличная работа
Не "вре́менное", а "временно́е" сглаживание 😢
10% игр если не меньше где нужны лучи который зависит от рт/патч рт/рт овердрайв котове жрут от 1,5 до 3 раз больше фпс, пока мало где можно включить да и еще такой жор
Если бы не говно консоли, то уже сейчас бы создавались игры с полностью РТ освещением, но все игры создаются изначально под консольное железо!
@Sega-q6p консоли не причем оптимизации не было за 30лкт, а консоли очень выгодные ведь пк будет стоить минимум в 2 раза дороже за аналогичное жеоезое
@Sega-q6p да и что за бред, про консольное железо, голову включи
@@MakarPirog ты включи свою для начала, в консолях стоит хлам железо, а ведь ты знаешь, что любая игра разрабатывается для самой слабой платформы изначально и только потом как нибудь портируется на ПК, и никто не будет делать отдельные версии графики для консолей и ПК, именно поэтому мы имеем это убогое запечённое освещение во всех играх и прикрученный наспех рейтрейсинг в ПК версиях. А вот тебе другой пример - The Finals созданный на Unreal Engine 5, где разрабы запарились с ПК портом, сделали классный рейтрейсинг и общий визуал, прикрутили Наниты, полную разрушаемость и всё это просто летает без просадок.
@ пс 5 уровень райзен 5/7 3600+- 2060/2060супер иксбокс сериес икс 2080супер/3060ti пс5 про тот же cpu/ 3070 уже провели тесты даже на 5+- фпс хуже 3070, оптимизация тут не причем, графика у пс 4 там аналог gtx 750/750ti и там урезанная графика в сравнении с низкими на пк в киберпанке 2077, игры как плохо оптимизированы были 30 лет назад так и сейчас, рентген упор был на проц и видеокарту, с появлениям 4к проц толку мало стало, лучи это про будущее а не поо сейчас всего пару игр имеет смысл
Спасибо Хуангу за длсс, отличная технология, которая должна была помогать слабым картам хоть как-то тянуть современное неоптимизированное говно, теперь помогает топовым картам хоть как-то тянуть современное неоптимизированное говно.
Тоже такой ролик записать хотел
Все по делу
DLSS нужно дорабатывать еще, он все еще очень плохо справляется в динамике, генерация кадров итак работает идеально при 60 настоящих ФПС в базе котоыре у тебя есть, а RTX еще не научились нормально оптимизировать, но я уверен что именно за RTX будущее, а про нейронки я до конца все еще не уверен.
Братан, ты забыл про nvidia reflex, которая очень классно убирает инпут лаг в случае генерации кадров.
Reflex убирает встроенный в любую видюху генератор лагов. Заранее подготовленные кадры или render queue на слайдах Nvidia. Как в старой байке про магнитофон где кнопка снижение шумов просто отключает генератор шумов. Только тут не шутка а всерьез такую хрень сделали.
На 2:25 смотреть видос дальше нет смысла, бестолковый автор выдумал мельницы и начал их разоблачать, что запеченка-то через ретрейс делается!
Так это правда. Ты угораешь? Трассировку лучей придумали 60 лет назад
@@Имзлат а кто это отрицает? Башку включи, сектант
@@Имзлат а кто отрицает-то? Голову включай, сектант
База
Кайфффф видос
dlss = мыло