А что вы думаете по поводу новой линейки видеокарт RTX 50? Поддержать донатом - www.donationalerts.com/r/dark... Бусти - boosty.to/darkrikoshet ТГ канал - t.me/dark_rikoshet
Сколько я каналов посмотрел, все сравнивают работу видеокарт с функцией rtx и это логично и правильно, я не спорю. НО! Я хочу узнать, что вообще по мощностям без RTX. Я презираю ртх с самого его начала. Сырая технология, грубо говоря, как героин младенцу вколатая игрокам, хочет развиться без нашего на то согласия. Играть с включенным ртх желания нет, меня устраивают тени которые и так раскиданы разрабами и я обязательно буду ждать, что по компоновке и производительности без ртх и стоит ли вообще тратить деньги на обновление.
Да ужас какой-то! Согласен, это не правильно не справедливо, а издатели так вообще продают виртуальные игры за большие деньги, а должны давать их бесплатно, как FSR у АМД!
@@Igor-Bond который кстати, вроде бы начиная со следующей итерации, также будет требовать аппаратных мощностей, как и длсс. всё, амуде закрылась от народа получается, не наш слоняра больше?
@@siffzeL_Амд это кучка клоунов у которых на старте большинство видеокарт стоят дороже чем у Инвидия, а потом такие а мы щедрые мы продаем говнину за хорошие деньги, на целых 50 баксов дешевле!
@@daga5627 дают при соответствующей нагрузке. 3090 и 4090 разница в производительности до 70%. При 56% отличии в ядрах. Поэтому может быть ещё быстрее, чем разница в ядрах из-за новой архитектуры. Ну и какие 10% нифиг? Самому не смешно?
Если бы включили мультифрейм для 2000 и 3000 линейки, то да, могли бы с гордостью говорить, что увеличили их производительность в 4 раза в ИГРАХ на пустом месте. А для 5000 линейке это выглядит, конечно, маркетинговой уловкой.
они эти мультифреймы разрабатывают, деньги вбухивают. надо же зарплаты платить) а если на старых картах все сразу включать, с чего они будут денюжки зарабатывать?) кто будет эти мультифреймы делать?
@@wiean Они также разрабатывают DLSS, Reflex, DLAA, Ray reconstruction и во все эти технологии также вбухивают деньги (или они за бесплатно делаются?) И ВСЕ эти технологии работают на линейке видеокарт серии RTX 2хх 7-ми летней давности! И возможно генерация кадров добавилась к картам начиная с серии 4хх т.к. "Важно отметить, что технология DLSS 3 доступна только на видеокартах серии NVIDIA RTX 40, так как требует аппаратной поддержки оптического потока, чего нет в предыдущих поколениях." т.е. старые карты не могут это ФИЗИЧЕСКИ но возможно вы правы и дело в том что "ыыыы нагрели гоев, куртка денежки зарабатывать" и всё такое.
Путем оптимизации технологии в новых драйверах мощности видеокарты будут использоваться исключительно для обработки счётчика ФПС... А если серьезно - зачем они это делают? Ну будет в какой-то игре нарисованные 200 ФПС, но с жутким инпутлагом, выскакивающих и ниоткуда монстрами, артефактами и потреблением питания под 1к ват
13:30 dlss качество + настройка четкоткости (через драйвер) во всех абсолютно играх выглядет детализированее и правильнее чем нативный 4к, особенно на тонких объектах это заметно, таких как провода на столбах, мелкие ветки деревеьв. Это мне кажется должно быть вшито по умолчанию уже. Исполюзую повсеместно.
Все идет к тому, что нвидия продает тупо дллс в картах, а не чистую производительность по факту. Ненужно будет особо наращивать мощности, а тупо делать программный дллс с каждым поколением карт, и фпс будет удваиватся. Так они потом сделают генерацию не трех кадров, а 5-6 к примеру и цены ставят космос. У меня есть 4080 2к монитор, и я плевать хотел на эту 5 серию. Мне моей карты с 2к разрешением притом в нативе хватит еще на очень долго, примерно до года 2030 можно не парится со сменой карты, в целом апгрейда пк. Тобишь у меня 12700к, 32гб ддр5 оперативы и 4080, как уже сказал. Пред топ комп, который будет еще много лет тянуть игры.
Ну ведь можно купить чистую производительность от конкурента в лице АМД, и не парится, даже не смотреть в сторону Нвидиа, которая продаёт только DLSS, верно?
@@Igor-Bond Не фанат амд, всю жизнь сижу на нвидия, да еще я наслышан про баги с драйверами амд. Как там щас, не знаю с этими драйверами, но переходить на амд не стану.
так ты странный чел. В 2025 у современного человека должен быть моник 4К + 165ГЦ. Чтобы на ультрах играть на таком монике, натива не хватит НИКАКОГО, поэтому нужны ДЛСС. Если так дрочишь на натив - купи амуде
А какого хрена? Они на 5080 сделали 16Гб? На 4080 столько же и этого мало для локальных нейронок. По мне это петушиный поступок, походу оставили зазор для 5080ti на 24Гб
Я прекрасно понимаю, что это все делается потому, что «пипл хавает». Но проблема в том, что «пипл хавает» при том, что это все стоит нереальных денег. Продают технологии, которые для игр то и не нужны, даже вредны. Все говорят, что любая генерация кадров добавляет «желейности» управления. Эта технология была бы просто идеальна для оцифровки старых фильмов, для дорисовки кадров, коррекции цвета.
ЕСЛИ без DLSS производительность в Cyberpunk 28 кадров, то нафига мне нужна карта за 1500$ ? DLSS это был шанс для маломощных карт, хоть как то отрисовать 60 FPS для требовательных игр. Зачем мне искусственные 270 кадров, они не добавят отзывчивости управления, это будет мыло и ватное управление с задержкой несколько десятков MC. По ходу в чистой производительности мощности у NVIDIA закончились еще на 10й серии, 1080ti была последняя карта, которая отрабатывала каждый вложенный рубль и каждый потребленный ватт электричества.
так всё, транзисторы меньше 4 нанометров уже не сделать. Процессоры тоже достигли своего пикового значения производительности. 9800x3D не намного лучше 7800x3D, и жрёт больше
Единственная глобальная притензия к нвидиа, это заоблочные цены. Я бы купил условную 5050Ti за 125-199$. Но 200$ для меня психологический барьер который я никогда не перейду, какая бы хорошая видеокарта не была и какой бы прекрасный dlss там не прикрутили. Пока у них с ценами такая бубуйня, я быду юзать apu от amd, где за те же условные 200$ я получу и хороший проц и приемлемую графику, что бы худо бедно поиграть во все современные игры. Так что не видать Хуангу новой кожанки за мой счёт, пусть ему куртки оплачивают те, кто у него сервера под нейронки покупает.
Ты не их целевая аудитория на сейчас. К сожалению, они отказались от бюджеток вообще. Причем, если смотреть с 700-й серии, каждые два поколение, идет проседания. Т.е. если 750Ti - была прям хорошим геймерский решением в своем поколении, То, 2060 стал таким минимумом.
Это тебе не амд, которой и 32 гига мало будет в qhd. Если не заметил, то в презентации ещё и нейронные текстуры показали, которые весят в 2 раза меньше🤷
@@x_bat9_cah4e3_x6 Расстрою тебя но да задержка + мыло + артефакты и расскажу прикол что генка работает нормально только если круглые кадры 30/60/120 если у тебя в игре нет 30 как показана теста на киберпанке где без генки 24 а с генкой 240 будет чуствоваться очень плохо даже хуже чем 24 потому что карта просто не дотягивает до 30 чтобы генка нормально работала
А почему нет? Если Хуанг, снова втирает людям туфту, что и была до. Токо теперь вместо 1 ненастоящей картинки, будет сразу - 3. А игра как шла в 30фпс. На 4070. Так будет в 30 и на 5070. Смысл.
@@antonwestakov648 5070 дешевле на 50$. 5070 в чистой производительности мощнее 4070. +длсс на 2к , 4к выглядит нормально. Переход с 4070 на 5070 не имеет смысла.
Вместо того, что бы сделать реально мощное железо для нативного 4к, крестьян уже который год кормят искусственными софтверными затычками, которые стопудово пишут исключительно под новые карты. С другой стороны, современное ААА превратилось в такое УГ, что обновлять комп стало почти бессмысленно, еще и за такие бабки.
они упёрлись в техпроцесс, всё. Мощь можно увеличивать лишь увеличивая потребление. То же самое с процессорами. У АМД разница между 7800x3D и 9800x3D лишь в том, что второй больше жрёт и поэтому чуть быстрее
@ с path tracing конечно будет так. Это игра использует его по максимуму. Такая маленькая видеокарта не сможет тебе в таком разрешении 60 фпс сделать. Вот и применяются технологии
В прошлом поколении, RTX 4070 Super за 600$ действительно соответствовала RTX 3080 Ti 1200$ по чистой производительности К тому же, RTX 4090 была в два раза мощнее, чем RTX 3090, без всяких генераций кадров А в этом поколении, судя по слайду с презентации Nvidia, RTX 5090 мощнее, чем RTX 4090 лишь на 25%, именно по чистой производительности Что самое смешное, так это то, что по цене RTX 5090 дороже на те же 25% 2000$, вместо 1600$ за RTX 4090, получается вообще никакого улучшения относительно мощности за доллар не произошло среди этих карт. У меня такое подозрение, что в этом поколении, AMD перегонят Nvidia по чистой производительности, вот это будет потеха, если так.
Вместо того, чтобы оптимизировать код игрового движка (привет UE и другие говноделы игровых движков), оптимизировать игру, оптимизировать драйвера видеокарт...они создают АЖ ЦЕЛЫЕ ХАРДВЕРНЫЕ ТЕХНОЛОГИИ, КОТОРЫЕ ФЭЙКАЮТ КАДРЫ, ЧТОБЫ СКРЫТЬ ЗАДЫХАЮЩЕЕСЯ,ОТ НЕДОСТАТКА СОФТВЕРНОЙ ОПТИМИЗАЦИИ, ЖЕЛЕЗО... Это все что нужно знать об индустрии игр, которая СДОХЛА еще 15 лет назад.
@@Igor-Bond ну запусти любую игру на UE5 с длсс 3/3.5, а затем быстро смени направление взгляда несколько раз - увидишь что все в артефактах. ДЛСС вывозит исключительно в статичных сценах без сильной динамики, во всех прочих картинка превращается в шлак из артефактов.
@@dcdenton6859 Запустил, посмотрел, в Remnant 2, в Смуте, в RoboCop Rogue City, Lords of the Fallen, все игры хорошо идут и артифактов в них у меня не было и нет!
Просто пора ПЕРЕСТАТЬ сравнивать производительность графики в играх, тогда и разводов таких не будет. Сравнивайте в монтаже, в матвычислениях и прочем.
@@SiMBi0ZZA так тебя никто не заставляет скучным бредом заниматься, но объективную производительность железа ты знаешь знать, или готов платить СВОИ деньги за воздух?
Так сначала они сами были за ГЕЙмеров, но потом за криптокопателей, и так туда сюда, переобуваются на воздухе, так что это нормально, тем более сами Нвидия буквально в играх тесты провели, лол
Ага, а как же тогда гоев прогревать? Если реальный прирост производительности показывать, никто новые карты покупать не будет. Инвесторы шкуру хуанга на куртку пустят. )
По такой логике, Ryzen 7 1700, благодаря божественной генерации кадров NVIDIA, становится в 4 раза лучше, а значит его можно сравнивать с Ryzen 7 9800X3D Кто не знал, на генерацию кадров процессор никак не влияет, то есть если процессор может выдать 40 кадров, генерация кадров все равно может рисовать больше кадров
Ну если подумавть вообще нафиг нам куча немереных кадров, я вас умоляю видюхи выдающие в 2k в играх 100фпс более чем достаточно за глаза вы супер пупер человеком из за 200фпс не станите эти видюхи нужны только для монтажа видео и ИИ
Я хз зачем эти генераторы кадров, если латенси не заметно лишь от 60 кадров, чего вполне хватает для 90% игр, ведь они не соревновательные. Ну будет у вас не 60, а 180 кадров и толку?
Согласен, от увеличения цифр ничего не меняется, кроме самой картинки, увеличенная задержка реально больше приносит дискомфорта, чем эти цифры в верху экрана радости!;)
Ну при задержке от 70 фпс вполне комфортно играется в киберпук, но плавности немного не хватает. Для меня плавно от 100 фпс. Поэтому FG помогает. А вот зачем х4 сделали уже действительно не ясно.
1:50 не знаю.зачем тогда выложил свое видео?там речь о процессоре повышенной производительности Blackwell, предназначенный для технологий искусственного интеллекта (ИИ)
Всё как всегда наврали. 5090 будет стоить 500круб, а не 300круб, т.к. 4090 сейчас из-за дефицита стоит 300круб, хотя она уже устарела и её все кто хотели купили, но на 5090 будет ещё больше дефицит, т.к. её никто ещё не купил. 5070 будет как 4080 в большинстве игр, а не 4090, из-за памяти и куда ядер, т.к. ДЛСС 4 будет не везде.
@@arseniygolikov1215 А зачем мне думать о каких то там псевдо кадрах или о каких-то там нативных разрешениях, если я вижу что в нативном разрешении игра идёт дёргано, не комфортно, то я всё сделаю что бы этого избежать, например включу DLSS и генерацию кадров, получив на 3-5% картинку хуже, но гораздо более плавную, чем с этим нативным разрешением? Вот вы говорите что меня Нвидиа обработали, а кто вас тогда обработл если вы ярый фанатик натива, без всех этих мыльных сглаживаний, готовый играть с низким КДС но только в нативе?
Не только Хуан, меня даже Зяоми програла на деньги, продав мне новый Смартфон! А вот мой сосед по подъезду не прогреваемый, пользуется техникой 15-20 летней давности и копит денежки, он рассказал что уже 2 250 000 рублей накопил, когда я его угостил пивком, за свои 75 лет жизни, вот человек молодец что не прогревается на все эти маркетинги, правда плохо одно, он одинокий, сын его умер давно, жена тоже умерла!
Смотря для кого как, если кто-то реально думает что 5070 круче, и возтмет по этой причине, то тут можно по плакать. А так 5070 будет мощнее 4070 и дешевле
Проблема в том, что несознательные потребители без способности критично мыслить активно способствуют процветанию империи Хуанга и отсутствию у неё нормальных конкурентов.
Меня в комментах на полном серьезе один чел уверял вчера, что он уже тесты посмотрел в сети 5070 vs 4090 и она типо одинаковая по производительности. Я конечно вежливо объяснил ему, что эти тесты, как и 98% сравнительных тестов железа в сети это фейки. Реальные будут только ближе к 30 января. Пытался ему объяснить, что комппния не будет торговать себе в минус выпуская карту за 500 долларов с производительностью 4090. Так наивно думать. Это не серьезно. Куда тогда продавать 4070ti, 4080 и 4090? Которых еще достаточно на скаладах. Да и по чём их продавать, если на авито по его локике 4090 полетят за меньше чем 100к. Такой фантазер. Объяснял ему, что это сравнение 5070 с мультигенератором и голая 4090. А по сухой мощи ей дотянуть бы до 4070ti. Но он непоколебим. Ждет извинений после 30 января. Это поколение потеряно.
Лучи отменяем, и всё будет прекрасно. А так реальная производительность в лучшем случае возрастёт процентов на 20, и то за счёт более быстрой памяти. Как мне кажется убери они все эти тензорные ядра и RT-ядра, то производительность можно было бы поднять процентов на 40 -50, на таком же кристалле, но им надо всем подряд втюхать свои лучи, даже тем, кто никогда такого не просил.
Нвидия получает 80% прибыли от корпораций. Что нужно корпам? Нейросеть, или майнинг. А что надо ему? Больше и ядер и видеобуфер. Нужны ли им ФПС в играх? вообще нахер не впали. Понимаете куда и для кого развиваются видеокарты? ДЛСС это попытка убить 2 зайцев, заставить геймеров покупать видюхи которые по сути им не нужны и дают мало производительности.
Все равно гоев уже прогрели и цена 4090 на вторичке уже поползла вниз из-за одного только анонса 5070 :D Потому что кому нужна 4090, когда есть "такая же" 5070. Хотя 5080, которая на 600$ дешевле - реально даже не такая же, а мощнее. Короче, как бы там ни было, прогрев гоев состоялся.
Нет ну тут я скажу как простой пользователь , мне главное видеть чёткую картинку и отзывчивый геймплей, если я получу 400фпс пускай дорисованный, за то отзывчивость не пострадает, я ничего не почуствую, а то что нативная мозность не растёт, меня не будет волновать
нвидиафанбоев не спасти, они реально думают что растянув как в презентации 1080п до 4к детальнее будет, есть ещё виды сглаживания и длсс это тоже сглаживание только сегодня один узнал, с такими фанатами можно и 3.5гб видеопамяти продавать 5060, всё равно не заметно.
Я удивляюсь что кто-то РЕАЛЬНО НАДЕЯТЬСЯ ВЗЯТЬ 5070 ЗА 549$, 5070 цена минимум под 100.000₽ будет стоит, И то если не 125.000₽, Барыги цену в космос вьебут.
т.е. на видеокартах 40-й серии нас не ждут эти задержки новых технологий с добавлением 3-х кадров -- ну и хорошо, Хуанг прогревает Гоев... Если всё так плохо, ждать нам реальные мощности ещё 2 года, можно на 40-й серии пока пересидеть, и посмотреть на видеокарты АРКИ от INTEL, Хуанг им явно фору даёт на 2 года - показать что INTEL выкатит, если АРКИ появятся с технологиями Ai это даже очень хорошо, у INTEL неплохой потенциал в области ИИ - в эту сторону смотреть нужно, и пока сидеть на 40-х видеокартах.
Единственный минус это цена. Это я как владелец карты от красных пишу. Для меня все таки цена имеет решающее значение. И будущее это апскейлы, как бы нам не хотелось. Встали мощности , "нанометры заканчиваются" нужны новые технологии.
Мощности встали и нанометры уже лет 10 ни как не закончатся. Капиталисты выжимают все соки из потребителей, козыряя своими чудо технологиями и костылями, которые были-бы не нужны, если бы изначально ускорение RTX реализовали на отдельном чипе, как это когда-то было c Phyisx. Да-да, была отдельная плата с чипом ускоряющим физикс и за него нужно было платить отдельно! А сейчас, нам даже выбора не дают. Нужен тебе RTX или нет - ты все равно за него заплатишь.
@@dofiga1309 уже даже tsmc говорит о 2 нанометрах как о чем-то сложном. Ядерных технологий тоже не предвидится и капиталисты тут не причем. Либо надо архитектуру х86 менять и все вот это допотопное что тянется еще с начала времен. Но весь готовый софт итд этого не позволит сделать. а ближайшем будущем так точно. Что касается rtx так ведь есть тензорные ядра они и выполняют роль того самого чипа как было у физикс. RTX это сложно, общитать в реал тайме или зарендерить готовое видео как в кино - это разные вещи и мощности.
проблема рт нет мощностей для него проблема длсс нельзя использовать в играх где её не внедрли сами разрабы фрейм ген дерьмо хз как вообще можно её хоть немного хвалить рефлекс крутая фишка но опять же нет в драйвере что бы юзать везде И самое главное нужны мощностя а не технологии и та же видеопамять о которой все ноют нах не нужна если сам камешек не справляется, покрутите разрешение в играх и глядя на фпс посмотрите на загрузку гпу и загрузку памяти Посыл правильный что нас дурят но люди сами хотят верить в чудеса увы(
ты откуда производительность найдёшь? АЛЁ 5070 В растре есть уже 250ватт. Без всяких лучей, длсс и прочей мишуры. Твоя 5070 упирается в возможности тепловыделения, который сейчас уже не решить. Техпроцесс тормозит своё развитие. Раньше видеокарты от улучшения нанометров и бустились, а сейчас уже нет, так как раз в 2 года TSMC выпускает новое поколение техпроцесса, которое на 20-30% энергоэффективнее предыдущего. BRUH. Каким образом ты сделаешь видеокарту производительнее нынешней 5070?
@@home_bt8218 наверное можно сделать монстр-видюху с потреблением > 1 кВт и стоимостью в $дохреналлион, вопрос кто себе такое в домашний ПК купит, 1.5 энтузиаста? И где эту производительность реализовать, если игры разрабатывают под консоли в первую очередь?
@@home_bt8218 ой вода такая надёжная, а жидкий металл надёжнейшая вещь. Воистину. Мы же видеокарты покупаем на три года. А через 3 года пусть хоть спаяется. Проблема даже не в охлаждении, а в потреблении как таковом. Увеличиваются радиаторы и прогары и увеличиваются требования к блокам питания, что не норма. Я не собираюсь сидеть и играть в игры на пк, который в игрушках кушает 1 кВт
реальный прирост на натуральную работу 20-30 процентов. Дальше генерация . Кому то это нужно , кого это устраивает . Это тоже вычислительный блок и входит в стоимость . Зачем говорит что кто то кого то обманывает. Нет . Нравится , нужно берешь, не нужно не нравится , не берешь. Ждем там чего то двльше. А дальше только так , вообще были заявки , что по техпроцессу уже больших приростов ждать не стоит. Сам Хуанг заявлял , что все ..... ) Увлечение мощности только за счет увлечения самих процессоров ). Так что товар годный , плохо , что , фантик банановой республики подводить , а так прямо , чи не деньги )))). Ну и вставлю свои пять копеек , я за native , И даже на 4070 super видно как натив лучше генерации . Хотя она и дает хороший прирост . И не кто не кого не когда не обманывал. Просто тут нужно понять за что ты отдаешь деньги. Не нравится , сам вообще седлай себе , что тебе там надо ......
Отлично, очень рад что инженеры нвидиа дали тебе все инсайды. Чем твой контент отличается от говорящих голов с ТВ или экстрасенсов? Просто мусор. Стоит дождаться конца января и посмотреть на голую производительность и затем на сравнение с использованием алгоритмов генерации и dlss. Когда много лет назад вышел первый длсс и фср все так же с пеной у рта доказывали что все это ФЕЙК и лаги! Но по факту сейчас всем уже ясно что длсс и рефлекс работает и то что он дает на голову выше чем все ожидали.
@effgeffer761 вообще-то карточка вышла в 20-х годах, и на момент выхода тянула всё на ультра в 2К, ну кроме АРК, там фпс скакал 30-40, но на высоких настройках 70-75 без проблем. Я и другие игры тех лет прошёл с удовольствием, никаких лагов. А сейчас главное новые драйвера не устанавливать, оставаться на дровах 2022 года. Сейчас она и новый АРК тянет в средне-высоких настройках в 65-75 фпс. Более оптимизированеые игры вообще на ура идут. Смысл её менять только после перехода на 4К. Хотя откуда вам знать о моем опыте с видеокартами, ведь начинал я ещё с 64-мб видеопямати с компьютером Intel - 2, когда большинства из смотрящий это видео ещё и в планах не было 😁
@RD_tech2185 я не играл в эти игры, что ты написал, они мне не интересны, это проходные игрухи. Там и оптимизации никакой, вот тебе и не хватает 8гб. Но то, что эти 8 гб забиты под завязку в некоторых играх - это так. У меня была 3060 ti, я её в майнинг потом отправил, а после продал. 3070 всё же помощнее как-никак.
12:17 а вот не такой же будет инпут лаг, а больше сами Nvidia заявляли, что инпут лаг такой же, если включен DLSS Quality + Nvidia Reflex это как два энергетике тестировать на спортсменах, при том, что один спортсмен в обуви, а другой босиком нужно сравнивать, когда оба спортсмена в обуви))
Я честно не понимаю проблему. Сам пробовал DLSS и генерацию кадров, не понимаю почему +- всем не по нраву эта технология. В чём проблема, что половина кадров не настоящая, если это выглядит лучше, чем мало нативных? Да, соглашусь, что сгенерированные кадры иногда или даже часто могут быть искажёнными, рваными в качестве. Но глаз через пару минут привыкает к этому, и эти "фальшивые" кадры выглядят с нативными лучше, чем чистый натив. По поводу Super Sampling-а тоже не понимаю. Да, конечно, иногда сложные в понимании места на изображении для ИИ модели могут искажаться и быть неестественными, но опять же уходим в человеческий фактор того, что глаз привыкает, и таких проблем не замечает. Подведу итог высказываний. DLSS желателен при игре с трассировкой лучей/путей для облегчения вычислений видео ускорителя, и отлично с этим справляется, создавая плавную картинку, ценой искажениями изображения. Но что же лучше? Любоваться логичной, но слегка искажённой графикой, или попытками её повторить такими методами как Screen Space, VXGI и т.п? Лично в моём вкусе будет первое, потому что разницу между нативом и "фальшивкой" не замечаю спустя время. Я могу согласится, что выбор это дело каждого, многие хотят честное изображение без артефактов, а некоторые готовы немного жертвовать качеством, но получать логичную картинку. Я понял проблему, многие люди платят много своих денег, но не получают требуемого ими результата за такие большие деньги. Ругают за это компанию, однако, если посмотреть с лица компании, то основная задача компании в бизнесе. Nvidia отлично делает вычислители для сложных вычислений, что многое время подходило для графики в видеоиграх, из за чего они и делают видеокарты. Но также оказалось, что особенности архитектуры GPU подходит для вычислений ИИ. Многие компании заинтересовались в разработке ИИ, и также оказалось, что Nvidia может предложить чуть ли не лучшее решение для этого. Поэтому Nvidia посмотрела в сторону ИИ, но стараются не забыть про игроков, и пытаются внедрить их технологии в видеокарты, из за чего люди и не получают нужных вычислительных мощностей. Получают значительные улучшения в ИИ, и эти улучшения стоят денег, но людям не нужен ИИ. Я, кажется окончательно понял, почему многие ругают новые видеокарты и компанию. Если я не прав, то, пожалуйста, поправьте меня.
да почему обмануть? выпустили новую технологию, которая умножает ФПС ещё в 4 раза. В чем проблема? Ну не хотите, не включайте! Берите радеоны и успокойтесь уже. Дайте людям, которые хотят эти +4 кадра, купить и воспользоваться. Что ж вы так за этих людей переживаете.
@@rikoshetdark поиграй с генерацией хоть раз, а потом уже делай вывод - переживать или нет. Предлагаю запустить Ratchet & Clank с генерацией и DLSS-качеством в QHD. да, 7\8 фейковых пикселей или как там говорят, только картинка настолько умопомрачительная, безартефактная и плавная, что будешь переживать за тех, кто всё это включить не может.
Презентацией Хуанг доказал что Видеокарты уперлись в свой лимит, Чип они уже лучше не смогут создать, Максимум что они могут сделать, Это улучшать технологию DLSS, Хотя фреймрейт просто пиздец.......
Не,ну если это чисто с длсс 4 такой прирост тогда ладно,но если это считается при включенном FG-это убого. Я пару раз включал эту frame generation,так там мало того что задержка чувствуется очень сильно так еще и при движение картинка размазывается жестко.Но вот чисто длсс 3.5 без fg мне нравится,картинка четкая на 2к монике при настройке «качество»
5060 ьудет 2 версии карточек,одна ьудет на 8,другая на 12 гб и это первые варианты изначально были,так они её хотели сначала сделать,16 я думаю мало вероятно дадут для 5060,это же куртка.Вспомните песенку пласмасовый ☮️ я предпологаю вы сами все поймёте
@@Chidorinа какой смысл сравнивать устройства , когда для 5090 появился новый тип вычислений? Итак ясно, что по голой производительности прирост будет процентов 30.
@@tyyyTyyy-ld7ry наверное проблема в маркетинге? Ты сам как думаешь? Но видимо тебе не понятно, что такое прогресс. Объясню на другом примере. Есть ДВС (двигатели внутреннего сгорания), и одна и та же модель ДВС может не меняться годами и десятилетиями, но его мощность будут увеличивать за счёт смены системы впрыска, облегчения шатунов, поршней или установки турбины. И всё это будут новым подходом или новыми технологиями. Ты же не будешь кричать, что создатели двигателей шарлатаны? То же самое и здесь, появилась новая модель вычислений, которая работает только на 5090, вот эту карту и сравнивают. Умные люди и так поймут, что в тестах с fp8 двукратного прироста не будет.
А в блендере и других прогах Куртка Хуанг нарисует мне производительность при рендере 8к сцены на своем ДИЭЛ'ASS 4? Тогда беру амуде, там хоть память есть, которую могу без остатка на рендер кинуть
Читал сравнение видюх в блендере, там 7900 XTX слил допотопной 3080 в 2 раза почти, то есть это уровень плюс-минус 3060... Да и в целом брать карты АМД для работы... вы там держитесь, удачи 😁
Купил XFX RX 7900 XTX и не жалею. Съэкономил более 600 долларов. СТАЛКЕР 2 на мониторе 32:9 разрешением 5120 х 1440 с FSR на качество даёт 80 FPS. NVIDIA с ее маркетингом пусть идёт лесом
Как можно расказывать о том что ещё в руках не держали!? Каждый выход видеокарт одна и таже песня у блогеров как нас обманывают какие карты плохие и тд, как только в продаже появляется новая линейка карт вы начинаете их облизывать какие они класные....
@КириллМолчанов-з6з это не они обосралась, а надо характеристики смотреть внимательнее. Я не защищаю Хуанга, просто задолбало о том что я написал выше!
@@ДмитрийФомин-я5й как раз таки обосрались, раньше дискретки соотвествовали неймингу, сейчас же под видом 4070 продают гораздо хуже видеокарту, но ценник как за полноценную 4070
@ДмитрийФомин-я5й при чем тут цены выросли, ты вообще понять не можешь о чем речь? Тебе бл под видом 4070 продают 4060 ti , вот ток цена не за 4060 а за 4070 ты платишь, это тоже самое что ты видяху декстопную возьмёшь 4070 а в коробке будет 4060
@@PAWNERinc Ну в Нвидиа не слепые инженеры и программисты работают, и они видели как и что будет, да и прошлый опыт у них имеется с первой версией DLSS, которая сильно отличается от последней в пользу лучшего качества. И почему вы считаете что эти 3 кадра берутся из неоткуда, их так же рисует видеокарта, как и те что рисует ЦП. Я вообще считаю что в будущем в игровых устройствах, будет маленький чип связывающий периферийные устройства с видеокартой, а всё остальное будет делать видеокарта, то есть всем будет заниматься только одно устройство, сейчас называемое видеокартой!
А что не понятного, мыльной картинки на DLSS 2. Этот пример относительно честный. DLSS 3 принес не только генерацию кадров, но и улучшение четкости и больше деталей. Радует, что ещё более детализированный и менее "артефачный" DLSS 4 доступен и на картах предыдущих поколений. А 3* 4* FG пусть себе оставят. Не использую даже 2х. Остальные тем более не нужны.
Я вот не совсем понял такой момент. Зеленые показали таблицу доступности новых приблуд из DLSS 4.0 для всех поколений. И вот для 4000 серии стоит галочка на FGx2 с комментарием: улучшена производительность и снижено потребление памяти. Новый апскейлер уже доступен всем поколениям, правда почему то beta. Еще RT реконстракшен везде доступен будет. Один вопрос, когда?
это уже реальные цены. сам посчитай. цена указана для сша без ндс. добавь ндс 20%, растаможку 10% и НАШ ндс 20%. а ещё надо потратиться на логистику + за конвертацию валют 5%, на гарантию 2-3% и ещё нужно что-то заработать, иначе зачем это всё
Я как обладатель rtx 4080 очень жду завтрашнего обновления Lossless Scaling. С этой прогой комфортнее играется в неоптимизированные игры Stalker 2 и Indiana Jones and the Great Circle. Не понятно вообще для чего покупал такое железо, если современные игры без костылей не тянет
Честно, всю жизнь сидел на зеленых и красные даже не рассматривал. Но DLSS в современных играх такая шляпа, что пипец. Во многих играх просто отключаешь что бы мыло убрать. Где то читал, что все это мыло началось с ТАА сглаживания. И что бы DLSS что то адекватное показал, то нужна во первых игра с правильно рабочим DLSS, а во вторых в идеале 4К разрешение. Решил, что следующую сборку буду пробовать делать только на красных.
без этого "мыла" у тебя вообще картинка развалится по частям. Сейчас почти все эффекты начиная от теней с волосами, заканчивая PBR материалами и глобальным освещением работают только благодаря темпоральному сглаживанию. Если его отключить, у тебя картинка в одно большое мерцающее месиво превратится
@@erikamelsbach2270 ахенею несете. Много есть игр, где картинка без dlss лучше в нативе, так же мои знакомые отключают этот костыль. Возможно во многих играх dlss кривое. Вообще, учитывая, что dlss что то там делает с разрешением и подрисовывает кадры, то не удивлюсь, если это все адекватно настроено только для 4К разрешения. И чем меньше разрешение, тем хуже мыло. Кстати, в старых играх без "мыла" отлично играется.
Хотим мы того или нет, но от технологий никуда не деться. Раньше вместо "честной" попиксельной обработки изображения придумали шейдеры, теперь DLSS кадры рисует... Опять же игроделы будут чем дальше, там больше на эту технологию полагаться и тем, кто ею не будет по каким-то соображениям пользоваться будет очень печально играть из-за отсутствия оптимизации.
В 50 серии куда больше нововедений, чем длсс4. И есть поддержка пока еще тестовых технологий речь идет про кслатеризацию меша, нейроматериаллы, улучшенную обработку грума, длсс на текстурах (из того что я знаю) Да и сама архитектура довольно сильно отличается, и да, упор был сделан как раз в обработку нейронок Если игра идет в трушные 60+ кадров 1080p То сильно заметных проблем с апскейлом в 4к и генератором кадров не должно быть, как и с задержкой. Это ведь круто, когда твоя катра позволяет играть в 60 кадров и видеть плавную и более четкую катринку в сравнении с тем что может твой пк. Да и сам по сбе ДЛСС (в режиме качесво) выдает более правильную картинку в сравнении с растеризацией а проблемы со всем зверинцем под капотом начинаются когда разшение не очень и фпс заканчивается. Но вот только проблема в том, что студии увидят эти самые 240 фпс и пойдут пилить игры с еще более плохой оптимизацией) чтобы это все шло в дай бог 60 фпс 4к со всеми дорисовками Еще и продажники нвидиа намеренно вводят в заблуждение, рисуя из нейросетей что-то фантастическое, своими сказками и нечестными сравнениями
А что вы думаете по поводу новой линейки видеокарт RTX 50?
Поддержать донатом - www.donationalerts.com/r/dark...
Бусти - boosty.to/darkrikoshet
ТГ канал - t.me/dark_rikoshet
Честно говоря, пошла эта сраная куртка н@х🤬й. Куплю либо карточку от AMD, или вообще дождусь нового поколения консолей и перейду на них.
Очередная технология наебалова для игр. Что там с этими ИИ делают ещё я не знаю .
Сколько я каналов посмотрел, все сравнивают работу видеокарт с функцией rtx и это логично и правильно, я не спорю.
НО!
Я хочу узнать, что вообще по мощностям без RTX. Я презираю ртх с самого его начала. Сырая технология, грубо говоря, как героин младенцу вколатая игрокам, хочет развиться без нашего на то согласия. Играть с включенным ртх желания нет, меня устраивают тени которые и так раскиданы разрабами и я обязательно буду ждать, что по компоновке и производительности без ртх и стоит ли вообще тратить деньги на обновление.
Что Хуанг в край уже обнаглел в виду отсутствия реальной конкуренции со стороны родственницы.
Нахрен этот ртх? Где чистая производительность?
Мляяя....
никогда не было и вот опять - Нвидия виртуальные кадры продаёт за реальные деньги!
Все кадры виртуальные умник...
Да ужас какой-то! Согласен, это не правильно не справедливо, а издатели так вообще продают виртуальные игры за большие деньги, а должны давать их бесплатно, как FSR у АМД!
@@Igor-Bond который кстати, вроде бы начиная со следующей итерации, также будет требовать аппаратных мощностей, как и длсс. всё, амуде закрылась от народа получается, не наш слоняра больше?
таки меня это устраивает
@@siffzeL_Амд это кучка клоунов у которых на старте большинство видеокарт стоят дороже чем у Инвидия, а потом такие а мы щедрые мы продаем говнину за хорошие деньги, на целых 50 баксов дешевле!
По сути смотреть прохождения на ютуб это 100% ненастоящих кадров, это как бы более совершенная технология
Голую производительность не показали, я думаю там прирост 10-20% максимум, вот и не показали.
около 30%, если считать ядра
@artem123654 ядра не дают эквивалентный прирост. Надо смотреть тесты.
@@daga5627 новое поколение обычно даёт больший прирость производительности на ядро
@@daga5627 дают при соответствующей нагрузке. 3090 и 4090 разница в производительности до 70%. При 56% отличии в ядрах. Поэтому может быть ещё быстрее, чем разница в ядрах из-за новой архитектуры.
Ну и какие 10% нифиг? Самому не смешно?
Показали же, серые графики это без всяких апскейлеров и генераций
- У вас есть кадры?
- Кое что по лучше, рисунок кадра😂
Если бы включили мультифрейм для 2000 и 3000 линейки, то да, могли бы с гордостью говорить, что увеличили их производительность в 4 раза в ИГРАХ на пустом месте. А для 5000 линейке это выглядит, конечно, маркетинговой уловкой.
они эти мультифреймы разрабатывают, деньги вбухивают. надо же зарплаты платить) а если на старых картах все сразу включать, с чего они будут денюжки зарабатывать?) кто будет эти мультифреймы делать?
@@wiean Они также разрабатывают DLSS, Reflex, DLAA, Ray reconstruction и во все эти технологии также вбухивают деньги (или они за бесплатно делаются?) И ВСЕ эти технологии работают на линейке видеокарт серии RTX 2хх 7-ми летней давности! И возможно генерация кадров добавилась к картам начиная с серии 4хх т.к. "Важно отметить, что технология DLSS 3 доступна только на видеокартах серии NVIDIA RTX 40, так как требует аппаратной поддержки оптического потока, чего нет в предыдущих поколениях." т.е. старые карты не могут это ФИЗИЧЕСКИ но возможно вы правы и дело в том что "ыыыы нагрели гоев, куртка денежки зарабатывать" и всё такое.
Путем оптимизации технологии в новых драйверах мощности видеокарты будут использоваться исключительно для обработки счётчика ФПС...
А если серьезно - зачем они это делают? Ну будет в какой-то игре нарисованные 200 ФПС, но с жутким инпутлагом, выскакивающих и ниоткуда монстрами, артефактами и потреблением питания под 1к ват
Чистый маркетинг чтобы продать свой кал
казуалам впарить так легче, вот и всё.
Скорее всего уже исчерпали мощности кремния, поэтому начали продавать искусственные фпс за реальные деньги
У тебя на рука эта видеокарта есть, что ты так говорить?
@@pooo1shovel Опа… свидетели зеленых подъехали…
13:30 dlss качество + настройка четкоткости (через драйвер) во всех абсолютно играх выглядет детализированее и правильнее чем нативный 4к, особенно на тонких объектах это заметно, таких как провода на столбах, мелкие ветки деревеьв. Это мне кажется должно быть вшито по умолчанию уже. Исполюзую повсеместно.
Все идет к тому, что нвидия продает тупо дллс в картах, а не чистую производительность по факту. Ненужно будет особо наращивать мощности, а тупо делать программный дллс с каждым поколением карт, и фпс будет удваиватся. Так они потом сделают генерацию не трех кадров, а 5-6 к примеру и цены ставят космос. У меня есть 4080 2к монитор, и я плевать хотел на эту 5 серию. Мне моей карты с 2к разрешением притом в нативе хватит еще на очень долго, примерно до года 2030 можно не парится со сменой карты, в целом апгрейда пк. Тобишь у меня 12700к, 32гб ддр5 оперативы и 4080, как уже сказал. Пред топ комп, который будет еще много лет тянуть игры.
влажные мечты
Ну ведь можно купить чистую производительность от конкурента в лице АМД, и не парится, даже не смотреть в сторону Нвидиа, которая продаёт только DLSS, верно?
самое разочеровывающие что игры новые будут в упор по производительности dlss. как сталкер без апскейлера мыло и шумы
@@Igor-Bond Не фанат амд, всю жизнь сижу на нвидия, да еще я наслышан про баги с драйверами амд. Как там щас, не знаю с этими драйверами, но переходить на амд не стану.
так ты странный чел. В 2025 у современного человека должен быть моник 4К + 165ГЦ. Чтобы на ультрах играть на таком монике, натива не хватит НИКАКОГО, поэтому нужны ДЛСС. Если так дрочишь на натив - купи амуде
А какого хрена? Они на 5080 сделали 16Гб?
На 4080 столько же и этого мало для локальных нейронок.
По мне это петушиный поступок, походу оставили зазор для 5080ti на 24Гб
@Latinonos
Кто там в облаках, самолёт или птица, нет это хуанг в лучах искрится
хочешь работать на видюхе, покупай 5090, а если хочешь играть, 16 гигов тебе хватит на ЛЮБОЙ тайтл в 4к
@sluckydog657
Да хочу работать и играть. Но 16Гб для 5080 реально мало.
А 2000$ за 5090 реально много.
К чему крайности?
@@banderprofiи в чём ты будешь работать?) В пэинте тебе и встройки хватит, а нейронку ты чему будешь обучать? Как апнуть 2к ммр в доте?😂
их жаба давит добавить памяти ))) в 5090 32 гига)
Смотрю видео , а моя видяха RTX 4060 без настроения . Я посмотрел на неё и сказал - спокойно родная я с тобой .😄
Продолжаем сидеть на RX6600.
🤮
я тоже сидел, и чего раньше не купил 4070супер😆
rx470 )
@@АлексейСтипанович что тоже жрёт после даунвольтинга в пике 90 ватт и можно взять на Авито за 15-16 штук?
RX6800XT. Не планирую брать новые карты. Эта пока хороша.
Я прекрасно понимаю, что это все делается потому, что «пипл хавает». Но проблема в том, что «пипл хавает» при том, что это все стоит нереальных денег. Продают технологии, которые для игр то и не нужны, даже вредны. Все говорят, что любая генерация кадров добавляет «желейности» управления. Эта технология была бы просто идеальна для оцифровки старых фильмов, для дорисовки кадров, коррекции цвета.
ЕСЛИ без DLSS производительность в Cyberpunk 28 кадров, то нафига мне нужна карта за 1500$ ? DLSS это был шанс для маломощных карт, хоть как то отрисовать 60 FPS для требовательных игр. Зачем мне искусственные 270 кадров, они не добавят отзывчивости управления, это будет мыло и ватное управление с задержкой несколько десятков MC. По ходу в чистой производительности мощности у NVIDIA закончились еще на 10й серии, 1080ti была последняя карта, которая отрабатывала каждый вложенный рубль и каждый потребленный ватт электричества.
так всё, транзисторы меньше 4 нанометров уже не сделать. Процессоры тоже достигли своего пикового значения производительности. 9800x3D не намного лучше 7800x3D, и жрёт больше
Куртка прогревает!
Платье кидает!
А когда не прогревал ?
Единственная глобальная притензия к нвидиа, это заоблочные цены. Я бы купил условную 5050Ti за 125-199$. Но 200$ для меня психологический барьер который я никогда не перейду, какая бы хорошая видеокарта не была и какой бы прекрасный dlss там не прикрутили. Пока у них с ценами такая бубуйня, я быду юзать apu от amd, где за те же условные 200$ я получу и хороший проц и приемлемую графику, что бы худо бедно поиграть во все современные игры. Так что не видать Хуангу новой кожанки за мой счёт, пусть ему куртки оплачивают те, кто у него сервера под нейронки покупает.
От одного сумасшедшего на встройке у куртки не убудет)
@Askippen это правда, как и то что сумасшедших вокруг гораздо больше чем может показаться.
@@0verforce если человек говорит, что он не сумасшедший, то он врёт. Если человек не говорит, что он сумасшедший, то он сумасшедший.
@@Askippen мне определённо нравится этот стиль повествования, зачёт!
Ты не их целевая аудитория на сейчас.
К сожалению, они отказались от бюджеток вообще.
Причем, если смотреть с 700-й серии, каждые два поколение, идет проседания.
Т.е. если 750Ti - была прям хорошим геймерский решением в своем поколении,
То, 2060 стал таким минимумом.
Для 5070 - 12гб это дно. Даже 16гб дно. На 5 лет не хватит для игр.
Хватит, мне и 8гб хватает в 4к зачем все выкручивать на максимум
Это тебе не амд, которой и 32 гига мало будет в qhd. Если не заметил, то в презентации ещё и нейронные текстуры показали, которые весят в 2 раза меньше🤷
@@ЕвгенийВозяков ну смотрю во что в ближайшее время ты играть собрался))))
АХХАХАХАХХАХАХА mamin😊 expert
@UMRUN Не играю, не во что
Нарисовать можно хоть 1000 фейковых кадров а на самом деле 50)
расстрою тебя, но с нарисованными кадрами я чувствую разницу, хоть и задержка появляется, но плавность игры в любом случае лучше будет)
@@x_bat9_cah4e3_x6 Расстрою тебя но да задержка + мыло + артефакты и расскажу прикол что генка работает нормально только если круглые кадры 30/60/120 если у тебя в игре нет 30 как показана теста на киберпанке где без генки 24 а с генкой 240 будет чуствоваться очень плохо даже хуже чем 24 потому что карта просто не дотягивает до 30 чтобы генка нормально работала
ну нарисуй. раз все так просто XD
Так и что в итоге? Если выключить дрысню в виде генерации, то 5070, выдаст те же, 30fps? Ммм...💩
Сенсея насмотрелся
@@Vamiker а что тут не так по факту же написал
А почему нет? Если Хуанг, снова втирает людям туфту, что и была до.
Токо теперь вместо 1 ненастоящей картинки, будет сразу - 3. А игра как шла в 30фпс. На 4070. Так будет в 30 и на 5070.
Смысл.
@@antonwestakov648 5070 дешевле на 50$.
5070 в чистой производительности мощнее 4070.
+длсс на 2к , 4к выглядит нормально.
Переход с 4070 на 5070 не имеет смысла.
@@antonwestakov648 Кстати все картинки не настоящие, это лишь пиксели, циферки.
Вместо того, что бы сделать реально мощное железо для нативного 4к, крестьян уже который год кормят искусственными софтверными затычками, которые стопудово пишут исключительно под новые карты. С другой стороны, современное ААА превратилось в такое УГ, что обновлять комп стало почти бессмысленно, еще и за такие бабки.
они упёрлись в техпроцесс, всё. Мощь можно увеличивать лишь увеличивая потребление. То же самое с процессорами. У АМД разница между 7800x3D и 9800x3D лишь в том, что второй больше жрёт и поэтому чуть быстрее
4к для игр не нужно, это маркетинг. Не будет в ближайшие 10 лет нативного 4к
один кадр в игре, и ии её завершит сама
Хуанг нам старается втюхать, фейковые кадры
В ДЛСС 4 будет 3 кадра генерироваться, а не 1, представьте какое ужасное мыло и ватное управление будет🤣🤣
Far Cry 6 всё показал... Куртка разводила😂
Теперь упор не в мощность видеокарты а в ее способность работать с технологией ускорения Хуанг решил пойти по самому легкому пути
Ваши любимые разработчики теперь будут еще больше лениться
Они делают и то и другое одновременно умник
@@medrown Меня мало впечатляет 27 фпс на rtx5090 нативном 4к в киперпанке, остальное конечно магия
@ с path tracing конечно будет так. Это игра использует его по максимуму. Такая маленькая видеокарта не сможет тебе в таком разрешении 60 фпс сделать. Вот и применяются технологии
@@medrown Кстати, уже показали карты от ретейлеров от фирмачей Асус, Палит, не маленький такой бутерброд
После презентации акции компании упали на 10% рынок не врёт
Туда их😂 (нет на самом деле)
ну-ну, их акции же просто обвалились, и плевать, что они сейчас растут
@@v61kz а тебе то что с этого
Не 10, а 7. И они отобьют за год на 20, а ты так и будешь нищебродом без норм видюхи.
В прошлом поколении, RTX 4070 Super за 600$ действительно соответствовала RTX 3080 Ti 1200$ по чистой производительности
К тому же, RTX 4090 была в два раза мощнее, чем RTX 3090, без всяких генераций кадров
А в этом поколении, судя по слайду с презентации Nvidia, RTX 5090 мощнее, чем RTX 4090 лишь на 25%, именно по чистой производительности
Что самое смешное, так это то, что по цене RTX 5090 дороже на те же 25% 2000$, вместо 1600$ за RTX 4090, получается вообще никакого улучшения относительно мощности за доллар не произошло среди этих карт.
У меня такое подозрение, что в этом поколении, AMD перегонят Nvidia по чистой производительности, вот это будет потеха, если так.
ну так нет же конкуренции в верхнем сегменте, вот и творят что хотят.
Где ты взял такую информацию, что 4090 в 2 раза мощнее 3090? Что за бред?
@@tyyyTyyy-ld7ry тест посмотри хоть один, прежде чем фигню писать
@fx8052 Как раз к тебе это и относится, посмотри хоть один тест прежде чем такой бред писать о якобы удвоенной производительности
@@tyyyTyyy-ld7ry хах, ну ок, покупай RTX 5070, она же равна RTX 4090
Жертва маркетинга 🤣🤣
Вместо того, чтобы оптимизировать код игрового движка (привет UE и другие говноделы игровых движков), оптимизировать игру, оптимизировать драйвера видеокарт...они создают АЖ ЦЕЛЫЕ ХАРДВЕРНЫЕ ТЕХНОЛОГИИ, КОТОРЫЕ ФЭЙКАЮТ КАДРЫ, ЧТОБЫ СКРЫТЬ ЗАДЫХАЮЩЕЕСЯ,ОТ НЕДОСТАТКА СОФТВЕРНОЙ ОПТИМИЗАЦИИ, ЖЕЛЕЗО...
Это все что нужно знать об индустрии игр, которая СДОХЛА еще 15 лет назад.
Всегда отключаю длсс и прочие ии-приблуды в играх, ибо после них вместо нормальной картинки ты видишь 100500 артефактов на экране.
Тоже бы так делал если бы не видюха днище которая только с фср вывозит новые тайтлы
Верно, настоящие тру геймеры играют в оригинальный Deus Ex без всех этих абскуйлеров!
@@Igor-Bond самое тру это даунскейлер. Реально крутая фича.
@@Igor-Bond ну запусти любую игру на UE5 с длсс 3/3.5, а затем быстро смени направление взгляда несколько раз - увидишь что все в артефактах. ДЛСС вывозит исключительно в статичных сценах без сильной динамики, во всех прочих картинка превращается в шлак из артефактов.
@@dcdenton6859 Запустил, посмотрел, в Remnant 2, в Смуте, в RoboCop Rogue City, Lords of the Fallen, все игры хорошо идут и артифактов в них у меня не было и нет!
Просто пора ПЕРЕСТАТЬ сравнивать производительность графики в играх, тогда и разводов таких не будет. Сравнивайте в монтаже, в матвычислениях и прочем.
кому не пофиг на монтаж и прочий не интересный массам скучный бред?)
@@SiMBi0ZZA так тебя никто не заставляет скучным бредом заниматься, но объективную производительность железа ты знаешь знать, или готов платить СВОИ деньги за воздух?
Так сначала они сами были за ГЕЙмеров, но потом за криптокопателей, и так туда сюда, переобуваются на воздухе, так что это нормально, тем более сами Нвидия буквально в играх тесты провели, лол
Ага, а как же тогда гоев прогревать? Если реальный прирост производительности показывать, никто новые карты покупать не будет. Инвесторы шкуру хуанга на куртку пустят. )
@@IceRockCooling Идиот у меня нет родных они уже умерли я живу одна. Я больше твоего знаю что такое жить одной.
17:15 - эта прога работает в 0.1% случаев и постоянно крашится, хз зачем вообще её сделали
У меня всё нормально было. Правда сам FG мне не нравится
Для меня NVIDIA уже синонимом RAZER стала и цвет у них один.
Наконец-то, новая серия! Неужели я наконец-то смогу купить б/у 2070 или 3060 по бюджетным ценам?!
нет)
Не бери эти обмылки, лучше 6700xt в хорошем состоянии
@@Людына_Павук3070 норм за 25 с Авито
30-я серия хрен подешевеет
Сочувствую
По такой логике, Ryzen 7 1700, благодаря божественной генерации кадров NVIDIA, становится в 4 раза лучше, а значит его можно сравнивать с Ryzen 7 9800X3D
Кто не знал, на генерацию кадров процессор никак не влияет, то есть если процессор может выдать 40 кадров, генерация кадров все равно может рисовать больше кадров
вот и раскроется потанцевал фуфыкса
Автору респект за такую жоскую аналитику, обоснованные сомнения и здравые рассуждения.
Ну если подумавть вообще нафиг нам куча немереных кадров, я вас умоляю видюхи выдающие в 2k в играх 100фпс более чем достаточно за глаза вы супер пупер человеком из за 200фпс не станите эти видюхи нужны только для монтажа видео и ИИ
Видимо для ИИ и делают теперь
Я хз зачем эти генераторы кадров, если латенси не заметно лишь от 60 кадров, чего вполне хватает для 90% игр, ведь они не соревновательные. Ну будет у вас не 60, а 180 кадров и толку?
Согласен, от увеличения цифр ничего не меняется, кроме самой картинки, увеличенная задержка реально больше приносит дискомфорта, чем эти цифры в верху экрана радости!;)
Ну при задержке от 70 фпс вполне комфортно играется в киберпук, но плавности немного не хватает. Для меня плавно от 100 фпс. Поэтому FG помогает. А вот зачем х4 сделали уже действительно не ясно.
В 60 фпс мерзотно противно играть, а в 120+ приятно плавно
@@Directx11cool Это чтобы ты в киберпуке с трассировкой пути на 5090 имел не 30-40 кадров, а 100-120 хотя-бы.
@@Protector1rk 30-40 нативных кадров неиграбельны по задержке, хоть на 100х с помощью FG умножай их.
1:50 не знаю.зачем тогда выложил свое видео?там речь о процессоре повышенной производительности Blackwell, предназначенный для технологий искусственного интеллекта (ИИ)
По приколу
У Хуанга куртка блестит прямо с трасировкой лучей и DLSS 4 😅🤣
Ахахахаха
Всё как всегда наврали. 5090 будет стоить 500круб, а не 300круб, т.к. 4090 сейчас из-за дефицита стоит 300круб, хотя она уже устарела и её все кто хотели купили, но на 5090 будет ещё больше дефицит, т.к. её никто ещё не купил. 5070 будет как 4080 в большинстве игр, а не 4090, из-за памяти и куда ядер, т.к. ДЛСС 4 будет не везде.
То что у вас такие цены Nvidia виновата?😂 ну перезжай в штаты, там по рекомендованой купишь за треть месячной зарплаты.
Только меня смущает, что у 3-х слотовой 4090 ТДП 450 Ватт, а у 2-х слотовой 5090 это значение достигает 575 Ватт?
Так это версии FE, флагманские решения от MSI или Asus будут трехслотовыми
@@__GuGuSiK__флагманские от мси 😂😂😂😂😂😂
так у них видеочип стал в 2 раза больше
Жестко конечно, когда ты сам пенек и пытаешься в рассуждение о технологиях.
А я не шарю😅 Для меня он все грамотно говорит😂 Правильно ребят, выводите на чистую воду
включай dlss когда у тебя производительности не хватает и играй в майнкрафт. только за это доплатить ещё нужно.
Окей, а вы знаете все расскажет нам пж)
@@Igor-Bond Играю в 4 к на 3090 TI без улучшалок и дроЧировки сЛучей макс или оч высокие настройки во Всех играх ( кроме уёбиЧных ) 60-90 фпс .
@@arseniygolikov1215 А зачем мне думать о каких то там псевдо кадрах или о каких-то там нативных разрешениях, если я вижу что в нативном разрешении игра идёт дёргано, не комфортно, то я всё сделаю что бы этого избежать, например включу DLSS и генерацию кадров, получив на 3-5% картинку хуже, но гораздо более плавную, чем с этим нативным разрешением?
Вот вы говорите что меня Нвидиа обработали, а кто вас тогда обработл если вы ярый фанатик натива, без всех этих мыльных сглаживаний, готовый играть с низким КДС но только в нативе?
Хуанг опять прогревает нас на деньги))00
Не только Хуан, меня даже Зяоми програла на деньги, продав мне новый Смартфон! А вот мой сосед по подъезду не прогреваемый, пользуется техникой 15-20 летней давности и копит денежки, он рассказал что уже 2 250 000 рублей накопил, когда я его угостил пивком, за свои 75 лет жизни, вот человек молодец что не прогревается на все эти маркетинги, правда плохо одно, он одинокий, сын его умер давно, жена тоже умерла!
Смотря для кого как, если кто-то реально думает что 5070 круче, и возтмет по этой причине, то тут можно по плакать. А так 5070 будет мощнее 4070 и дешевле
Хомяки действительно думают, что за 500 баксов получат 4090 it super. Не разрушаем их надежды
Проблема в том, что несознательные потребители без способности критично мыслить активно способствуют процветанию империи Хуанга и отсутствию у неё нормальных конкурентов.
разве существует такая карта?
@@odnoglazy323 Хуанг сказал что 5070 будет как 4090. Лютый пиздеж конечно
Меня в комментах на полном серьезе один чел уверял вчера, что он уже тесты посмотрел в сети 5070 vs 4090 и она типо одинаковая по производительности. Я конечно вежливо объяснил ему, что эти тесты, как и 98% сравнительных тестов железа в сети это фейки. Реальные будут только ближе к 30 января. Пытался ему объяснить, что комппния не будет торговать себе в минус выпуская карту за 500 долларов с производительностью 4090. Так наивно думать. Это не серьезно. Куда тогда продавать 4070ti, 4080 и 4090? Которых еще достаточно на скаладах. Да и по чём их продавать, если на авито по его локике 4090 полетят за меньше чем 100к. Такой фантазер. Объяснял ему, что это сравнение 5070 с мультигенератором и голая 4090. А по сухой мощи ей дотянуть бы до 4070ti. Но он непоколебим. Ждет извинений после 30 января. Это поколение потеряно.
Я помню получил за 500 баксов 2080 ti в лице 3070 и был доволен как слон,че та подумал будет тоже самое и шя
Лучи отменяем, и всё будет прекрасно. А так реальная производительность в лучшем случае возрастёт процентов на 20, и то за счёт более быстрой памяти. Как мне кажется убери они все эти тензорные ядра и RT-ядра, то производительность можно было бы поднять процентов на 40 -50, на таком же кристалле, но им надо всем подряд втюхать свои лучи, даже тем, кто никогда такого не просил.
Нвидия получает 80% прибыли от корпораций. Что нужно корпам? Нейросеть, или майнинг. А что надо ему? Больше и ядер и видеобуфер. Нужны ли им ФПС в играх? вообще нахер не впали. Понимаете куда и для кого развиваются видеокарты? ДЛСС это попытка убить 2 зайцев, заставить геймеров покупать видюхи которые по сути им не нужны и дают мало производительности.
Печально
Все равно гоев уже прогрели и цена 4090 на вторичке уже поползла вниз из-за одного только анонса 5070 :D Потому что кому нужна 4090, когда есть "такая же" 5070. Хотя 5080, которая на 600$ дешевле - реально даже не такая же, а мощнее. Короче, как бы там ни было, прогрев гоев состоялся.
Думаю пришло время для замены 3080 на 5070 ti 🤔
Нет ну тут я скажу как простой пользователь , мне главное видеть чёткую картинку и отзывчивый геймплей, если я получу 400фпс пускай дорисованный, за то отзывчивость не пострадает, я ничего не почуствую, а то что нативная мозность не растёт, меня не будет волновать
нвидиафанбоев не спасти, они реально думают что растянув как в презентации 1080п до 4к детальнее будет, есть ещё виды сглаживания и длсс это тоже сглаживание только сегодня один узнал, с такими фанатами можно и 3.5гб видеопамяти продавать 5060, всё равно не заметно.
У тебя есть идеи получше? Что можешь предложить для улучшения карт нвидиа?
@@shmpnj не покупать 4 года
чушь.
16:53 подушню: не ответа, а вопроса. ответ они сами покажут)
Никогда такого не было и вот опять. Или люди думают что компании говорят правду. Посмотрите на графики аппл, куртка учился у радужного
Расскажи про LOSSLESS SCALING 🎉🎉🎉 Это аналог DLSS 4, который работает почти на всех картах - даже на старых! Хуанг нервно курит в сторонке 😅
чушь
@vad3eng769 с чего ты взял?
@ не комментирую.
Хуанг тот еще жулик но с моей 1660ti я думаю уже пора пересаживаться.
6:50 при включенном Ray Tracing, DLSS значительно больше влияет на FPS, чем без RT, так что там может быть не 70, а даже 100
Шутите?
5090 минимум 420-450к будет в ДНС.
Это чо жадность барыг 😅😅
Цена закупки и х2 бахнут.
Я удивляюсь что кто-то РЕАЛЬНО НАДЕЯТЬСЯ ВЗЯТЬ 5070 ЗА 549$, 5070 цена минимум под 100.000₽ будет стоит, И то если не 125.000₽, Барыги цену в космос вьебут.
Правильно делают. А нечего терпеть власти
Не нравится? Езжай туда где цены рекомендованные.
2030 год: ЭйАЙ генерирует видеокарту
Хорошее видео
т.е. на видеокартах 40-й серии нас не ждут эти задержки новых технологий с добавлением 3-х кадров -- ну и хорошо, Хуанг прогревает Гоев...
Если всё так плохо, ждать нам реальные мощности ещё 2 года, можно на 40-й серии пока пересидеть, и посмотреть на видеокарты АРКИ от INTEL, Хуанг им явно фору даёт на 2 года - показать что INTEL выкатит, если АРКИ появятся с технологиями Ai это даже очень хорошо, у INTEL неплохой потенциал в области ИИ - в эту сторону смотреть нужно, и пока сидеть на 40-х видеокартах.
Единственный минус это цена. Это я как владелец карты от красных пишу. Для меня все таки цена имеет решающее значение. И будущее это апскейлы, как бы нам не хотелось. Встали мощности , "нанометры заканчиваются" нужны новые технологии.
Мощности встали и нанометры уже лет 10 ни как не закончатся. Капиталисты выжимают все соки из потребителей, козыряя своими чудо технологиями и костылями, которые были-бы не нужны, если бы изначально ускорение RTX реализовали на отдельном чипе, как это когда-то было c Phyisx. Да-да, была отдельная плата с чипом ускоряющим физикс и за него нужно было платить отдельно! А сейчас, нам даже выбора не дают. Нужен тебе RTX или нет - ты все равно за него заплатишь.
@@dofiga1309 уже даже tsmc говорит о 2 нанометрах как о чем-то сложном. Ядерных технологий тоже не предвидится и капиталисты тут не причем. Либо надо архитектуру х86 менять и все вот это допотопное что тянется еще с начала времен. Но весь готовый софт итд этого не позволит сделать. а ближайшем будущем так точно. Что касается rtx так ведь есть тензорные ядра они и выполняют роль того самого чипа как было у физикс. RTX это сложно, общитать в реал тайме или зарендерить готовое видео как в кино - это разные вещи и мощности.
точняк
@@dofiga1309не нравится? Сделай лучше!
Для меня главное генерация во FLUX, если в два раза вырастет производительность, как заявлено, то надо брать.
проблема рт нет мощностей для него
проблема длсс нельзя использовать в играх где её не внедрли сами разрабы
фрейм ген дерьмо хз как вообще можно её хоть немного хвалить
рефлекс крутая фишка но опять же нет в драйвере что бы юзать везде
И самое главное нужны мощностя а не технологии и та же видеопамять о которой все ноют нах не нужна если сам камешек не справляется, покрутите разрешение в играх и глядя на фпс посмотрите на загрузку гпу и загрузку памяти
Посыл правильный что нас дурят но люди сами хотят верить в чудеса увы(
ты откуда производительность найдёшь? АЛЁ 5070 В растре есть уже 250ватт. Без всяких лучей, длсс и прочей мишуры. Твоя 5070 упирается в возможности тепловыделения, который сейчас уже не решить. Техпроцесс тормозит своё развитие. Раньше видеокарты от улучшения нанометров и бустились, а сейчас уже нет, так как раз в 2 года TSMC выпускает новое поколение техпроцесса, которое на 20-30% энергоэффективнее предыдущего. BRUH. Каким образом ты сделаешь видеокарту производительнее нынешней 5070?
@@sanya_cev СЖО никто не отменял, а жидкий металл видимо по приколу сделали, странно говорить про упор в тепловыделение.
Мультигенератор интегрировали в драйвер. Ты упустил этот момент в презентации. Больше ничего не нужно интегрировать.
@@home_bt8218 наверное можно сделать монстр-видюху с потреблением > 1 кВт и стоимостью в $дохреналлион, вопрос кто себе такое в домашний ПК купит, 1.5 энтузиаста?
И где эту производительность реализовать, если игры разрабатывают под консоли в первую очередь?
@@home_bt8218 ой вода такая надёжная, а жидкий металл надёжнейшая вещь. Воистину. Мы же видеокарты покупаем на три года. А через 3 года пусть хоть спаяется.
Проблема даже не в охлаждении, а в потреблении как таковом. Увеличиваются радиаторы и прогары и увеличиваются требования к блокам питания, что не норма. Я не собираюсь сидеть и играть в игры на пк, который в игрушках кушает 1 кВт
реальный прирост на натуральную работу 20-30 процентов. Дальше генерация . Кому то это нужно , кого это устраивает . Это тоже вычислительный блок и входит в стоимость . Зачем говорит что кто то кого то обманывает. Нет . Нравится , нужно берешь, не нужно не нравится , не берешь. Ждем там чего то двльше. А дальше только так , вообще были заявки , что по техпроцессу уже больших приростов ждать не стоит. Сам Хуанг заявлял , что все ..... ) Увлечение мощности только за счет увлечения самих процессоров ). Так что товар годный , плохо , что , фантик банановой республики подводить , а так прямо , чи не деньги )))). Ну и вставлю свои пять копеек , я за native , И даже на 4070 super видно как натив лучше генерации . Хотя она и дает хороший прирост . И не кто не кого не когда не обманывал. Просто тут нужно понять за что ты отдаешь деньги. Не нравится , сам вообще седлай себе , что тебе там надо ......
Реально, реально
ты нипанимаишь, нитянет киберпук в 4к, нитяниииит, обманулиииии
Отлично, очень рад что инженеры нвидиа дали тебе все инсайды. Чем твой контент отличается от говорящих голов с ТВ или экстрасенсов? Просто мусор. Стоит дождаться конца января и посмотреть на голую производительность и затем на сравнение с использованием алгоритмов генерации и dlss. Когда много лет назад вышел первый длсс и фср все так же с пеной у рта доказывали что все это ФЕЙК и лаги! Но по факту сейчас всем уже ясно что длсс и рефлекс работает и то что он дает на голову выше чем все ожидали.
Я Хуанг
3070 до сих пор актуальна, в 2К вывозит всё, что мне нужно. 5000 серия не зашла, а из 4000 - понравилась только 4070 ti super
Игры из 2012 - 15 года?
@effgeffer761 вообще-то карточка вышла в 20-х годах, и на момент выхода тянула всё на ультра в 2К, ну кроме АРК, там фпс скакал 30-40, но на высоких настройках 70-75 без проблем. Я и другие игры тех лет прошёл с удовольствием, никаких лагов. А сейчас главное новые драйвера не устанавливать, оставаться на дровах 2022 года. Сейчас она и новый АРК тянет в средне-высоких настройках в 65-75 фпс. Более оптимизированеые игры вообще на ура идут. Смысл её менять только после перехода на 4К. Хотя откуда вам знать о моем опыте с видеокартами, ведь начинал я ещё с 64-мб видеопямати с компьютером Intel - 2, когда большинства из смотрящий это видео ещё и в планах не было 😁
8 Гб??? Что там вывозит в 2к? Поверю если в fhd, так как у самого 3060ti. Но 8гб сейчас уже для fhd не хватает (indiana jones and the great circle)
@RD_tech2185 я не играл в эти игры, что ты написал, они мне не интересны, это проходные игрухи. Там и оптимизации никакой, вот тебе и не хватает 8гб. Но то, что эти 8 гб забиты под завязку в некоторых играх - это так. У меня была 3060 ti, я её в майнинг потом отправил, а после продал. 3070 всё же помощнее как-никак.
@thinkwithyourhead140 так оптимизации ни тогда не было, ни сейчас. А Нвидия продолжает кормить 8 гигами гоев
Процессоры и видеокарты достигли своего предела. Пока не произойдет переход на чиплеты с быстрой связью нас будут дурить
12:17 а вот не такой же будет инпут лаг, а больше
сами Nvidia заявляли, что инпут лаг такой же, если включен DLSS Quality + Nvidia Reflex
это как два энергетике тестировать на спортсменах, при том, что один спортсмен в обуви, а другой босиком
нужно сравнивать, когда оба спортсмена в обуви))
Да, там в конце видео видно импут лаг настоящий
Я честно не понимаю проблему.
Сам пробовал DLSS и генерацию кадров, не понимаю почему +- всем не по нраву эта технология. В чём проблема, что половина кадров не настоящая, если это выглядит лучше, чем мало нативных? Да, соглашусь, что сгенерированные кадры иногда или даже часто могут быть искажёнными, рваными в качестве. Но глаз через пару минут привыкает к этому, и эти "фальшивые" кадры выглядят с нативными лучше, чем чистый натив.
По поводу Super Sampling-а тоже не понимаю. Да, конечно, иногда сложные в понимании места на изображении для ИИ модели могут искажаться и быть неестественными, но опять же уходим в человеческий фактор того, что глаз привыкает, и таких проблем не замечает.
Подведу итог высказываний.
DLSS желателен при игре с трассировкой лучей/путей для облегчения вычислений видео ускорителя, и отлично с этим справляется, создавая плавную картинку, ценой искажениями изображения. Но что же лучше? Любоваться логичной, но слегка искажённой графикой, или попытками её повторить такими методами как Screen Space, VXGI и т.п?
Лично в моём вкусе будет первое, потому что разницу между нативом и "фальшивкой" не замечаю спустя время.
Я могу согласится, что выбор это дело каждого, многие хотят честное изображение без артефактов, а некоторые готовы немного жертвовать качеством, но получать логичную картинку.
Я понял проблему, многие люди платят много своих денег, но не получают требуемого ими результата за такие большие деньги. Ругают за это компанию, однако, если посмотреть с лица компании, то основная задача компании в бизнесе. Nvidia отлично делает вычислители для сложных вычислений, что многое время подходило для графики в видеоиграх, из за чего они и делают видеокарты. Но также оказалось, что особенности архитектуры GPU подходит для вычислений ИИ. Многие компании заинтересовались в разработке ИИ, и также оказалось, что Nvidia может предложить чуть ли не лучшее решение для этого.
Поэтому Nvidia посмотрела в сторону ИИ, но стараются не забыть про игроков, и пытаются внедрить их технологии в видеокарты, из за чего люди и не получают нужных вычислительных мощностей. Получают значительные улучшения в ИИ, и эти улучшения стоят денег, но людям не нужен ИИ.
Я, кажется окончательно понял, почему многие ругают новые видеокарты и компанию. Если я не прав, то, пожалуйста, поправьте меня.
Букв много, читать не буду. Спасибо за комментарий!
да почему обмануть? выпустили новую технологию, которая умножает ФПС ещё в 4 раза. В чем проблема? Ну не хотите, не включайте! Берите радеоны и успокойтесь уже. Дайте людям, которые хотят эти +4 кадра, купить и воспользоваться. Что ж вы так за этих людей переживаете.
Переживаю за всех
@@rikoshetdark поиграй с генерацией хоть раз, а потом уже делай вывод - переживать или нет. Предлагаю запустить Ratchet & Clank с генерацией и DLSS-качеством в QHD. да, 7\8 фейковых пикселей или как там говорят, только картинка настолько умопомрачительная, безартефактная и плавная, что будешь переживать за тех, кто всё это включить не может.
Ничего появятся моды и dlss 4 можно будет запускать на 40-ой серии.
Нет
он и так доступен на всех ртх картах, одноклеточное животное
@@user_Antonio что нет? Если длсс 3 можно тупо скачать на 20 и 30 линейке, то и с длсс 4 такое будет.
А зачем? Ну если тольько прям совсем оптимизацию прекратят😂 Но из одного кадра 4 мне не очень хочется🤣
@@Clearheaded-t5w так они и так доступны)))
14:05 с первого кадра идет быстрый апскей а потом улучшайзер, без апскейла, чтоб исключить задержку.
Презентацией Хуанг доказал что Видеокарты уперлись в свой лимит, Чип они уже лучше не смогут создать, Максимум что они могут сделать, Это улучшать технологию DLSS, Хотя фреймрейт просто пиздец.......
Просто заплатить за очередной DLSS проще чем инженерам, да еще и цену можно в небеса поднять за "супер пупер технологии генерации кадров", X2 прибыль.
По сути нам нужны реальные кадры без рейтрейсинга было бы интереснее посмотреть на 5090/4090 в чистом сравнении без дегенераторов и рея
Хорошее видео. Годная аналитика. Удачи автору
Ты ошибся в слове "глубокая"
Не увидел аналитики.одно только "не знаю".не знаешь,посмотри презентацию на русском
@@stanislavsky85 Абоба
Не,ну если это чисто с длсс 4 такой прирост тогда ладно,но если это считается при включенном FG-это убого.
Я пару раз включал эту frame generation,так там мало того что задержка чувствуется очень сильно так еще и при движение картинка размазывается жестко.Но вот чисто длсс 3.5 без fg мне нравится,картинка четкая на 2к монике при настройке «качество»
5060 ьудет 2 версии карточек,одна ьудет на 8,другая на 12 гб и это первые варианты изначально были,так они её хотели сначала сделать,16 я думаю мало вероятно дадут для 5060,это же куртка.Вспомните песенку пласмасовый ☮️ я предпологаю вы сами все поймёте
8гб даст 5060. куртка жадный на память
@@СТАРОВЕРСИБИРОВ но на 12 гб всё таки будет 100%
@@Special6996 ЗРЯ Я ТОГДА КУПИЛ 4060 ЗА 27 К)))
@@Special6996 12 гб прямо щедро
@@СТАРОВЕРСИБИРОВ иначе это не нужно не кому, а 12 это будет не туда не сюда. Но она найдёт своего потребителя, песня повторяется.
мелким шрифтом текст на слайдах: 4000 серия с точностью FP8, 5000 - FP4 😂
Наверное потому что 40-ая серия не умеет в fp4. Тебе это не приходило в голову? 🤦
@ а 5000 в fp8 😂
@@Chidorinа какой смысл сравнивать устройства , когда для 5090 появился новый тип вычислений?
Итак ясно, что по голой производительности прирост будет процентов 30.
@@F3odorгений, в чем тогда проблема запустить 5000 тоже в фп8?
@@tyyyTyyy-ld7ry наверное проблема в маркетинге? Ты сам как думаешь?
Но видимо тебе не понятно, что такое прогресс.
Объясню на другом примере. Есть ДВС (двигатели внутреннего сгорания), и одна и та же модель ДВС может не меняться годами и десятилетиями, но его мощность будут увеличивать за счёт смены системы впрыска, облегчения шатунов, поршней или установки турбины. И всё это будут новым подходом или новыми технологиями.
Ты же не будешь кричать, что создатели двигателей шарлатаны? То же самое и здесь, появилась новая модель вычислений, которая работает только на 5090, вот эту карту и сравнивают. Умные люди и так поймут, что в тестах с fp8 двукратного прироста не будет.
А в блендере и других прогах Куртка Хуанг нарисует мне производительность при рендере 8к сцены на своем ДИЭЛ'ASS 4? Тогда беру амуде, там хоть память есть, которую могу без остатка на рендер кинуть
Читал сравнение видюх в блендере, там 7900 XTX слил допотопной 3080 в 2 раза почти, то есть это уровень плюс-минус 3060...
Да и в целом брать карты АМД для работы... вы там держитесь, удачи 😁
@@nitroexpress9928 что еще остается, rtx titan за 100к? Видел какую-то видеокарту от нвидиа за 20к для работы, но до покупки еще руки не дошли)
Единственное что может спасти бюджетный рынок - это AMD и Intel.
Значит уже ничего не может.
@Dagon_44 😄
Купил XFX RX 7900 XTX и не жалею. Съэкономил более 600 долларов. СТАЛКЕР 2 на мониторе 32:9 разрешением 5120 х 1440 с FSR на качество даёт 80 FPS. NVIDIA с ее маркетингом пусть идёт лесом
Нвидиа идет лесом, а аппаратный фср4 завозят амд) Смейтесь дальше
Как можно расказывать о том что ещё в руках не держали!? Каждый выход видеокарт одна и таже песня у блогеров как нас обманывают какие карты плохие и тд, как только в продаже появляется новая линейка карт вы начинаете их облизывать какие они класные....
ну с 4060 они обосрались , так же обосрались с неймингом дискреток в ноутах , когда у тебя 4070 по сути 4060ti
@КириллМолчанов-з6з это не они обосралась, а надо характеристики смотреть внимательнее. Я не защищаю Хуанга, просто задолбало о том что я написал выше!
@@ДмитрийФомин-я5й как раз таки обосрались, раньше дискретки соотвествовали неймингу, сейчас же под видом 4070 продают гораздо хуже видеокарту, но ценник как за полноценную 4070
@КириллМолчанов-з6з ну так то и цены с тех времён выросли и под видом литровый бутылки молока продают 900 мл!;)
@ДмитрийФомин-я5й при чем тут цены выросли, ты вообще понять не можешь о чем речь? Тебе бл под видом 4070 продают 4060 ti , вот ток цена не за 4060 а за 4070 ты платишь, это тоже самое что ты видяху декстопную возьмёшь 4070 а в коробке будет 4060
Это когда для тебя RX580 производительность черезмерна, ставлю даунклок 40ват 404мгц. Думаю вовсе купить 4700u.
Не умеешь -не берись..
Да. Хуанг, перестань
Сижу, гадаю где я включил тему боя tales of arise.
Ахахахаха
Попробуйте тульские микрофоны "Октава". В них американские мега звёзды писали свои альбомы
Могу позволить себе только тульский пряник
спасибо за полезную информацию !
Спасибо за комментарий!
Автор гонит вообще) Показывает, где высокие цены, это цены на ноутбуки с ртихксом_))))))
Нет, цены на видеокарты
кадры они от природы не настоящие поэтому не важно как их получать надо брать
Угу, согласен, кадры, герцы это всё условно, главное как будет картинка идти в игре, чем плавнее тем лучше, а новый DLSS 4 это позволит сделать!
@@Igor-Bond картинка будет плавно идти, а вот какая это картинка будет - это уже вопрос. когда у тебя 3 кадра из 4 взяты из ниоткуда - будет мыло
@@PAWNERinc Ну в Нвидиа не слепые инженеры и программисты работают, и они видели как и что будет, да и прошлый опыт у них имеется с первой версией DLSS, которая сильно отличается от последней в пользу лучшего качества. И почему вы считаете что эти 3 кадра берутся из неоткуда, их так же рисует видеокарта, как и те что рисует ЦП. Я вообще считаю что в будущем в игровых устройствах, будет маленький чип связывающий периферийные устройства с видеокартой, а всё остальное будет делать видеокарта, то есть всем будет заниматься только одно устройство, сейчас называемое видеокартой!
@@Igor-Bond Количество кадров не является показателем плавности в играх. Толку от ваших 100 кадров, если реальный инпут лаг будет от 27.
@@Igor-Bond Как раз таки кадры берутся из ниоткуда. Иди кури мат часть по тому, как графический конвеер работает, прежде чем свою чушь писать🤡
"рефлекс 2 игнорирует нам то, что делает видеокарта.." - автор хотя бы понимает, что он вообще говорит?
Нет
А что не понятного, мыльной картинки на DLSS 2. Этот пример относительно честный. DLSS 3 принес не только генерацию кадров, но и улучшение четкости и больше деталей. Радует, что ещё более детализированный и менее "артефачный" DLSS 4 доступен и на картах предыдущих поколений. А 3* 4* FG пусть себе оставят. Не использую даже 2х. Остальные тем более не нужны.
Я вот не совсем понял такой момент. Зеленые показали таблицу доступности новых приблуд из DLSS 4.0 для всех поколений. И вот для 4000 серии стоит галочка на FGx2 с комментарием: улучшена производительность и снижено потребление памяти. Новый апскейлер уже доступен всем поколениям, правда почему то beta. Еще RT реконстракшен везде доступен будет. Один вопрос, когда?
Странно
это уже реальные цены. сам посчитай. цена указана для сша без ндс. добавь ндс 20%, растаможку 10% и НАШ ндс 20%. а ещё надо потратиться на логистику + за конвертацию валют 5%, на гарантию 2-3% и ещё нужно что-то заработать, иначе зачем это всё
Если не дороже ещё)
Я как обладатель rtx 4080 очень жду завтрашнего обновления Lossless Scaling. С этой прогой комфортнее играется в неоптимизированные игры Stalker 2 и Indiana Jones and the Great Circle. Не понятно вообще для чего покупал такое железо, если современные игры без костылей не тянет
Планирую сделать обзор на обновленный LS
Блин я думал у меня звуковуха поплыла пока играл tales of arise а тут чел на фоне врубил ост - спс за инфаркт х)))))))
)))
Честно, всю жизнь сидел на зеленых и красные даже не рассматривал. Но DLSS в современных играх такая шляпа, что пипец. Во многих играх просто отключаешь что бы мыло убрать. Где то читал, что все это мыло началось с ТАА сглаживания. И что бы DLSS что то адекватное показал, то нужна во первых игра с правильно рабочим DLSS, а во вторых в идеале 4К разрешение.
Решил, что следующую сборку буду пробовать делать только на красных.
Меняй DLSS на FSR - тебе понравится
@@Dagon_44 😂
без этого "мыла" у тебя вообще картинка развалится по частям. Сейчас почти все эффекты начиная от теней с волосами, заканчивая PBR материалами и глобальным освещением работают только благодаря темпоральному сглаживанию. Если его отключить, у тебя картинка в одно большое мерцающее месиво превратится
@@erikamelsbach2270 ахенею несете. Много есть игр, где картинка без dlss лучше в нативе, так же мои знакомые отключают этот костыль.
Возможно во многих играх dlss кривое.
Вообще, учитывая, что dlss что то там делает с разрешением и подрисовывает кадры, то не удивлюсь, если это все адекватно настроено только для 4К разрешения. И чем меньше разрешение, тем хуже мыло.
Кстати, в старых играх без "мыла" отлично играется.
@@PupkinDetochkin И до этого было - чем ниже разрешение тем хуже картинка, почему ты решил что с использованием DLSS должно быть по другому
Хотим мы того или нет, но от технологий никуда не деться. Раньше вместо "честной" попиксельной обработки изображения придумали шейдеры, теперь DLSS кадры рисует... Опять же игроделы будут чем дальше, там больше на эту технологию полагаться и тем, кто ею не будет по каким-то соображениям пользоваться будет очень печально играть из-за отсутствия оптимизации.
Ну если нормально будет работать, то норм
А plague tale requiem дословно читается как "Э ПЛЭГ Тэйл Рэквием" что в переводе значит примерное "Чумной рассказ: реквием"
а я думал Чумная сказка: реквием
К сожалению, игра была на английском
11:35 звиздец, они втупую выкрутили ползунки шарпенинг фильтра вправо.
Походу
почему фон музыка из tales of arise xDD
Ну годноту надо вставлять)
включение генератора в 2 раза задержкусразу увеличивает лул)
Все это не имеет смысла, 20 фпс будет в таркове в любом случае, потому что буянов
В 50 серии куда больше нововедений, чем длсс4. И есть поддержка пока еще тестовых технологий
речь идет про кслатеризацию меша, нейроматериаллы, улучшенную обработку грума, длсс на текстурах (из того что я знаю)
Да и сама архитектура довольно сильно отличается, и да, упор был сделан как раз в обработку нейронок
Если игра идет в трушные 60+ кадров 1080p
То сильно заметных проблем с апскейлом в 4к и генератором кадров не должно быть, как и с задержкой.
Это ведь круто, когда твоя катра позволяет играть в 60 кадров и видеть плавную и более четкую катринку в сравнении с тем что может твой пк.
Да и сам по сбе ДЛСС (в режиме качесво) выдает более правильную картинку в сравнении с растеризацией
а проблемы со всем зверинцем под капотом начинаются когда разшение не очень и фпс заканчивается.
Но вот только проблема в том, что студии увидят эти самые 240 фпс и пойдут пилить игры с еще более плохой оптимизацией)
чтобы это все шло в дай бог 60 фпс 4к со всеми дорисовками
Еще и продажники нвидиа намеренно вводят в заблуждение, рисуя из нейросетей что-то фантастическое, своими сказками и нечестными сравнениями
@@onii3530 ну вот технологии хорошие, а маркетинг буквально обманывает с 5070 = 4090