Тест RTX4090 VS RTX3090 в играх и рабочих задачах.

Поделиться
HTML-код
  • Опубликовано: 28 июн 2024
  • Группа вконтакте с новостями и оповещениями - ruhardware
    Официальный сервис центр канала - rhwservice
    Наш телеграм - t.me/rhwchat
    Тестовый конфиг:
    Процессор - intel i9-12900K
    СЖО - ASUS ROG RUIJIN 360 II
    Материнка - ASUS ROG STRIX Z690-F Gaming Wi-Fi
    Память - G.Skill Trident Z5 RGB @6400Mhz CL32-38-38-38-80
    SSD - 2Tb Samsung 980 PRO
    Видеокарта №1 - Palit RTX4090 Gamerock Midnight Kaleidoscope
    Видеокарта №2 - Palit RTX3090 Gaming PRO
    Корпус - Fractal Design Meshify 2
    Блок питания - 1000W Deepcool PQ1000M
    Монитор - AOC U2790PQU 3840x2160 60Hz IPS ( ну, такое себе )
    Тестирование проводилось через rivatuner встроенный в MSI Afterburner, сами тесты делались без записи экрана, после проводилась запись через Nvidia shadowplay уже без фиксирования среднего FPS, а так же 1% и 0.1%. Соответственно результаты в диаграммах это то, что Вы увидели бы у себя в системе.
    #rtx4090 #rtx4090fps
    00:00 - Вступление
    00:44 - Про чипы AD102
    00:58 - Про DLSS 3
    01:58 - Про Palit RTX4090 Gamerock
    02:40 - Проблема нового разъема Nvidia
    03:13 - Продолжение про Palit RTX4090
    04:28 - Founders vs gamerock RTX4090
    05:45 - Температуры GPU и памяти
    06:41 - Разъемы DP1.4a и HDMI2.1a
    07:46 - Тестовая платформа
    09:09 - Тест Adobe premiere
    09:42 - Тест Octanebench
    10:08 - Тест Blender
    10:52 - Тест Cyberpunk 2077
    13:00 - Тест A Plague Tale: Requiem
    13:54 - Тест Shadow Of The Tomb Raider
    14:37 - Тест Assassin's Creed: Valhalla
    14:50 - Тест Red Dead Redemption 2
    15:28 - Заключение
  • НаукаНаука

Комментарии • 194

  • @RHW
    @RHW  Год назад +26

    Как все таки лучше делать видео - с закадровой музыкой, или как здесь, без нее?

    • @kapitan_kakao3696
      @kapitan_kakao3696 Год назад +5

      С лёгкой закадровой музыкой было лучше, как по мне.

    • @user-re6uu6oo3b
      @user-re6uu6oo3b Год назад +13

      нет, это мешает восприятию серьезной информации

    • @KZ-bb6qr
      @KZ-bb6qr Год назад +2

      Хорошая музыка чуть слышно когда это классно!!’

    • @Ko6pa
      @Ko6pa Год назад +4

      Для какого-нибудь заурядного недообзорщика она стала бы прекрасным наполнением, но у тебя и так все отлично с удержанием аудитории, как минимум в моем лице ) А ели что-нибудь и ставить, то спокойное и тиииихо-тихо фоном ;)

    • @LA_USA
      @LA_USA Год назад +5

      без нее лучше

  • @Ko6pa
    @Ko6pa Год назад +7

    Гош, очень понравилась подача! Просто класс, спасибо 🔥

  • @fx8052
    @fx8052 Год назад +12

    Такой прирост, при сохранение примерно одинакового потребления, действительно впечатляет

  • @Bac.Bac.
    @Bac.Bac. Год назад +4

    Хорошо постарался, очень интересная подача , молоток 👍🏻

  • @TheRockProfessor
    @TheRockProfessor Год назад +15

    Отличный ролик спасибо! Сижу в 4k с 2019 года и меняю карты каждое поколение, 4090 теперь в приоритете к покупке, но дождусь современных блоков питания

    • @cfif_asd
      @cfif_asd Год назад +1

      Киловатничков ждешь, иолодец, можно на отоплении будет экономить

  • @Spirit2k2000
    @Spirit2k2000 Год назад +10

    Гигантская работа проделана,Георгий. Топ-контент! Картинка шикарная. Спасибо за предоставленную инфу!

  • @vexrek3037
    @vexrek3037 Год назад +4

    Классное видео! Спасибо!

  • @kapitan_kakao3696
    @kapitan_kakao3696 Год назад +1

    Спасибо за контент!

  • @user-ed8su3ry6w
    @user-ed8su3ry6w Год назад +3

    Отличный обзор👍

  • @marmon21412
    @marmon21412 Год назад +11

    Аудитория сказала Вау ! - и продолжила ждать 4060. ))

  • @SleepingValik.
    @SleepingValik. Год назад

    Здравствуйте подскажите. У меня такой же блок питания как у Вас в тесте. Подскажите нужно ли менять на другой? Или его будет достаточно

  • @ekubalk96
    @ekubalk96 Год назад +11

    Про плавность это кстати хорошо сказано.
    Но тут нужен нюанс ещё сверху.
    Эта плавность должна быть создана не только благодаря фокусам длсс-но и без них, чистой мощностью карты.
    И вот с этим-уже наконец лучше.
    Но это стоит с другой стороны просто неадекватно.
    Либо только когда комп у тебя работает и ты делаешь на этом впечатляющий доход-либо когда ты мажор и хочешь себе позволить полный фарш
    Иначе-мы упираемся в момент что "4к есть-но оно безальтернативно требует под себя только самый жир, что несовместимо с массовым потребителем"

    • @Revan83
      @Revan83 Год назад +1

      С другой стороны, стоимость такая же, как у какого-нибудь Iphone 14 Pro Max. А его покупают очень многие, пусть и в кредит. Да еще и меняют каждые 2 года... не мажоры, а обычные люди, вынужденные ездить в метро.

    • @ekubalk96
      @ekubalk96 Год назад

      @@Revan83 Это уже к вопросу о понтах

    • @Revan83
      @Revan83 Год назад

      @@ekubalk96 ну не без этого. Но некоторым просто реально хочется иметь такую вещь. Хоть это и не рационально. Однако, если себе в этом отказывать - то зачем вообще это всё...

  • @user-sv6dy8pk2q
    @user-sv6dy8pk2q Год назад +2

    Отличный обзор.

  • @leto2922
    @leto2922 Год назад

    Как же тебя приятно слушать , жаль раньше канал не попадался

  • @wanderer9540
    @wanderer9540 Год назад +5

    Недавно перешёл с 1366x768 на 1920x1080 монитор ,да плюс ещё и заменил старый i3 на i5 .
    Стало комфортно сидеть за монитором и играть в игры .
    Но до современной платформе мне ещё далеко )
    Лайк поставил !

    • @konio_misterio
      @konio_misterio Год назад +2

      1080р на самом деле более, чем хватает в наше время.

  • @redstahli6569
    @redstahli6569 Год назад +4

    чисто кайф смотреть эти тесты,купив месяц назад 3080 🙃

  • @ek2who
    @ek2who Год назад +3

    Этот GPU превзошел по впечатлениям 1080Ti. Обожаю все в 4090 кроме неподготовленного к новому разъему рынка. Повезло дважды - купил дешевле 120 тысяч и получил чип с возможностью андервольта на 2850 Mhz 985 mV

  • @zolotoe-tv
    @zolotoe-tv Год назад

    Привет, а радеон RX 7900 XTX вроде тоже не плох

  • @SleepingValik.
    @SleepingValik. Год назад

    Подскажите переходник который был с видео картой он на три провода?

    • @RHW
      @RHW  Год назад

      Да

  • @mr.stasichevsky
    @mr.stasichevsky Год назад +5

    2560х1440р это мой выбор, хотя сейчас просто спокоен, что человечество открыло дверь в игры в 4к. Олтличный обзор и тесты.

  • @NEM0108
    @NEM0108 Год назад +2

    вот это рывок 👍

  • @user-hy5dl2ii4z
    @user-hy5dl2ii4z Год назад +2

    Есть ли категорические различия в том, что в обычной версии 3х8 коннектора, а в ОС четыре ?

    • @RHW
      @RHW  Год назад +2

      Неизвестно, пока ведутся бетатесты :)

    • @user-hy5dl2ii4z
      @user-hy5dl2ii4z Год назад +1

      @@RHW в днс вообще на фото комплектаций 4 в обеих версиях, а переплаты там пару тысяч.

  • @Ellenroots
    @Ellenroots Год назад +2

    мне кажется бонусом было бы интересно прогнать тесты на 4090 в 8К, сравнивая с самой собой в 4К

    • @RHW
      @RHW  Год назад +2

      Не :) Рано еще 8К, ооочень рано!

  • @BorZZenkoff
    @BorZZenkoff Год назад +1

    ПРивет!!!!!! я у тебя как-то купил отличный корпус CoolerMaster h500p, с наклейками от хайперов, топ корпус и ценна топ!!! подписан на тебя, делаешь хороший годный контент!!!) купил недавно aurus 4090 waterforce extreme, на авито за 130к!!!))))) новую)))) очень доволен картой, абсолютно согласен с тобой))) 4к народу, наконецто заработало!!!)))

  • @legion1373
    @legion1373 Год назад +5

    4090 просто божественная карта для 2К в нативе с лучами везде и моником 165Гц.

  • @GGRA444
    @GGRA444 Год назад

    БП хватает этого?

  • @nimeotaku8828
    @nimeotaku8828 Год назад +2

    Много кажется, то что в одной не самой оптимизированной игре 4K и 240+ FPS нет, это ещё далеко не значит что время 4К ещё не пришло.

  • @Revan83
    @Revan83 Год назад +2

    Вчера сменил свою GameRock Omniblack 4080 на GameRock OC 4090. Разница ощутима, плавность на уровень выше. В том же The Last of Us 2 просадки исчезли в принципе, и это без DLSS, а на 4080 он был включен! Зря я изначально решил сэкономить и брал 4080, но так появилась возможность сравнить на своём опыте. Проц - 13900k.

    • @RHW
      @RHW  Год назад +2

      В вопросах железа есть один подход - брать надо максимум который можешь себе позволить, никаких запасов и чрезмерности в железе нет :)

  • @makson-shumaher
    @makson-shumaher Год назад

    Привет. Брать 3070 для full hd или qhd?

    • @He_oH
      @He_oH Год назад

      если 60 герц то любой, если выше то только 1080

  • @johnnyslimkms
    @johnnyslimkms Год назад +1

    Подскажите пожалуйста, разве hdmi 2.1a не способен выдавать более 144гц в 4к?

    • @RHW
      @RHW  Год назад +1

      Без сжатия нет

    • @johnnyslimkms
      @johnnyslimkms Год назад

      @@RHW спасибо, выходит такой монитор как neo g8 4k 240hz вероятно будет артефачить

  • @movementlife9415
    @movementlife9415 Год назад +5

    Ждём 5090 ))
    Хотя я думаю после 1080ti брать 4070 она пишут будет в районе 3090-3090ti и это всё для 1920x1080 :D
    Тесты явно нужны с 13900KS

    • @He_oH
      @He_oH Год назад

      уже придумали чем охладить такой проц?

    • @movementlife9415
      @movementlife9415 Год назад

      @@He_oH пусть производители думают.

  • @kosmonaft81
    @kosmonaft81 Год назад +2

    На 3:50 Вы измеряете линейкой длину видеокарты , у вас как то получилось 294 мм.....Ее же длина 329 мм, о чем сами и говорите

    • @RHW
      @RHW  Год назад +1

      Мы измеряли не длину видеокарты, а показывали остаточное расстояние от видеокарты до радиатора СЖО. Можно было бы сделать очевиднее - перевернуть линейку и показывать от 0см, но тогда бы все было перевернуто.

    • @kosmonaft81
      @kosmonaft81 Год назад

      @@RHW ясно))

  • @punisher13rus
    @punisher13rus Год назад +1

    а что мешало оставить 3х8 пиновых разъема на карте, начерта городитье непонятный разъем и переходник к нему

  • @z7il167
    @z7il167 Год назад +1

    Я не понял почему вы решили что упирает в CPU в QHD разрешении? Видно что проц не загружен выше 50% даже. А то что видеокарта не загружена не на 100 это не говорит что проц не успевает.. Или я что-то не понимаю?

    • @RHW
      @RHW  Год назад +4

      Процессору не обязательно доходить до 100%, так как вопрос не в нагрузке на ядро, а в типе нагрузки ( задаче ), задач у процессора может быть огромное множество и они бывают разные по сложности + могут использовать разные блоки. Допустим пришла задача которая использует FPU и ALU, но ALU меньше, на FPU больше, показывает 60% загрузки ядра, а на деле блок ALU не успевает за FPU, вот и видим недонагрузку, но просадку GPU. Определять надо всегда по недогрузу - если недогружен процессор, то должна быть нагружена карта, если карта не нагружена, то не успевает проц. В общем как обычно все не сводится к простым процентикам.

  • @pavlic_alex
    @pavlic_alex Год назад +4

    Ламповое... Спс. Гоша- зе бест! 4090 - гарбуз.

  • @SHtein11
    @SHtein11 Год назад +8

    Ждем выхода новых игры которые задушат даже 4090Ti

    • @Ko6pa
      @Ko6pa Год назад +6

      А чего тем выходить, разработчики просто переходят в режим "отключаем оптимизацию к херам", чисто на чиле, на расслабоне... ))) Гошан, спс за годноту, аддуши 🔥

    • @Zero_3_lord
      @Zero_3_lord Год назад

      Жду только и делают, что ждут))))

  • @fnf5707
    @fnf5707 Год назад +1

    Подскажите пожалуйста вся это сборка, только корпус Fractal Design MESHIFY 2 COMPACT влезит???

    • @RHW
      @RHW  Год назад

      Нет конечно :)

  • @KhabarovskTB
    @KhabarovskTB Год назад +3

    Я понял), Гоша это Биг Босс а Тема это Пимп.)

    • @RHW
      @RHW  Год назад

      Не совсем :) Обрати внимание на фон за ними :)

  • @Ready2Game
    @Ready2Game Год назад +1

    Плаг Тейл в некоторых сценах просаживает фпс до 20-40 даже на 4090 в 2к :D оптимизацию не завезли)

  • @BUKTOP.
    @BUKTOP. Год назад +1

    Выпускают новинки а под новинки железок нет....

  • @engineer.s
    @engineer.s Год назад

    Я давным давно перешёл на 4К банально из за чёткости шрифтов. Ну и если например в Баттл рояль играть то лучше врагов в далеке видно

  • @SHtein11
    @SHtein11 Год назад +6

    Самое обидное купил бп хороший с запасом по мощности. Вдруг соберёшься систему пересобрать. А тут все железо стало потреблять мощность как не в себя. Такими темпами скоро бп в 1,5 киловатта покупать придётся.

  • @dimkashevchenko8976
    @dimkashevchenko8976 4 месяца назад +1

    Хороший ролик, чувствуется личный вклад автора, а не просто реклама. Сам я на 4080 сижу. По мне 4090 слишком дорогая и избыточная для 90% геймеров.

    • @RHW
      @RHW  4 месяца назад +1

      Так это и не реклама, железка клиента :)

    • @dimkashevchenko8976
      @dimkashevchenko8976 4 месяца назад

      @@RHW по мне большая часть техноблогеров скорее рекламируют железку. Просто впечатления от ролика.

  • @user-pf3mf6vz7e
    @user-pf3mf6vz7e Год назад +2

    Музло в видосе никчему а так качественный ролик мое мнение

  • @user-rq4cp8rc1m
    @user-rq4cp8rc1m Год назад

    Гоша я всё понимаю что Тарков для тебя ну такое, но хотелось бы видеть тесты железа в этом проекте

  • @monstromen6348
    @monstromen6348 Год назад +2

    Наконец то норм охлад сделали, единая площадка с чипом и памятью. А то в 3070ti какой-то ужас был с охлаждением,70 градусов в простое и за 90 в нагрузке на памяти.

    • @GANDO_X
      @GANDO_X Год назад +2

      брак по ходу, у меня 3090ti в простое 30-35 в нагрузке 68-70. Память греется до 70 не выше. ХЗ че у тебя за замануха.

    • @monstromen6348
      @monstromen6348 Год назад +1

      @@GANDO_X это не брак, это особенность именно этой модели(3070ti геймрок). Взял на радостях по вкусной цене ,в замен 5700xt и прифигел от температур. Начал гуглить , оказалось что у всех проблемы с этой картой.

    • @RHW
      @RHW  Год назад +1

      GDDR6X память первого поколения способна работать при температурах свыше 100 градусов и при этом она более горячая чем GDDR6 и остальная видеопамять. 90 градусов в нагрузке для GDDR6X это не страшно совсем. Вы когда циферки узнать пытаетесь узнавайте заодно и диапазон допустимых температур, а то кота заведете и понесете его в больницу думая что у него высокая температура, раз она выше 36.6

    • @monstromen6348
      @monstromen6348 Год назад

      @@RHW Да я знаю про диапазон температур работы памяти DDR6X, я техподдержку палита писал и там заверяли что с картой все норм, так и должно быть. На тот момент меня напрягло и через неделю пользования продал и и взял 6700xt RED DEVIL теперь горя не знаю (не считая глючных дров периодически)выше 60 градусов по памяти не видел , не в играх ни в маининге.

  • @evgenyskokov3090
    @evgenyskokov3090 Год назад

    Шумная бестия :))) эта палит

  • @gdgames9585
    @gdgames9585 Год назад +1

    Ждём Crysis 4 :D

  • @ssserega2976
    @ssserega2976 Год назад

    я вот сколько тестов и т.д. смотрю 40-го поколения, но так и не увидел во всех этих видео тех новых технологий искусственного интеллекта и т.д. о которых говорили на презентации! а насчет DLSS 3 - по большей части это маркетинг, так как эту 3-ю версию энтузиасты смогли запустить на 20-й и 30-й серии, да не спорю 40-я серия более под нее заточена физически и софтверно, так как на других сериях она не совсем стабильно работает, но тем не менее дает прирост фпс по сравнению с DLSS 1 и 2 - это факт и чтото мне подсказывает, что вобще дорисовка лишних кадров это некий обман, так как задержка то не снижается, а даже растет!

  • @user-oj5ml6fv1c
    @user-oj5ml6fv1c Год назад +1

    2к надо переходить

  • @BROnik
    @BROnik Год назад +2

    чет не совсем понял про упор в процессор при 70фпс в Киберпуке... разве может 12900к не хватать хотяб для 100-120 фпс о_О? Это ж почти топ проц на сегодняшний день

    • @Aleksandr_Bugaga
      @Aleksandr_Bugaga Год назад

      оптимизация под процессоры в киберпуке оставляет желать лучшего.

    • @RHW
      @RHW  Год назад +3

      RT сильно жрет процессор

    • @MrJB327
      @MrJB327 Год назад

      Обработка геометрии для освещения и теней при включенной RT ложится на CPU. Поэтому в играх с включенным RT проц подготавливает значительно меньше кадров и упор может быть в него.

    • @Aleksandr_Bugaga
      @Aleksandr_Bugaga Год назад

      RT так жрет процессор, что во время игры он загружен на половину.
      Л - логика.

    • @RHW
      @RHW  Год назад

      На какую половину? Вы смотрите на процентики, а знаете что скрывается за ними? Знаете как происходит работа процессора и с какими задачами он работает? Лучше для начала изучите материалы по устройству процессора, а не говорите тупое слово - "оптимизация" не понимая его значения.

  • @Ruslan1989Minsk
    @Ruslan1989Minsk Год назад +4

    таблицы результатов все-таки было бы лучше сопоставлять с положением графиков и тестов.. либо просто сменить местами - сначала тест 3090 потом 4090 .. смотрелось бы гармоничнее

    • @RHW
      @RHW  Год назад

      Увы, заметили уже в самом конце монтажа и на переделывание не оставалось ни времени, ни сил. С выходных делается этот тест, причем преимущественно ночами, так как днем есть работа...

    • @Ruslan1989Minsk
      @Ruslan1989Minsk Год назад +2

      @@RHW ну это мелочи.. обратят внимания только перфекционисты)) Проделано много работы, поэтому спасибо за труды и видео)!

  • @AmoniMym
    @AmoniMym Год назад

    Советую приглядеться к хэшрейту сначала, а потом уже озвучивать результат, 105 локальный(фактическая величина), а то что у вас набралось за 3 минуты майнига - пшик в воздух а не 200+ мх

    • @RHW
      @RHW  Год назад +1

      Действительно, не обратили внимания :)

  • @maxmin7180
    @maxmin7180 Год назад +2

    Мама, мне нужна карта 4090 для учёбы, честное слово😆

  • @larisastol
    @larisastol Год назад +5

    Ада Лавлейс, дочь Байрона (поэта). Оказалась одарённой математически и считается одной из пра-пра-пра бабушек компьютера.😁

  • @dx48.
    @dx48. Год назад +5

    "Даже i9 12900k не может нагрузить карту на 100% в 4к"
    Представьте, каково мне с i7 11700, rtx 4090 и с монитором 2560x1080 :D
    Во всех играх при родном разрешении карта грузится на 50-70%, при этом у неё даже редко кулеры включаются. По охлаждению конечно отличные кирпичи сделали.
    Чтобы не было мыла и карта грузилась побольше играю с DLDSR при 3840х1620, так картинка становится гораздо приятнее и детальнее.

  • @LeadSugar
    @LeadSugar Год назад +1

    Блин, хотеть ее на смену своей 3060. У меня как раз 4к монитор. Даже в принципе есть деньги на покупку, но она потянет за собой всю систему, а тут уже бюджет затрещит. Кстати, как думаете Ryzen 7 1800X 4.0 с памятью DDR4 3000cl16 сможет выдавать 60 кадров во всех проектах?

    • @RHW
      @RHW  Год назад +3

      Не сможет :) Включите RT и проц сильно просадит FPS.

    • @SergeiPoroh
      @SergeiPoroh Год назад

      Может быть ты и не хочешь, чтобы у тебя голова болела, но конченые зелёные фанатики и переплатят овер дофига, если это потребуется для покупки зелёной любимки. Они и блок на 1000W возьмут (на полтора, если ещё и интел в комплекте), и корпус трансформаторную будку с воздушными пушками, чтобы карта и влезла, и не перегревалась (особенно если в комплекте с интеловскими печками). Домкрат под карту поставят, чтобы материнку не переломило. С 12пиновым разъёмом по инструкции будут задрачиваться, как его в корпусе разместить, ведь его там гнуть можно строго в определённых местах, иначе Хуанг спалил родную хату. Таков сегодня путь зелёного фанбоя.😉

    • @LeadSugar
      @LeadSugar Год назад

      @@SergeiPoroh что купил RX 6950 и у нее как это часто бывает сдох чип?)))

    • @SergeiPoroh
      @SergeiPoroh Год назад

      @@LeadSugar не знаю за всю жизнь не было проблем с амд картами как и с дровами на них. сменил свою старую 5700хт на 3080-10 на ней и сижу счас. но. это ничего не значит. просто так вышла да и ценник вкусный очень был. даже кастыли в виде животворящего длсс не юзаю как и сцаные лучи.)

  • @mobizone8
    @mobizone8 Год назад

    2:56 человек уже не правильно вставляет коннектор. нужно пальцами держать и втыкать сам коннектор за пастик. а не за провод пихать и ломать)

  • @Relaxbest
    @Relaxbest Год назад +1

    16 фаз по 50 А, они издеваются?

  • @pRostaPlay
    @pRostaPlay Год назад +4

    Для меня 4к станет играбельным, когда он с ртх и без длсс без запинки будет работать) Я не юзал нормально РТХ, может, он пустой, супер бесполезный, как pcie, но лучше я пока буду в 2к (точнее в uwqhd) с ртх на 60 кадров в синглы играть, чем в 4к)

  • @JohnApp7
    @JohnApp7 Год назад +2

    Тарков не обнаружен. Всё понятно
    Никита не ободряет

    • @RHW
      @RHW  Год назад

      Не нужОн нам этот Ваш тарков :)

    • @JohnApp7
      @JohnApp7 Год назад

      @@RHW бан, репорт, атписка!!1

  • @SmileNODrus
    @SmileNODrus Год назад

    Чет я не понял откуда там 107% прироста производительности если 71 против 147 это не 107% прироста производительности а всего лишь 52%

    • @RHW
      @RHW  Год назад

      Вы не умеете считать :) Прирост относительно чего считается? Относительно того от чего считаем, это 71, 71 это 100%, а сколько будет 200%? Это будет ровно в два раза - 142. Как же посчитать точно 147 относительно 71? Вы делите результат лучший, на один процент от результата худшего ( от чего прирост ), а это 147/0.71=207, то есть 147 это 207% от 71. А вы посчитали на сколько хуже.

  • @LEOPARD680GTX
    @LEOPARD680GTX Год назад +1

    4090 + 12900к - A Plague Tale - Requiem загрузка карты 99% при 4К ультра и длсс качество. И бывает банально прыгает до 91 при резком повороте камеры.
    Так что с процессором там все отлично. Игра такая. В других играх не смотрел. Но сам по себе БРЕД чтоб 12900к не загружал карту в 4К. 13900к тут с отрывом в 5% (тестов навалом в 4К) погоды бы не сделал. Отрыв там в 1080р или в 1440р, но точно не в 4К.

    • @RHW
      @RHW  Год назад

      На видео видна загрузка видеокарты, все конечно зависит от сцены, но кое где будет явно не хватать, что и видно по видео.

  • @user-bp8vg9pr3z
    @user-bp8vg9pr3z Год назад +7

    Из важного
    DLSS 2.0 и DLSS 3.0 это независимые технологии, их можно включать обе, или только одну (не уверен, что все игры поддерживают).
    D2 помогает рендеритить кадр и делает его чётким
    D3 рисует новый кадр на основе предыдущих
    Вижу, что они отключен был даже D2. Мерили "чистую" производительность без дорисовок.
    С D3 может быть ситуация, где картинка оооочень плавная, но есть задержка в управлении. Ощущаться будет как пинг в игре.
    Уже вижу новые ААА хиты с 60 фпс под DLSS 3.0 и жуткой задержкой в управлении.
    Я подобного эффекта добивался на 3 ведьмаке, когда мой телевизор "дорисовывал" фпс с 30 до 60. Фпс был стабильный, но играть было жутко некомфортно. При этом задержки в мыше ощущаются сильнее, чем на джостике. Это делает тесты ещё более сложными, нужны именно реальные кадры обработанные процессорам, эти данные можно из фпс монитора получить, но не думаю, что все тестировщики будут запариваться.
    И ещё, если экран 144герца не значит, что хватит 144 фпс. Грубо говоря видеокарта делает случайные задержки между кадрами, а экран физически не может их отобразить. Из-за этого часть кадров теряеся.
    По хорошему надо под монитор 144г стабильные 160-200кадров и ставить вертикалку (ещё лучше Nvidia G-Sync).
    У меня моник как раз 165герц 2К и G-Sync есть. Я замечаю большую плавность при 200+фпс. или с G-Sync.
    Ещё некоторые движки (вроде соурс или IW Engine) имеют свои особенности с фпс. И может потребоваться и 300 и 400 фпс для минимизации задержек управления и отклика (связанного с сетевым кодом).

    • @ekubalk96
      @ekubalk96 Год назад +3

      То есть мы вдогонку упираемся и в криворукость разрабов, ведь даааалеко не все будут заниматься оптимизацией.
      Что может только ухудшить ситуацию

  • @EdZhe_
    @EdZhe_ Год назад

    Ждём 6070)

  • @AndreyV88
    @AndreyV88 Год назад +2

    С картой RTX4090 всё понятно! Но надо бы сказать что нормальные игровые мониторы 4К стоят от 70 тысяч!!! Вот и считайте видюха 150к плюс монитор = 220 тысяч минимум! Кароче, системный блок топовый и монитор 4К выйдет в пол миллиона!!! Карл!!! Много кто захочет такое купить? Ну а так, согласен с автором! Но лично для меня 2К будет приоритетным разрешение ещё лет так на 5-7!!! p.s. Сам являюсь обладателем RTX 3090ti от msi suprim x! Играю на мониторе 31,5 дюйма и разрешении 2К (144Гц ips 1ms)!!! И это кайф!

    • @RHW
      @RHW  Год назад +1

      Как и для всех, но 4090 - показатель того что будет года через 4 в средней линейке карт. А там посмотрим что игропром нам предложит под такие возможности.

    • @XPERT518
      @XPERT518 Год назад

      А потом эти полмиллиона обесценятся, электроника быстро устаревает, в комп деньги вкладывать невыгодно.

    • @RHW
      @RHW  Год назад +4

      @@XPERT518 Так комп это не капиталовложения, а траты на радость себе. Еда как бы тоже не возвращается в виде остаточной стоимости, как и одежда и все что угодно.

    • @treexh
      @treexh Год назад

      4К 120+ Гц в днс стоит от 45к, что очень вкусно, недавно были от 38к.

    • @AndreyV88
      @AndreyV88 Год назад

      @@treexh если тебе не важно качество матрицы, то да! Может и есть за эти деньги на va матрице! Но как по мне va матрица отстой, либо ips либо oled, всё остальное хрень, когда есть с чем сравнивать.

  • @an1xr
    @an1xr Год назад +1

    Юзаю 4090, 4к 144hz по DP спокойно работает

    • @RHW
      @RHW  Год назад +1

      Это со сжатием, а без сжатия не будет

    • @an1xr
      @an1xr Год назад

      @@RHW это сжатие нигде не заметно, я о нем и не знал, пока блоггеров не посмотрел, да и в моем монике 4к 144hz dp порт 1.4а, даже в его спецификации прописано 4к 144hz без всякого сжатия

    • @an1xr
      @an1xr Год назад

      @@RHW пропускной способности dp 1.4а хватает для 4к 144hz без сжатия

    • @RHW
      @RHW  Год назад +1

      С чего Вы взяли что DP1.4a хватает без сжатия? Потому что на коробке и в инструкции этого не указано ? :) Ну и заявлять что сжатия нет по картинке нельзя, пока не увидите картинку без оного :)

    • @an1xr
      @an1xr Год назад

      @@RHW 4k (3840х2160) на частоте 144Hz при глубине 1 байт на цвет (24 бита на пиксел) требует минимум 28665446400 бит в секунду (3840*2160*3*8*144), то есть около 30 гигабит/с. DP 1.4a имеет максимальную пропускную способность около 32 гигабайт/с. Это значит что качественный кабель может передать 4к 144hz в теории без всяких потерь, а даже если сжатие и будет применяться то настолько не значительное что просто не будет видно

  • @user-gy5et6nq7g
    @user-gy5et6nq7g Год назад +1

    Помню. Статью. Встречайте GTX 970 теперь 4 к гейминг стал реальностью :) а тут оказывается что RTX 4090 для 4 к гейминга :) что то у нас технологии. Застряли на одном уровне. Все кто из СССР помнит что человеческий глаз способен воспринять только 24кадра в секунду . По этому во времена СССР пугали всех 25кадром который не видно но восприятие на подсознание человека тем самым зомбирует его например: Продать почку свою или соседа и купить видеокарту RTX4090 :))) Ну если серьезно то играть на PS 5 в 4к в 25 ФПС консольных это плавно но вот на ПК не подходит нужно 100фпс ????? По моему вы малость как говорят у нас зажрались .

  • @SleepingValik.
    @SleepingValik. Год назад

    А что по звуку дросилей?

    • @RHW
      @RHW  Год назад +1

      Практически не слышно

    • @SleepingValik.
      @SleepingValik. Год назад

      @@RHW ruclips.net/video/SX9-6gTCFZE/видео.html а такие звуки это нормально? Это если обороты сильно повышаются можно услышать такие звуки. Что-то похожее на вибрации от потока воздуха

    • @RHW
      @RHW  Год назад +1

      Через нас прошла лишь одна 4090, сказать что для них норма не можем.

  • @Kostromaful
    @Kostromaful Год назад

    у 3090 тпд занижен и частота

  • @andreyyy1320
    @andreyyy1320 Год назад

    2560х1080 + 4090 лет 5 так буду играть в 144+ ФПС )

  • @user-ir4mf8yd6e
    @user-ir4mf8yd6e Год назад +1

    Еще Два поколения и 4к будет тянуть средний Сегмент карт ) Ждем ! 2-3 Года -Как-раз CryEngine V в Массы выйдет

    • @RHW
      @RHW  Год назад

      4 года, Nvidia нужно 2 года на выпуск нового поколения.

  • @Dr1vovic
    @Dr1vovic Год назад +1

    Вообще м видеокарта исключительно для владельцев 4к монитора 120Нz с деньгами. А вообще то играть то не во что, игр нормальных нет.

  • @xbeem28
    @xbeem28 Год назад +3

    пока все рывки по увеличению производительность за счёт увеличения потребления 4090 +13900к - уже 1 киловатт

    • @RHW
      @RHW  Год назад +2

      С одной стороны да, а с другой стороны - 3090 и 3090 Ti имеет тот же TDP в 450W что и у 4090, так что увеличения потребления не случилось, а рывок в производительности огромный.

    • @ekubalk96
      @ekubalk96 Год назад

      @@RHW но это базово.
      Оверклокнуты они при этом все. Разгон лежит всё ещё в 450 ваттах? Или мы уже оттуда вывалились?

    • @RHW
      @RHW  Год назад

      Где лежит разгон не знаю, но по риве видно сколько она кушала и кушала она понятные 300-350 ватт, лишь изредка доходя до 400+. А разгон с увеличением TDP до 600 не даст прироста в 30%, дай бог процентов 5-7. Так что смотреть надо в стоке.

    • @user-dp3te2wp8i
      @user-dp3te2wp8i Год назад

      @@RHW ещё бы её (4090) возможности в андервольтинге продемонстрировать не плохо было бы ! Там оочень удивительные результаты ! Дербауер после своих экспериментов был в недоумении от несбалансированности 4090 , точнее от неадекватности системы охлаждения и потребляемой мощности в соотношении с производительностью … она (4090) способна на ту же производительность но куда при меньшем потреблении ! Надеюсь видео по андервольтингу этой карты ещё будет на канале !?) видос зачётный ! Лайк прожал !

    • @RHW
      @RHW  Год назад +1

      Спасибо, но конкретно эта карта уезжает владельцу :) Она у нас была транзитом, но возможно в будущем оценим, хотя опять таки, это на любителя процедура, так как карта и сама способна занижать TDP, что отлично видно по видео. Там потребление было 300-350 ватт :)

  • @user-wr5pu5gi9q
    @user-wr5pu5gi9q Месяц назад

    Никогда не понимал зачем люди берут 4090 или 3090, да, дури хоть отбавляй, НО во первых вам нужен мощный бп, во вторых эта установка будет распылять тепло делая прибывание в комнате не комфортным, у нас в городе примерно 8 месяцев температура на улице выше 30 градусов цельсия, пару месяцев плюс 37-42. Я не люблю включать кодниционер зимой. У меня сейчас в ПК процессор 65ватт и видеокарта 140 ватт, и даже этот билд распыляет тепло, зимой потею с открытым окном. У меня одно время стояло три видеокарты по 145 ватт, и это прям совсем перебор как по мне, находиться с этим устройством в одном помещении - не комфортно.

  • @olegkrivtsov1192
    @olegkrivtsov1192 6 месяцев назад

    Смех. Такие карты должны без дллс играться. А не вот этот цирк

  • @VitalayManin
    @VitalayManin 5 месяцев назад

    4К будут тянуть все видеокарты нового поколения через год-2 + топ сегмент будет тянуть 8К после этого через 2 года 4К будет тянуть самая младшая. 6К не 8К будут тянуть все среднячки. после этого через 2 года все среднячки и бюджеточчка будут тянуть 8К вывод. эра 4К изи еще не пришла. 8К гейминг тоже еще не пришел. 4К изи гейминг в 2025 году только. процессор тоже решает.

  • @user-qd4zl4qs6c
    @user-qd4zl4qs6c Год назад +4

    Думаю полноценный 4к для всех, будет доступен только в 5000 линейке.. Не думаю что средний сегмент 4060-4070 потянет это разрешение... Плюс этот новый разъем питания - полное Г... как будто в Нвидиа физику забыли и не помнят про сечение кабеля (чем больше ток - тем толще проводник).. В общем я бы 4000 линейку вообще пропустил мимо.

  • @sintezxd1192
    @sintezxd1192 Год назад

    6:00 какие нахер 250 мегахэш? слепой и сам свои же цифры не видишь из майнера
    ?

  • @Bigalex78
    @Bigalex78 Год назад

    Кому оно надо это 4к,очень не многие могут себе такое позволить в России

  • @luckyshot1402
    @luckyshot1402 Год назад +2

    Мда... Копец обидно только не давно 30 линейка была топ, а теперь ловите 40 линейку

    • @Fregatte86
      @Fregatte86 Год назад +2

      2 года, как всегда, из за эфира они пролетели быстро и мало кто успел купить даже 3000

  • @Fregatte86
    @Fregatte86 Год назад +2

    Киберпанк это наглядный пример как не надо делать AAA игры.
    40 фпс на карте, которая может в 140 фпс в 4к в нормальных последних релизах.
    И при этом графика посредственная

    • @RHW
      @RHW  Год назад +1

      Я не фанат графона, но не соглашусь ни на минуту - киберпанк по графону уделывает сейчас все, детализированнее игры я пока не видел

    • @ArmenianBoy777
      @ArmenianBoy777 Год назад +1

      @@RHW согласен, в 2к выглядит очень шикарно, прямо очень )

  • @pavlic_alex
    @pavlic_alex Год назад +2

    Я Вам больше скажу, время квад шд @240-300-360 Гц в трипл А проектах ещё даже не наступило. Тут предел мечтаний - Валорант на минималках 200-240Фпс. 4к@144-160 Гц хватит всем, главное, чтоб с расстояния 40-60см от экрана мы не видели пиксели размером с кулак, а значит PPI 145-165 минимум или простыми словами квад шд 24-25' или 4к 27-28'. Кстати, народ гонится за герцовкой и разрешением мониторов и совсем не сечет про коэф.контастности, инпут шаг, овершут, Блек смерринг, колор шифт, угловой глоу, тизеринг, Овердрайв, гостинг, и прочие страшные английские словечки. Если кратко, ждём FELD 576 зональную подсветку mini LED с коэф. контрастности 1200:1 в статике на там матрице nano ips+ ATW, а в перспективе и lg nano ips BLACK с фелд подсветкой 1200+ и коэф. контрастности 2000:1. С этими матрицами про все ВА матрицы можно будет смело забыть. Уже кстати на ИПС Блек выше первый делл 32'@60гц и там все очень хорошо с угловым глоу и коэф.контр.

    • @MrJB327
      @MrJB327 Год назад

      Не думаю что в трипл А проектах скоро наступит время 240+гц мониторов. Во многих одиночных играх сам движок не позволяет процессору подготавливать столько кадров. От чего будь видеокарта хоть RTX 9090Ti, такого фпс не добиться. Посмотрим что будет на UE5. Может там с этим дела будут обстоять лучше.

  • @MrMkrb84
    @MrMkrb84 Год назад +1

    Вот тепер тебя люблю я, вот теперь тебя хвалю я...
    А что не так было в 4к с 3090? Не киберпанком единым, а значит 60 ФПС было и в рдр2 и в вальгале и в ларке и в форзе и в куче других Игор!!! Что возвращает нас к прошлому нашему спору, и кто был прав?

    • @RHW
      @RHW  Год назад +2

      Так ничего не поменялось :) 3090 не тянет 4К по настоящему, все надо сглаживать, упрощать по графике и то тянет кое как. 4090 это просто минималка для 4К разрешения, для новых проектов. Конечно всякие танки и Ларки 3090 тянет неплохо, но это уже старые игры, или просто с слабой графикой, для которых 4К вообще не нужно.

    • @MrMkrb84
      @MrMkrb84 Год назад +2

      @@RHW ай, ладно! Пойду играть дальше в 4к и 60 ФПС ))))

  • @SergeiPoroh
    @SergeiPoroh Год назад +1

    Не спорю карта хороша. Но!!!!! Уже давно по многочисленным тестам и сливам можно было понять что RTX 4090 это карта чистейший маркейтинг. И никакой там супер -мега пупер революции так то и не произошло как бы в этом нас там не пытались убедить ушлые из команды Хуанга. Все что можно было впихнуть в 4090 впихнули для вида, а остальное будут продавать нам за счет нового супер мега читерского костыля под громким названием DLSS3.0. Это надо быть полным ...... уж простите что бы не понимать, что младшие карты и рядом да и близко не будут стоять по производительности с божественной печкой 4090. Все это сделано для того что бы хоть как то оправдать и продавать новое супер мега лучшее и классное новое поколение видео карт. К тому же после бума Майнинга. Где нас с первых минут уже пытались уж простите за мой ....... наеб............) Как это по Хуанговски.)
    Лично я хочу и буду винить во всем зеленых с их пинами питания и всем остальным как и вендеров. Ну это просто ах.... уж простите покупая карту за овер до х... бабок. С какой такой стати у меня еще и голова должна болеть и за чего то там. Я должен принести карту воткнуть и забыть. И работать она должна как часы. Ну а это просто............ Да и у карты столько минусов что они слихвой перекрывают ее " плюсы". Даже просто интересно насколько много из них выживут, например, через годика этак 3- 5 при активной работе.))
    Спасибо огромное за проделанный труд.
    Мое почтение.
    Пс. RTX 4080 -12GB. Фантастическая видеокарта, но названа неправильно🤣🤣🤣🤣🤣Ну. Этот прикол мы надолго запомним.)
    Ходит инфа что Хуанг решил собственно ручно устроить дефицит своей супер мега пупер печки. И почему я не удивлен.

    • @SergeiPoroh
      @SergeiPoroh Год назад

      @_o0o00_ не поверишь. но мне как то все равно.)

    • @magua74
      @magua74 Год назад

      Бред не неси

    • @SergeiPoroh
      @SergeiPoroh Год назад

      @@magua74 бред несешь тут только ты, а я говорю так как оно есть. извини что оно тебя так цепляет и не как не сходиться с твоим высоким и предвзятым походу мнением. дифирамбы петь я никому не собираюсь как и восхволять не за х........).

  • @fx8052
    @fx8052 Год назад

    20:37 что это за совковые размышления? XD

  • @diman0956
    @diman0956 Год назад +1

    У меня была 6900хт на воде. И я вам скажу - 4к это тема). Лучи - хуета маркетинговая. А с новыми видяхами 4к 120гц это уже реальность). Хотя и с fsr в 4к 120гц то же доступны. Ах да,у меня не моник,а LG C1 65

  • @BarmaleuBarmaleev
    @BarmaleuBarmaleev Год назад

    Dls выруби тянуть не будет!

  • @magua74
    @magua74 Год назад +1

    В топку 4к! 2к рулит

    • @He_oH
      @He_oH Год назад

      рулит все еще 1080)

  • @GANDO_X
    @GANDO_X Год назад

    Не покупайте карты с первых партий. ХЗ че будет с ними, они уже вон что то плавят пздц. Такая моща пока сыро выглядит.

    • @RHW
      @RHW  Год назад

      Это не они плавят, а переходники кривые и контакт разрывают, что приводит к нагреву и оплавлению

    • @GANDO_X
      @GANDO_X Год назад

      @@RHW конечно не они плавят. Ты стоишь с зажигалкой и плавишь

    • @RHW
      @RHW  Год назад

      В RTX3090 Ti были такие же разъемы, как и в рефах RTX3080 и в RTX3090, будут ссылки на оплавление разъема в этих картах?

  • @leto2922
    @leto2922 Год назад

    Как же тебя приятно слушать , жаль раньше канал не попадался