Тест RTX4090 VS RTX3090 в играх и рабочих задачах.
HTML-код
- Опубликовано: 28 июн 2024
- Группа вконтакте с новостями и оповещениями - ruhardware
Официальный сервис центр канала - rhwservice
Наш телеграм - t.me/rhwchat
Тестовый конфиг:
Процессор - intel i9-12900K
СЖО - ASUS ROG RUIJIN 360 II
Материнка - ASUS ROG STRIX Z690-F Gaming Wi-Fi
Память - G.Skill Trident Z5 RGB @6400Mhz CL32-38-38-38-80
SSD - 2Tb Samsung 980 PRO
Видеокарта №1 - Palit RTX4090 Gamerock Midnight Kaleidoscope
Видеокарта №2 - Palit RTX3090 Gaming PRO
Корпус - Fractal Design Meshify 2
Блок питания - 1000W Deepcool PQ1000M
Монитор - AOC U2790PQU 3840x2160 60Hz IPS ( ну, такое себе )
Тестирование проводилось через rivatuner встроенный в MSI Afterburner, сами тесты делались без записи экрана, после проводилась запись через Nvidia shadowplay уже без фиксирования среднего FPS, а так же 1% и 0.1%. Соответственно результаты в диаграммах это то, что Вы увидели бы у себя в системе.
#rtx4090 #rtx4090fps
00:00 - Вступление
00:44 - Про чипы AD102
00:58 - Про DLSS 3
01:58 - Про Palit RTX4090 Gamerock
02:40 - Проблема нового разъема Nvidia
03:13 - Продолжение про Palit RTX4090
04:28 - Founders vs gamerock RTX4090
05:45 - Температуры GPU и памяти
06:41 - Разъемы DP1.4a и HDMI2.1a
07:46 - Тестовая платформа
09:09 - Тест Adobe premiere
09:42 - Тест Octanebench
10:08 - Тест Blender
10:52 - Тест Cyberpunk 2077
13:00 - Тест A Plague Tale: Requiem
13:54 - Тест Shadow Of The Tomb Raider
14:37 - Тест Assassin's Creed: Valhalla
14:50 - Тест Red Dead Redemption 2
15:28 - Заключение - Наука
Как все таки лучше делать видео - с закадровой музыкой, или как здесь, без нее?
С лёгкой закадровой музыкой было лучше, как по мне.
нет, это мешает восприятию серьезной информации
Хорошая музыка чуть слышно когда это классно!!’
Для какого-нибудь заурядного недообзорщика она стала бы прекрасным наполнением, но у тебя и так все отлично с удержанием аудитории, как минимум в моем лице ) А ели что-нибудь и ставить, то спокойное и тиииихо-тихо фоном ;)
без нее лучше
Гош, очень понравилась подача! Просто класс, спасибо 🔥
Такой прирост, при сохранение примерно одинакового потребления, действительно впечатляет
Хорошо постарался, очень интересная подача , молоток 👍🏻
Отличный ролик спасибо! Сижу в 4k с 2019 года и меняю карты каждое поколение, 4090 теперь в приоритете к покупке, но дождусь современных блоков питания
Киловатничков ждешь, иолодец, можно на отоплении будет экономить
Гигантская работа проделана,Георгий. Топ-контент! Картинка шикарная. Спасибо за предоставленную инфу!
Классное видео! Спасибо!
Спасибо за контент!
Отличный обзор👍
Аудитория сказала Вау ! - и продолжила ждать 4060. ))
7060)))
4050 ))
Либо 4080ti
Здравствуйте подскажите. У меня такой же блок питания как у Вас в тесте. Подскажите нужно ли менять на другой? Или его будет достаточно
Про плавность это кстати хорошо сказано.
Но тут нужен нюанс ещё сверху.
Эта плавность должна быть создана не только благодаря фокусам длсс-но и без них, чистой мощностью карты.
И вот с этим-уже наконец лучше.
Но это стоит с другой стороны просто неадекватно.
Либо только когда комп у тебя работает и ты делаешь на этом впечатляющий доход-либо когда ты мажор и хочешь себе позволить полный фарш
Иначе-мы упираемся в момент что "4к есть-но оно безальтернативно требует под себя только самый жир, что несовместимо с массовым потребителем"
С другой стороны, стоимость такая же, как у какого-нибудь Iphone 14 Pro Max. А его покупают очень многие, пусть и в кредит. Да еще и меняют каждые 2 года... не мажоры, а обычные люди, вынужденные ездить в метро.
@@Revan83 Это уже к вопросу о понтах
@@ekubalk96 ну не без этого. Но некоторым просто реально хочется иметь такую вещь. Хоть это и не рационально. Однако, если себе в этом отказывать - то зачем вообще это всё...
Отличный обзор.
Как же тебя приятно слушать , жаль раньше канал не попадался
Недавно перешёл с 1366x768 на 1920x1080 монитор ,да плюс ещё и заменил старый i3 на i5 .
Стало комфортно сидеть за монитором и играть в игры .
Но до современной платформе мне ещё далеко )
Лайк поставил !
1080р на самом деле более, чем хватает в наше время.
чисто кайф смотреть эти тесты,купив месяц назад 3080 🙃
Этот GPU превзошел по впечатлениям 1080Ti. Обожаю все в 4090 кроме неподготовленного к новому разъему рынка. Повезло дважды - купил дешевле 120 тысяч и получил чип с возможностью андервольта на 2850 Mhz 985 mV
Привет, а радеон RX 7900 XTX вроде тоже не плох
Подскажите переходник который был с видео картой он на три провода?
Да
2560х1440р это мой выбор, хотя сейчас просто спокоен, что человечество открыло дверь в игры в 4к. Олтличный обзор и тесты.
вот это рывок 👍
Есть ли категорические различия в том, что в обычной версии 3х8 коннектора, а в ОС четыре ?
Неизвестно, пока ведутся бетатесты :)
@@RHW в днс вообще на фото комплектаций 4 в обеих версиях, а переплаты там пару тысяч.
мне кажется бонусом было бы интересно прогнать тесты на 4090 в 8К, сравнивая с самой собой в 4К
Не :) Рано еще 8К, ооочень рано!
ПРивет!!!!!! я у тебя как-то купил отличный корпус CoolerMaster h500p, с наклейками от хайперов, топ корпус и ценна топ!!! подписан на тебя, делаешь хороший годный контент!!!) купил недавно aurus 4090 waterforce extreme, на авито за 130к!!!))))) новую)))) очень доволен картой, абсолютно согласен с тобой))) 4к народу, наконецто заработало!!!)))
4090 просто божественная карта для 2К в нативе с лучами везде и моником 165Гц.
БП хватает этого?
Много кажется, то что в одной не самой оптимизированной игре 4K и 240+ FPS нет, это ещё далеко не значит что время 4К ещё не пришло.
Вчера сменил свою GameRock Omniblack 4080 на GameRock OC 4090. Разница ощутима, плавность на уровень выше. В том же The Last of Us 2 просадки исчезли в принципе, и это без DLSS, а на 4080 он был включен! Зря я изначально решил сэкономить и брал 4080, но так появилась возможность сравнить на своём опыте. Проц - 13900k.
В вопросах железа есть один подход - брать надо максимум который можешь себе позволить, никаких запасов и чрезмерности в железе нет :)
Привет. Брать 3070 для full hd или qhd?
если 60 герц то любой, если выше то только 1080
Подскажите пожалуйста, разве hdmi 2.1a не способен выдавать более 144гц в 4к?
Без сжатия нет
@@RHW спасибо, выходит такой монитор как neo g8 4k 240hz вероятно будет артефачить
Ждём 5090 ))
Хотя я думаю после 1080ti брать 4070 она пишут будет в районе 3090-3090ti и это всё для 1920x1080 :D
Тесты явно нужны с 13900KS
уже придумали чем охладить такой проц?
@@He_oH пусть производители думают.
На 3:50 Вы измеряете линейкой длину видеокарты , у вас как то получилось 294 мм.....Ее же длина 329 мм, о чем сами и говорите
Мы измеряли не длину видеокарты, а показывали остаточное расстояние от видеокарты до радиатора СЖО. Можно было бы сделать очевиднее - перевернуть линейку и показывать от 0см, но тогда бы все было перевернуто.
@@RHW ясно))
а что мешало оставить 3х8 пиновых разъема на карте, начерта городитье непонятный разъем и переходник к нему
Я не понял почему вы решили что упирает в CPU в QHD разрешении? Видно что проц не загружен выше 50% даже. А то что видеокарта не загружена не на 100 это не говорит что проц не успевает.. Или я что-то не понимаю?
Процессору не обязательно доходить до 100%, так как вопрос не в нагрузке на ядро, а в типе нагрузки ( задаче ), задач у процессора может быть огромное множество и они бывают разные по сложности + могут использовать разные блоки. Допустим пришла задача которая использует FPU и ALU, но ALU меньше, на FPU больше, показывает 60% загрузки ядра, а на деле блок ALU не успевает за FPU, вот и видим недонагрузку, но просадку GPU. Определять надо всегда по недогрузу - если недогружен процессор, то должна быть нагружена карта, если карта не нагружена, то не успевает проц. В общем как обычно все не сводится к простым процентикам.
Ламповое... Спс. Гоша- зе бест! 4090 - гарбуз.
Ждем выхода новых игры которые задушат даже 4090Ti
А чего тем выходить, разработчики просто переходят в режим "отключаем оптимизацию к херам", чисто на чиле, на расслабоне... ))) Гошан, спс за годноту, аддуши 🔥
Жду только и делают, что ждут))))
Подскажите пожалуйста вся это сборка, только корпус Fractal Design MESHIFY 2 COMPACT влезит???
Нет конечно :)
Я понял), Гоша это Биг Босс а Тема это Пимп.)
Не совсем :) Обрати внимание на фон за ними :)
Плаг Тейл в некоторых сценах просаживает фпс до 20-40 даже на 4090 в 2к :D оптимизацию не завезли)
Выпускают новинки а под новинки железок нет....
Я давным давно перешёл на 4К банально из за чёткости шрифтов. Ну и если например в Баттл рояль играть то лучше врагов в далеке видно
Самое обидное купил бп хороший с запасом по мощности. Вдруг соберёшься систему пересобрать. А тут все железо стало потреблять мощность как не в себя. Такими темпами скоро бп в 1,5 киловатта покупать придётся.
Хороший ролик, чувствуется личный вклад автора, а не просто реклама. Сам я на 4080 сижу. По мне 4090 слишком дорогая и избыточная для 90% геймеров.
Так это и не реклама, железка клиента :)
@@RHW по мне большая часть техноблогеров скорее рекламируют железку. Просто впечатления от ролика.
Музло в видосе никчему а так качественный ролик мое мнение
Гоша я всё понимаю что Тарков для тебя ну такое, но хотелось бы видеть тесты железа в этом проекте
Наконец то норм охлад сделали, единая площадка с чипом и памятью. А то в 3070ti какой-то ужас был с охлаждением,70 градусов в простое и за 90 в нагрузке на памяти.
брак по ходу, у меня 3090ti в простое 30-35 в нагрузке 68-70. Память греется до 70 не выше. ХЗ че у тебя за замануха.
@@GANDO_X это не брак, это особенность именно этой модели(3070ti геймрок). Взял на радостях по вкусной цене ,в замен 5700xt и прифигел от температур. Начал гуглить , оказалось что у всех проблемы с этой картой.
GDDR6X память первого поколения способна работать при температурах свыше 100 градусов и при этом она более горячая чем GDDR6 и остальная видеопамять. 90 градусов в нагрузке для GDDR6X это не страшно совсем. Вы когда циферки узнать пытаетесь узнавайте заодно и диапазон допустимых температур, а то кота заведете и понесете его в больницу думая что у него высокая температура, раз она выше 36.6
@@RHW Да я знаю про диапазон температур работы памяти DDR6X, я техподдержку палита писал и там заверяли что с картой все норм, так и должно быть. На тот момент меня напрягло и через неделю пользования продал и и взял 6700xt RED DEVIL теперь горя не знаю (не считая глючных дров периодически)выше 60 градусов по памяти не видел , не в играх ни в маининге.
Шумная бестия :))) эта палит
Ждём Crysis 4 :D
я вот сколько тестов и т.д. смотрю 40-го поколения, но так и не увидел во всех этих видео тех новых технологий искусственного интеллекта и т.д. о которых говорили на презентации! а насчет DLSS 3 - по большей части это маркетинг, так как эту 3-ю версию энтузиасты смогли запустить на 20-й и 30-й серии, да не спорю 40-я серия более под нее заточена физически и софтверно, так как на других сериях она не совсем стабильно работает, но тем не менее дает прирост фпс по сравнению с DLSS 1 и 2 - это факт и чтото мне подсказывает, что вобще дорисовка лишних кадров это некий обман, так как задержка то не снижается, а даже растет!
2к надо переходить
чет не совсем понял про упор в процессор при 70фпс в Киберпуке... разве может 12900к не хватать хотяб для 100-120 фпс о_О? Это ж почти топ проц на сегодняшний день
оптимизация под процессоры в киберпуке оставляет желать лучшего.
RT сильно жрет процессор
Обработка геометрии для освещения и теней при включенной RT ложится на CPU. Поэтому в играх с включенным RT проц подготавливает значительно меньше кадров и упор может быть в него.
RT так жрет процессор, что во время игры он загружен на половину.
Л - логика.
На какую половину? Вы смотрите на процентики, а знаете что скрывается за ними? Знаете как происходит работа процессора и с какими задачами он работает? Лучше для начала изучите материалы по устройству процессора, а не говорите тупое слово - "оптимизация" не понимая его значения.
таблицы результатов все-таки было бы лучше сопоставлять с положением графиков и тестов.. либо просто сменить местами - сначала тест 3090 потом 4090 .. смотрелось бы гармоничнее
Увы, заметили уже в самом конце монтажа и на переделывание не оставалось ни времени, ни сил. С выходных делается этот тест, причем преимущественно ночами, так как днем есть работа...
@@RHW ну это мелочи.. обратят внимания только перфекционисты)) Проделано много работы, поэтому спасибо за труды и видео)!
Советую приглядеться к хэшрейту сначала, а потом уже озвучивать результат, 105 локальный(фактическая величина), а то что у вас набралось за 3 минуты майнига - пшик в воздух а не 200+ мх
Действительно, не обратили внимания :)
Мама, мне нужна карта 4090 для учёбы, честное слово😆
Ада Лавлейс, дочь Байрона (поэта). Оказалась одарённой математически и считается одной из пра-пра-пра бабушек компьютера.😁
"Даже i9 12900k не может нагрузить карту на 100% в 4к"
Представьте, каково мне с i7 11700, rtx 4090 и с монитором 2560x1080 :D
Во всех играх при родном разрешении карта грузится на 50-70%, при этом у неё даже редко кулеры включаются. По охлаждению конечно отличные кирпичи сделали.
Чтобы не было мыла и карта грузилась побольше играю с DLDSR при 3840х1620, так картинка становится гораздо приятнее и детальнее.
Блин, хотеть ее на смену своей 3060. У меня как раз 4к монитор. Даже в принципе есть деньги на покупку, но она потянет за собой всю систему, а тут уже бюджет затрещит. Кстати, как думаете Ryzen 7 1800X 4.0 с памятью DDR4 3000cl16 сможет выдавать 60 кадров во всех проектах?
Не сможет :) Включите RT и проц сильно просадит FPS.
Может быть ты и не хочешь, чтобы у тебя голова болела, но конченые зелёные фанатики и переплатят овер дофига, если это потребуется для покупки зелёной любимки. Они и блок на 1000W возьмут (на полтора, если ещё и интел в комплекте), и корпус трансформаторную будку с воздушными пушками, чтобы карта и влезла, и не перегревалась (особенно если в комплекте с интеловскими печками). Домкрат под карту поставят, чтобы материнку не переломило. С 12пиновым разъёмом по инструкции будут задрачиваться, как его в корпусе разместить, ведь его там гнуть можно строго в определённых местах, иначе Хуанг спалил родную хату. Таков сегодня путь зелёного фанбоя.😉
@@SergeiPoroh что купил RX 6950 и у нее как это часто бывает сдох чип?)))
@@LeadSugar не знаю за всю жизнь не было проблем с амд картами как и с дровами на них. сменил свою старую 5700хт на 3080-10 на ней и сижу счас. но. это ничего не значит. просто так вышла да и ценник вкусный очень был. даже кастыли в виде животворящего длсс не юзаю как и сцаные лучи.)
2:56 человек уже не правильно вставляет коннектор. нужно пальцами держать и втыкать сам коннектор за пастик. а не за провод пихать и ломать)
16 фаз по 50 А, они издеваются?
Для меня 4к станет играбельным, когда он с ртх и без длсс без запинки будет работать) Я не юзал нормально РТХ, может, он пустой, супер бесполезный, как pcie, но лучше я пока буду в 2к (точнее в uwqhd) с ртх на 60 кадров в синглы играть, чем в 4к)
Тарков не обнаружен. Всё понятно
Никита не ободряет
Не нужОн нам этот Ваш тарков :)
@@RHW бан, репорт, атписка!!1
Чет я не понял откуда там 107% прироста производительности если 71 против 147 это не 107% прироста производительности а всего лишь 52%
Вы не умеете считать :) Прирост относительно чего считается? Относительно того от чего считаем, это 71, 71 это 100%, а сколько будет 200%? Это будет ровно в два раза - 142. Как же посчитать точно 147 относительно 71? Вы делите результат лучший, на один процент от результата худшего ( от чего прирост ), а это 147/0.71=207, то есть 147 это 207% от 71. А вы посчитали на сколько хуже.
4090 + 12900к - A Plague Tale - Requiem загрузка карты 99% при 4К ультра и длсс качество. И бывает банально прыгает до 91 при резком повороте камеры.
Так что с процессором там все отлично. Игра такая. В других играх не смотрел. Но сам по себе БРЕД чтоб 12900к не загружал карту в 4К. 13900к тут с отрывом в 5% (тестов навалом в 4К) погоды бы не сделал. Отрыв там в 1080р или в 1440р, но точно не в 4К.
На видео видна загрузка видеокарты, все конечно зависит от сцены, но кое где будет явно не хватать, что и видно по видео.
Из важного
DLSS 2.0 и DLSS 3.0 это независимые технологии, их можно включать обе, или только одну (не уверен, что все игры поддерживают).
D2 помогает рендеритить кадр и делает его чётким
D3 рисует новый кадр на основе предыдущих
Вижу, что они отключен был даже D2. Мерили "чистую" производительность без дорисовок.
С D3 может быть ситуация, где картинка оооочень плавная, но есть задержка в управлении. Ощущаться будет как пинг в игре.
Уже вижу новые ААА хиты с 60 фпс под DLSS 3.0 и жуткой задержкой в управлении.
Я подобного эффекта добивался на 3 ведьмаке, когда мой телевизор "дорисовывал" фпс с 30 до 60. Фпс был стабильный, но играть было жутко некомфортно. При этом задержки в мыше ощущаются сильнее, чем на джостике. Это делает тесты ещё более сложными, нужны именно реальные кадры обработанные процессорам, эти данные можно из фпс монитора получить, но не думаю, что все тестировщики будут запариваться.
И ещё, если экран 144герца не значит, что хватит 144 фпс. Грубо говоря видеокарта делает случайные задержки между кадрами, а экран физически не может их отобразить. Из-за этого часть кадров теряеся.
По хорошему надо под монитор 144г стабильные 160-200кадров и ставить вертикалку (ещё лучше Nvidia G-Sync).
У меня моник как раз 165герц 2К и G-Sync есть. Я замечаю большую плавность при 200+фпс. или с G-Sync.
Ещё некоторые движки (вроде соурс или IW Engine) имеют свои особенности с фпс. И может потребоваться и 300 и 400 фпс для минимизации задержек управления и отклика (связанного с сетевым кодом).
То есть мы вдогонку упираемся и в криворукость разрабов, ведь даааалеко не все будут заниматься оптимизацией.
Что может только ухудшить ситуацию
Ждём 6070)
С картой RTX4090 всё понятно! Но надо бы сказать что нормальные игровые мониторы 4К стоят от 70 тысяч!!! Вот и считайте видюха 150к плюс монитор = 220 тысяч минимум! Кароче, системный блок топовый и монитор 4К выйдет в пол миллиона!!! Карл!!! Много кто захочет такое купить? Ну а так, согласен с автором! Но лично для меня 2К будет приоритетным разрешение ещё лет так на 5-7!!! p.s. Сам являюсь обладателем RTX 3090ti от msi suprim x! Играю на мониторе 31,5 дюйма и разрешении 2К (144Гц ips 1ms)!!! И это кайф!
Как и для всех, но 4090 - показатель того что будет года через 4 в средней линейке карт. А там посмотрим что игропром нам предложит под такие возможности.
А потом эти полмиллиона обесценятся, электроника быстро устаревает, в комп деньги вкладывать невыгодно.
@@XPERT518 Так комп это не капиталовложения, а траты на радость себе. Еда как бы тоже не возвращается в виде остаточной стоимости, как и одежда и все что угодно.
4К 120+ Гц в днс стоит от 45к, что очень вкусно, недавно были от 38к.
@@treexh если тебе не важно качество матрицы, то да! Может и есть за эти деньги на va матрице! Но как по мне va матрица отстой, либо ips либо oled, всё остальное хрень, когда есть с чем сравнивать.
Юзаю 4090, 4к 144hz по DP спокойно работает
Это со сжатием, а без сжатия не будет
@@RHW это сжатие нигде не заметно, я о нем и не знал, пока блоггеров не посмотрел, да и в моем монике 4к 144hz dp порт 1.4а, даже в его спецификации прописано 4к 144hz без всякого сжатия
@@RHW пропускной способности dp 1.4а хватает для 4к 144hz без сжатия
С чего Вы взяли что DP1.4a хватает без сжатия? Потому что на коробке и в инструкции этого не указано ? :) Ну и заявлять что сжатия нет по картинке нельзя, пока не увидите картинку без оного :)
@@RHW 4k (3840х2160) на частоте 144Hz при глубине 1 байт на цвет (24 бита на пиксел) требует минимум 28665446400 бит в секунду (3840*2160*3*8*144), то есть около 30 гигабит/с. DP 1.4a имеет максимальную пропускную способность около 32 гигабайт/с. Это значит что качественный кабель может передать 4к 144hz в теории без всяких потерь, а даже если сжатие и будет применяться то настолько не значительное что просто не будет видно
Помню. Статью. Встречайте GTX 970 теперь 4 к гейминг стал реальностью :) а тут оказывается что RTX 4090 для 4 к гейминга :) что то у нас технологии. Застряли на одном уровне. Все кто из СССР помнит что человеческий глаз способен воспринять только 24кадра в секунду . По этому во времена СССР пугали всех 25кадром который не видно но восприятие на подсознание человека тем самым зомбирует его например: Продать почку свою или соседа и купить видеокарту RTX4090 :))) Ну если серьезно то играть на PS 5 в 4к в 25 ФПС консольных это плавно но вот на ПК не подходит нужно 100фпс ????? По моему вы малость как говорят у нас зажрались .
А что по звуку дросилей?
Практически не слышно
@@RHW ruclips.net/video/SX9-6gTCFZE/видео.html а такие звуки это нормально? Это если обороты сильно повышаются можно услышать такие звуки. Что-то похожее на вибрации от потока воздуха
Через нас прошла лишь одна 4090, сказать что для них норма не можем.
у 3090 тпд занижен и частота
2560х1080 + 4090 лет 5 так буду играть в 144+ ФПС )
Еще Два поколения и 4к будет тянуть средний Сегмент карт ) Ждем ! 2-3 Года -Как-раз CryEngine V в Массы выйдет
4 года, Nvidia нужно 2 года на выпуск нового поколения.
Вообще м видеокарта исключительно для владельцев 4к монитора 120Нz с деньгами. А вообще то играть то не во что, игр нормальных нет.
пока все рывки по увеличению производительность за счёт увеличения потребления 4090 +13900к - уже 1 киловатт
С одной стороны да, а с другой стороны - 3090 и 3090 Ti имеет тот же TDP в 450W что и у 4090, так что увеличения потребления не случилось, а рывок в производительности огромный.
@@RHW но это базово.
Оверклокнуты они при этом все. Разгон лежит всё ещё в 450 ваттах? Или мы уже оттуда вывалились?
Где лежит разгон не знаю, но по риве видно сколько она кушала и кушала она понятные 300-350 ватт, лишь изредка доходя до 400+. А разгон с увеличением TDP до 600 не даст прироста в 30%, дай бог процентов 5-7. Так что смотреть надо в стоке.
@@RHW ещё бы её (4090) возможности в андервольтинге продемонстрировать не плохо было бы ! Там оочень удивительные результаты ! Дербауер после своих экспериментов был в недоумении от несбалансированности 4090 , точнее от неадекватности системы охлаждения и потребляемой мощности в соотношении с производительностью … она (4090) способна на ту же производительность но куда при меньшем потреблении ! Надеюсь видео по андервольтингу этой карты ещё будет на канале !?) видос зачётный ! Лайк прожал !
Спасибо, но конкретно эта карта уезжает владельцу :) Она у нас была транзитом, но возможно в будущем оценим, хотя опять таки, это на любителя процедура, так как карта и сама способна занижать TDP, что отлично видно по видео. Там потребление было 300-350 ватт :)
Никогда не понимал зачем люди берут 4090 или 3090, да, дури хоть отбавляй, НО во первых вам нужен мощный бп, во вторых эта установка будет распылять тепло делая прибывание в комнате не комфортным, у нас в городе примерно 8 месяцев температура на улице выше 30 градусов цельсия, пару месяцев плюс 37-42. Я не люблю включать кодниционер зимой. У меня сейчас в ПК процессор 65ватт и видеокарта 140 ватт, и даже этот билд распыляет тепло, зимой потею с открытым окном. У меня одно время стояло три видеокарты по 145 ватт, и это прям совсем перебор как по мне, находиться с этим устройством в одном помещении - не комфортно.
Смех. Такие карты должны без дллс играться. А не вот этот цирк
4К будут тянуть все видеокарты нового поколения через год-2 + топ сегмент будет тянуть 8К после этого через 2 года 4К будет тянуть самая младшая. 6К не 8К будут тянуть все среднячки. после этого через 2 года все среднячки и бюджеточчка будут тянуть 8К вывод. эра 4К изи еще не пришла. 8К гейминг тоже еще не пришел. 4К изи гейминг в 2025 году только. процессор тоже решает.
Думаю полноценный 4к для всех, будет доступен только в 5000 линейке.. Не думаю что средний сегмент 4060-4070 потянет это разрешение... Плюс этот новый разъем питания - полное Г... как будто в Нвидиа физику забыли и не помнят про сечение кабеля (чем больше ток - тем толще проводник).. В общем я бы 4000 линейку вообще пропустил мимо.
6:00 какие нахер 250 мегахэш? слепой и сам свои же цифры не видишь из майнера
?
Кому оно надо это 4к,очень не многие могут себе такое позволить в России
Мда... Копец обидно только не давно 30 линейка была топ, а теперь ловите 40 линейку
2 года, как всегда, из за эфира они пролетели быстро и мало кто успел купить даже 3000
Киберпанк это наглядный пример как не надо делать AAA игры.
40 фпс на карте, которая может в 140 фпс в 4к в нормальных последних релизах.
И при этом графика посредственная
Я не фанат графона, но не соглашусь ни на минуту - киберпанк по графону уделывает сейчас все, детализированнее игры я пока не видел
@@RHW согласен, в 2к выглядит очень шикарно, прямо очень )
Я Вам больше скажу, время квад шд @240-300-360 Гц в трипл А проектах ещё даже не наступило. Тут предел мечтаний - Валорант на минималках 200-240Фпс. 4к@144-160 Гц хватит всем, главное, чтоб с расстояния 40-60см от экрана мы не видели пиксели размером с кулак, а значит PPI 145-165 минимум или простыми словами квад шд 24-25' или 4к 27-28'. Кстати, народ гонится за герцовкой и разрешением мониторов и совсем не сечет про коэф.контастности, инпут шаг, овершут, Блек смерринг, колор шифт, угловой глоу, тизеринг, Овердрайв, гостинг, и прочие страшные английские словечки. Если кратко, ждём FELD 576 зональную подсветку mini LED с коэф. контрастности 1200:1 в статике на там матрице nano ips+ ATW, а в перспективе и lg nano ips BLACK с фелд подсветкой 1200+ и коэф. контрастности 2000:1. С этими матрицами про все ВА матрицы можно будет смело забыть. Уже кстати на ИПС Блек выше первый делл 32'@60гц и там все очень хорошо с угловым глоу и коэф.контр.
Не думаю что в трипл А проектах скоро наступит время 240+гц мониторов. Во многих одиночных играх сам движок не позволяет процессору подготавливать столько кадров. От чего будь видеокарта хоть RTX 9090Ti, такого фпс не добиться. Посмотрим что будет на UE5. Может там с этим дела будут обстоять лучше.
Вот тепер тебя люблю я, вот теперь тебя хвалю я...
А что не так было в 4к с 3090? Не киберпанком единым, а значит 60 ФПС было и в рдр2 и в вальгале и в ларке и в форзе и в куче других Игор!!! Что возвращает нас к прошлому нашему спору, и кто был прав?
Так ничего не поменялось :) 3090 не тянет 4К по настоящему, все надо сглаживать, упрощать по графике и то тянет кое как. 4090 это просто минималка для 4К разрешения, для новых проектов. Конечно всякие танки и Ларки 3090 тянет неплохо, но это уже старые игры, или просто с слабой графикой, для которых 4К вообще не нужно.
@@RHW ай, ладно! Пойду играть дальше в 4к и 60 ФПС ))))
Не спорю карта хороша. Но!!!!! Уже давно по многочисленным тестам и сливам можно было понять что RTX 4090 это карта чистейший маркейтинг. И никакой там супер -мега пупер революции так то и не произошло как бы в этом нас там не пытались убедить ушлые из команды Хуанга. Все что можно было впихнуть в 4090 впихнули для вида, а остальное будут продавать нам за счет нового супер мега читерского костыля под громким названием DLSS3.0. Это надо быть полным ...... уж простите что бы не понимать, что младшие карты и рядом да и близко не будут стоять по производительности с божественной печкой 4090. Все это сделано для того что бы хоть как то оправдать и продавать новое супер мега лучшее и классное новое поколение видео карт. К тому же после бума Майнинга. Где нас с первых минут уже пытались уж простите за мой ....... наеб............) Как это по Хуанговски.)
Лично я хочу и буду винить во всем зеленых с их пинами питания и всем остальным как и вендеров. Ну это просто ах.... уж простите покупая карту за овер до х... бабок. С какой такой стати у меня еще и голова должна болеть и за чего то там. Я должен принести карту воткнуть и забыть. И работать она должна как часы. Ну а это просто............ Да и у карты столько минусов что они слихвой перекрывают ее " плюсы". Даже просто интересно насколько много из них выживут, например, через годика этак 3- 5 при активной работе.))
Спасибо огромное за проделанный труд.
Мое почтение.
Пс. RTX 4080 -12GB. Фантастическая видеокарта, но названа неправильно🤣🤣🤣🤣🤣Ну. Этот прикол мы надолго запомним.)
Ходит инфа что Хуанг решил собственно ручно устроить дефицит своей супер мега пупер печки. И почему я не удивлен.
@_o0o00_ не поверишь. но мне как то все равно.)
Бред не неси
@@magua74 бред несешь тут только ты, а я говорю так как оно есть. извини что оно тебя так цепляет и не как не сходиться с твоим высоким и предвзятым походу мнением. дифирамбы петь я никому не собираюсь как и восхволять не за х........).
20:37 что это за совковые размышления? XD
У меня была 6900хт на воде. И я вам скажу - 4к это тема). Лучи - хуета маркетинговая. А с новыми видяхами 4к 120гц это уже реальность). Хотя и с fsr в 4к 120гц то же доступны. Ах да,у меня не моник,а LG C1 65
Dls выруби тянуть не будет!
В топку 4к! 2к рулит
рулит все еще 1080)
Не покупайте карты с первых партий. ХЗ че будет с ними, они уже вон что то плавят пздц. Такая моща пока сыро выглядит.
Это не они плавят, а переходники кривые и контакт разрывают, что приводит к нагреву и оплавлению
@@RHW конечно не они плавят. Ты стоишь с зажигалкой и плавишь
В RTX3090 Ti были такие же разъемы, как и в рефах RTX3080 и в RTX3090, будут ссылки на оплавление разъема в этих картах?
Как же тебя приятно слушать , жаль раньше канал не попадался