Тест GeForce RTX 4090! Сравнение с RTX 3090 и RX 6900XT, разгон и андервольтинг

Поделиться
HTML-код
  • Опубликовано: 16 дек 2024

Комментарии • 793

  • @i2hard
    @i2hard  2 года назад +42

    Инфа только между нами: с графиками все ок. Только тсссс, никому. Пусть дальше пишут в комментариях :)

    • @dyamorph50
      @dyamorph50 2 года назад +3

      I9 13900k заказали с Али?

    • @WALOS6
      @WALOS6 2 года назад +1

      hunt showdown не валидный тест!
      По чесноку надо показывать как в онлайне просаживается до 20 fps
      Причем видно это в родном мониторинге игры
      Например как здесь: ruclips.net/video/zl08E8DCqio/видео.html
      Понятно что просадки идут из за проца, но мы ждем вашего честного обзора на 13900К, может у него с просадками будет получше. Пока что лучше всего хант тащит 5800x3d

    • @warthunder4050
      @warthunder4050 2 года назад

      А почему танки не снимаешь 2ту хард жду видео

    • @RFNC_Its
      @RFNC_Its 2 года назад

      а сколько система с 12900kf 4090 c водянкой и пару доп вентелятороми будет кушать?

    • @warthunder4050
      @warthunder4050 2 года назад

      @@RFNC_Its это не важно у меня например розетка бесплатная для майнинга все было сделано

  • @Vaaasss
    @Vaaasss 2 года назад +53

    Тесты в играх на любой вкус - в 1440p и в 4к, с RT и без, с андервольтом и разгоном - кайф😍👍

    • @DmitriyK2012
      @DmitriyK2012 2 года назад

      1080p нехватает

    • @Vaaasss
      @Vaaasss 2 года назад +4

      @@DmitriyK2012 Учитывая то, что даже при 1440p в большинстве игр карта уже была недогружена, то дальнейшее снижение разрешение бессмысленно при тесте данного видика. Это уже будет тест проца, а не видика.

  • @theSeventhDruid
    @theSeventhDruid 2 года назад +49

    ну что ж, время моего любимого развлечения - просмотра обзоров на вещи, которые я никогда в жизни себе не куплю.

    • @GloryToUkrainianRus
      @GloryToUkrainianRus 2 года назад +2

      это все потому, что ты из росии

    • @aleksfreeman3627
      @aleksfreeman3627 2 года назад +1

      @@GloryToUkrainianRus роиси. На самом деле, в Украине тоже, не богачи живут. Абсолютно такие же бедные люди, так же, как и в других странах бывшего снг, почти во всех. Народ везде бедный. Сказать спасибо нужно совку и террористам в рф. Лишь единицы есть, кто могут позволить себе такие вещи.

    • @GloryToUkrainianRus
      @GloryToUkrainianRus 2 года назад

      @@aleksfreeman3627 не нужно сравнивать нищий и слабый умом и духом народ россии с народом работящих украинцев. Я себе могу позволить дорогие вещи. Почему россиянин не может этого сделать? Все просто

    • @GloryToUkrainianRus
      @GloryToUkrainianRus 2 года назад +1

      @@aleksfreeman3627 вы рабы

    • @GloryToUkrainianRus
      @GloryToUkrainianRus 2 года назад +1

      @@aleksfreeman3627 свинина

  • @LeonCennedy
    @LeonCennedy 2 года назад +79

    Вы, конечно, красавчики, что смогли сделать обзор на видеокарту, но какой крутой был бы караоке-баттл между техноблоггерами по цене этой видюхи...

    • @__-dm9fn
      @__-dm9fn 2 года назад +2

      Пошумим блять!!

    • @MrQuazar
      @MrQuazar 2 года назад +2

      Нужно соединить карты по hdmi выходам в тройник сплиттер сигналов,а четвертый хвост видеовывод в монитор, чье изображение будет пробиваться на экран тот и победил. Аналогично битве тракторов сцепленных тросом, вот это будет интересный батл.

  • @Etuheim
    @Etuheim 2 года назад +22

    Тесты которые народ заслужил, спасибо вам большое ребят. А этот голос уже не покидаю 4ый год

  • @fixthetempo7276
    @fixthetempo7276 2 года назад +6

    мой любимый канал по железу.
    Только тесты с QXJE так и не сделали в режиме pcie 4.0 x4. Я буду напоминать, мне не сложно)))

  • @alexal3165
    @alexal3165 2 года назад +168

    Короче говоря наступила эра уверенного 2к гейминга в 144гц😄

    • @ProGamer-rn3bs
      @ProGamer-rn3bs 2 года назад +23

      В 2К 4090 не нужна. В 4К с dlss 3 она в большинстве игр обеспечит 144 фпс

    • @Shikada777
      @Shikada777 2 года назад +53

      @@ProGamer-rn3bs С задержками

    • @Argument77
      @Argument77 2 года назад +15

      В qhd и 3080Ti не плохо справляется. У 4090 по причине отстойного кабеля питания 12vhpwr плавятся коннекторы, как минимум уже 4 таких случая есть за 2 дня.

    • @sayonara9922
      @sayonara9922 2 года назад +18

      @@ProGamer-rn3bs DLSS 3 в соревновательных играх нах не нужен

    • @Shadow_banned_by_YouTube
      @Shadow_banned_by_YouTube 2 года назад +20

      @@Argument77 ничоси! 4 случая на пару сотен тысяч проданных карт вот это да!

  • @LiveGamesIT
    @LiveGamesIT 2 года назад +7

    Обзор топовый, спасибо!

    • @i2hard
      @i2hard  2 года назад +2

      спасибо

  • @enzolas5572
    @enzolas5572 2 года назад +34

    Ого! Вот это обзор! Просто титаническая работа. В целом прирост не удивителен, если учесть как отличаются внутренности чипов. Забавно выглядят упоры в процессор. Теперь нам нужен 13900К в разгоне =D Спасибо за проделанную работу.

    • @mw2k6
      @mw2k6 2 года назад

      В первую очередь нужна ОЗУ (амд как всегда мимо)

    • @amania2385
      @amania2385 2 года назад

      ага ага она ещё и греется как печка да так что переходники просто плавятся -> на хрен она не нужна

    • @madex4336
      @madex4336 2 года назад

      ты же рофлишь? понимешь что 4090 купит 1к людей?

    • @НаильБилалов-щ7ж
      @НаильБилалов-щ7ж 2 года назад +1

      @@mw2k6 Ну да, тут и пригодится поддержка DDR4 на 13900К, или стоп - это мимо и такая поддержка нужна только чтобы хвалиться в комментариях что надо поэтому брать интел а дорогая и не нужная ДДР5 нужна только для 7000 райзенов?

    • @mw2k6
      @mw2k6 2 года назад +1

      @@НаильБилалов-щ7ж пока что ddr5 ничего не может противопоставить ddr4 >=4400 мгц из-за космических задержек

  • @nickylucker
    @nickylucker 2 года назад +32

    Спасибо за классный обзор как всегда! Интересно было бы глянуть, что там на райзенах с 4090 именно в вашем исполнении.

    • @Ser_VD
      @Ser_VD 2 года назад

      В смысле на 5800x3d? Там ситуацию +- такая же, много где упор в проц идет...

  • @The-Oldest-Dream
    @The-Oldest-Dream 2 года назад +3

    17:52 В презентации когда показывали киберпанк был 4к Psycho с новым RTX Overdrive режимом (возможно оно выйдет с новым DLC или в каких-то обновлениях). Вот и 22 фпс

  • @Artem-fm7lj
    @Artem-fm7lj 2 года назад +13

    Впервые слышу что поднимается проблема с упором в проц на 12900к, так что реально спасибо за новую информацию. На фоне упора в проц стоит ли ждать перетест с новыми процессорами? (13900к, 7950х)

    • @ВаняШтауфенберг
      @ВаняШтауфенберг 2 года назад

      C его кэшем в 30мб, неудивительно.

    • @d3n1ss_ok
      @d3n1ss_ok 2 года назад +2

      5800x3d неплохо решает

    • @Artem-fm7lj
      @Artem-fm7lj 2 года назад

      @@d3n1ss_ok в контре и ларке - да, но это все

    • @Nikolay_PPP
      @Nikolay_PPP 2 года назад

      Там упор не в проц, а в разрешение экрана. При 4к упора в проц нет (я не считаю колебания загрузки карты 95-99 % упором в проц, это вполне разумная погрешность). В проц может быть упиралось, если бы там стоял какой-нибудь 10700k

    • @user-ih7sz1uw2l
      @user-ih7sz1uw2l 2 года назад

      Да это не то, там разница точно такая же как и на pci 3.0 и 4.0, 1 fps

  • @Shokoladniy_Glazgo
    @Shokoladniy_Glazgo Год назад +2

    Спасибо вам! Купил 4090 ориентируясь на ваши тесты, хорошая видеокарта.

  • @maslov_m5
    @maslov_m5 2 года назад +17

    Топовый обзор, сложно к чему-либо придраться
    Слишком всё педантично) кайф)
    Протестируйте, пожалуйста, 4090 на разных платформах
    Ам5 и топы 12900к и 13900к, чтобы выявить ботлнек в разных разрешениях
    Было бы очень интересно на это посмотреть
    А так же можно будет выяснить как сильно влияет разгон памяти при упоре в процессор)

    • @Dmitryaga
      @Dmitryaga 2 года назад +4

      Влияние разгона памяти при упоре в процессор есть чуть ли не в каждом тесте процессора на нашем канале

    • @nightshadow5328
      @nightshadow5328 2 года назад +2

      еще бы увидеть тесты в 4к на 9900к проце. этот проц явно у большинства сейчас.

    • @AlexanderMinaevFast
      @AlexanderMinaevFast 2 года назад +2

      @@nightshadow5328 А может сразу 6800K)))

    • @nightshadow5328
      @nightshadow5328 2 года назад +1

      @@AlexanderMinaevFast пентиум 4))))) не ну аче 9900 не проц что-ли? вполне сурьёзный камень. по моему это тупо его выбрасывать и менять на новый. так без штанов останемся, если каждые два года менять.

    • @nightshadow5328
      @nightshadow5328 2 года назад

      @Михаил какой мутант еще?

  • @IzviniChtoTraktor
    @IzviniChtoTraktor 2 года назад +3

    Спасибо,ты первый на моей памяти кто в тестах fh5 уточнил что трассировка работает только в гараже)

  • @Zeus-qz4or
    @Zeus-qz4or 2 года назад +16

    Лучшие техно блогеры по железу, ждал ваших тестов как свежего воздуха!!!) Супер!)

    • @sardors
      @sardors 2 года назад

      согласен

  • @HIIIZAAAAAA
    @HIIIZAAAAAA 2 года назад +1

    А я все ждал , когда же ты появишься ) Спс за обзор )

  • @AlexPimkin
    @AlexPimkin 2 года назад +2

    0:59 ошибка вместо Amper Turing написано

  • @DMNomaD
    @DMNomaD 2 года назад +2

    До нового года работы у вас непочатый край)) Тут и Интелы в двойном размере, и Амд тоже и с процами, и с картами. Я с вашими видео как Троя с процессорными ядрами - сколько ни дай, всё мало))

  • @Обовсём-э9х
    @Обовсём-э9х Год назад +2

    Всем привет. Возможно мой вопрос слега рановат, так как я решил пропустить сборку ПК на текущем поколении железа. Но в конце 2024, когда выйдет Интел 15 поколения, 5090 и 8900xtx я уже должен быть во всеоружии. Вопрос: действительно ли нужно уметь профессионально настраивать видюхи от красных чтобы они работали так как надо? просто отдать Хуангу туеву хучу денег мне не позволяет мозг, хотя деньги на крутой комп уже отложены... А вот после игрового ноутбука сидеть и шаманить над картой AMD мне как-то стремно, еще накосячу да сгорит GPU к х*ям... Поделитесь опытом использования карт красных, плиз. Я на психологическом уровне почему-то топлю за успех 8900xtx.
    Спасибо

    • @i2hard
      @i2hard  Год назад +1

      нет, не нужно. Никто не говорит, что софт амд - это плохо, мы лишь говорим о проблемах, с которыми можно столкнуться.

  • @blgDemon
    @blgDemon 2 года назад +5

    Какая температура в помещении была во время тестирования? И тесты производились на открытом стенде? Очень уж низкие температуры вышли, у меня такая же гига gaming OC, температуры в закрытом корпусе градусов на 6-7 повыше будут :) Память на +2000 это очень круто конечно, моя максимум +1000 может, дальше артефакты.

    • @Dmitryaga
      @Dmitryaga 2 года назад +1

      25 °С, открытый стенд

  • @Paul_Joseph_Goebbels
    @Paul_Joseph_Goebbels 2 года назад +4

    сделайте тесты по температуре нового разъема

    • @RollerGT
      @RollerGT 2 года назад

      Разъем ничто, температура всё! 😅

  • @RollerGT
    @RollerGT 2 года назад +3

    Ребята молодцы! Очень круто!!! Респект!
    И снова выше всяких ожиданий!

  • @itdonneo
    @itdonneo 2 года назад +2

    Очень качественный обзор. Давно такого качественного и главное по делу, обзора не видел! Смотрю Вас впервые ... С меня подписка и лайк!

    • @i2hard
      @i2hard  2 года назад

      Добро пожаловать :)

  • @lyutiybugay7669
    @lyutiybugay7669 2 года назад +3

    Спасибо за обзор, все очень качественно! Труд огромный, представляю сколько времени потратили. Кайф!

  • @DamirGalihan
    @DamirGalihan 2 года назад +6

    Как всегда, отличная работа! Спасибо!

  • @TheHellfireson
    @TheHellfireson 2 года назад +3

    Спасибо за видео! Только сегодня открыл для себя этот канал. Отличная дикция, хорошая подача и инфографика. Подписка!

  • @su35c
    @su35c 2 года назад +2

    Спасибо, очень ждал от вас обзора . 👍👍👍

  • @ANartikov
    @ANartikov 2 года назад +1

    Подскажите, а мониторинг MSI Afteburner?
    Вопрос по частоте памяти видеоакарты 4090, у вас отображается 20 000+ Мгц, а у меня, как и у многих других обзорщиов 10 000+Мгц. Я куда-то не туда смотрю?

    • @KolmykovVN
      @KolmykovVN 2 года назад +1

      20+ГГц - эффективная, мониторинг отображает реальную с какими-то коэффициентами, надо просто настроить АБ, мало кто это делает

  • @rrrhade8512
    @rrrhade8512 2 года назад +4

    Спасибо за труды! Ждал именно вашего обзора данной карты!👌

    • @i2hard
      @i2hard  2 года назад +2

      Спасибо.

    • @MultiDXmen
      @MultiDXmen 2 года назад

      @@i2hard на 9:32 ошибка в графике, да и после во многих местах)) графисту щелбан)

    • @i2hard
      @i2hard  2 года назад

      а в чем ошибка то?

    • @MultiDXmen
      @MultiDXmen 2 года назад

      @@i2hard я один это вижу? i120.fastpic.org/big/2022/1027/a1/116310f9315912043faa82e6e0a8b2a1.jpg?md5=xTMbCOC7_G1Gxq9-z7iCeg&expires=1666875600

    • @MultiDXmen
      @MultiDXmen 2 года назад

      @@i2hard я кажется допер, но графики у вас конечно неудобные по мне

  • @kagepc
    @kagepc 2 года назад

    Отличные тесты ! всегда смотрю тесты от вас лучше всех делайте , не знаю правда сколько времени нужно для того что бы сделать такой ролик )) но молодцы всегда смотрю тесты только от вас

  • @daemond9372
    @daemond9372 2 года назад +5

    Спасибо за подробный и информативный обзор! Узнал все, что хотел! Жду видео по DLSS3 и сравнение его со 2ой версией от вас

    • @solnik9154
      @solnik9154 2 года назад +1

      Да че там ждать. Это не длсс никакая а простая дорисовка кадров искуственная которая дико увеличивает инпут лаг

    • @dead_locked
      @dead_locked 2 года назад +3

      Нечего там с длсс2 сравнивать. Это совсем другая технология, которая никакого отношения к длсс не имеет. Очень тупой ход со стороны нвидии называть ее так и вводить людей в заблуждение.

    • @daemond9372
      @daemond9372 2 года назад

      @@dead_locked Кстати не видел информации о том, обновили ли именно сам dlss, а не только добавили frame generation в 3ей версии. + дорисовка кадра на основе motion векторов звучит как минимум интересно, понятно что добавляет input lag, но его и включать то стоит только в сингплеер играх, которые в сочетании с reflex по идее должны сделать игровой опыт лучше

    • @daemond9372
      @daemond9372 2 года назад

      @@solnik9154 Reflex по идее должен с этим помочь. В компетитив шутерах помогает, почему в синглах не сможет? + дорисовка насколько я понимаю идет не всего кадра между 2умя кадрами основного рендера, а только части на основе motion векторов

    • @namaz_na_1_meste
      @namaz_na_1_meste 2 года назад

      посмотри ХАРДВЕЙР АНБОКСЕД обзор на длсс 3.0.

  • @ASHENES
    @ASHENES 2 года назад +1

    а можно ли узнать какие проги для записи используются и было бы идеально узнать их настройки

    • @i2hard
      @i2hard  2 года назад +2

      MSI AB + RTSS + HWINFO + отдельный комп с картой захвата :)

    • @ASHENES
      @ASHENES 2 года назад

      @@i2hard аа понял) спасибо огромное что ответили) было очень интересно))

  • @vadzim9300
    @vadzim9300 2 года назад +5

    4090, хороша. Прирост, конечно, что по процессорной части, что по видео, что по рекомендуемым ценам за последние годы весьма и весьма заметный. Есть одно но, а игры где, ради которых хотелось бы сменить видеокарту, процессор, чтобы увидеть кардинально иную картину. Требования растут, но картинка на мониторе лучше не становится (я, например, про Plague tale requiem или, особенно, gotham knights) ?

    • @ЮрийТомин-ъ6э
      @ЮрийТомин-ъ6э 2 года назад +3

      В готеме картинка хуже, чем в предыдущем Бэтмене. А требования... Они давно уже никак не связаны с картинкой, а с прибылью компаний.

    • @TonyMPS3
      @TonyMPS3 2 года назад

      Играй в задроту 2 в 678888 фпс, теперь так и будет их стратегия увеличивать разрешение и не более

    • @stalker333312
      @stalker333312 2 года назад

      @@ЮрийТомин-ъ6э так суть в том, что похорошему увеличенная мощность позволяет тратить меньше сил на оптимизацию, что в свою очередь дает возможность улучшать геймплей и мир игры, но, к сожалению, компании так не считают

  • @nightshadow5328
    @nightshadow5328 2 года назад

    Подскажите, а подсветка у нее всегда горит или при запуске вертушек ? что всегда бесило на 2080 аурусах.

  • @gugdghdhjg2063
    @gugdghdhjg2063 2 года назад +3

    Долгожданный обзор, спасибо!

  • @snakeexepro
    @snakeexepro 2 года назад

    Подскажите что за приложение для тестов? Которое отображает телеметрию на экране!

    • @i2hard
      @i2hard  2 года назад

      MSI AB + RTSS + HWINFO

  • @namaz_na_1_meste
    @namaz_na_1_meste 2 года назад +1

    *А почему вы сравниваете ROG STRIX версию 3090 с обычной 6900XT?*
    *Почему нельзя выбрать Сапфир Нитро + или XFX или Рэд Девил или Нитро + PURE 6900XT ИЛИ 6950XT?*

    • @i2hard
      @i2hard  2 года назад

      что есть на руках, то и сравниваем. Это ж логично?

    • @namaz_na_1_meste
      @namaz_na_1_meste 2 года назад

      @@i2hard ну так то да, но не совсем, ведь это не прямое сравнение 1-х конкурентов.
      При прямом сравнении уже было бы точно не логично.

    • @i2hard
      @i2hard  2 года назад

      а где сказано, что сравнение первых конкурентов? Ну и вы всегда можете сделать так как хотите.

  • @skanta
    @skanta 2 года назад +2

    Ура! Дождались! Ждём в комментах гениальные шутки за 300 про размеры карты=)

  • @ГлэмДодж
    @ГлэмДодж Год назад

    Как сделать подсветку как на превьюхе, я уже все перепробовал через прогу rgb fusion. Но именно такай не получается

    • @i2hard
      @i2hard  Год назад

      никак, подсветка не управляется.

  •  2 года назад

    Будет ли обзор на программу project hydra для Ryzen'ов?

  • @OL0208
    @OL0208 2 года назад

    Скажите, как называется программа, мониторинга процессора и видеокарты в видео?

    • @i2hard
      @i2hard  2 года назад

      msI ab + rtss + hwinfo

  • @tegkgiof
    @tegkgiof 2 года назад +2

    Спасибо за видео. Сделайте пожалуйста более подробный тест в рабочем ПО. У вас был такой ролик, правда пару лет назад.

  • @daniiltselyuk4648
    @daniiltselyuk4648 2 года назад +5

    Можно было бы и тест этой карточки, чтобы узнать разницу при использовании к примеру бюджетного проц по типу 12600к и премиум сегмента 12900к. Большая ли будет разница? А то может получается что если покупаешь такую карточку, то надо иметь именно топовые все комплектующие

    • @valeravaleraje2521
      @valeravaleraje2521 2 года назад

      Тесты 12600к и 12900к уже есть, разница менее 10% при прочих равных. А так да 12900к элита, аж 10% прироста.

    • @МальвинаКотик-л1ъ
      @МальвинаКотик-л1ъ 2 года назад +1

      Нихуя себе 12600к бюджетный, для 95% это полная ложь. Но в сравнении с 4090, в проц действительно можно будет иногда упереться. Лучшей парой для неё будет 7000 линейка райзенов, особенно 3д версии которые выйдут в первой четверти следующего года и 13 линейка интел. Вторая опция, к сожалению, имеет смысл только для владельцев материнки на 1700 сокете

    • @NezaicVR
      @NezaicVR 2 года назад +2

      @@МальвинаКотик-л1ъ сейчас лучший проц для игр это 13600к, для 4к или 2к.

    • @МальвинаКотик-л1ъ
      @МальвинаКотик-л1ъ 2 года назад +4

      @@NezaicVR да, это отлично, только вот как только выйдет 7800х3д - интел объективно ничем не сможет ответить. Для людей типа меня закинуть 13600к в уже имеющуюся z690 плату это очевидный вариант, но для людей на АМ4/lga 1200.. Покупать з790 плату чтобы через 3 месяца узнать, что их карта может ещё больше, если купить ам5 плату - грустно. В этом случае мне кажется более логичным вложиться в ам5 с каким нибудь 7600х сейчас, а через 3 месяца поменять 7600х на 7800х3д.

    • @danitch6848
      @danitch6848 2 года назад

      В первую очередь нужен монитор 4к 120hz+

  • @Gulzira0939
    @Gulzira0939 2 года назад

    A podxodit li eta video karta na asus z590 i5 11400?

  • @Jammy_Lius
    @Jammy_Lius 2 года назад +2

    Спасибо за обзор! Очень интересно!

  • @olmix_x
    @olmix_x 2 года назад +2

    Спасибо за сравнение!

  • @АндрейПетренко-е5у
    @АндрейПетренко-е5у 2 года назад +1

    Как я понял во всех тестах игр без разгонов амд упирается в температуру от туда и статеры (может и фпс было бы выше будь нормальная температура)

    • @Dmitryaga
      @Dmitryaga 2 года назад

      Нет, статтеры не из-за температур

  • @VATNIK_HQ
    @VATNIK_HQ 2 года назад +2

    ОГОНЬ! Как всегда лайк! Помнится мне, раньше вы и E-ядра и P-ядра разгоняли немного выше чем сейчас. вроде 5.2Ghz было. Много они конечно не дадут, но почему решили сбавить обороты?

  • @MynameisSergey
    @MynameisSergey 2 года назад +1

    Вы молодцы. Спасибо за контент!

  • @ЛукаЧочия
    @ЛукаЧочия 2 года назад

    Подскажите, пожалуйста, через какую программу мониторинг процессов идет?

  • @serguei1029
    @serguei1029 2 года назад +7

    Снимите разницу в производительности между Z690 ASUS и Z790 ASUS с 13900К. Будет интересно.

    • @i2hard
      @i2hard  2 года назад +7

      будет, но сначала получим 13900

    • @serguei1029
      @serguei1029 2 года назад +1

      @@i2hard , отлично! Сам жду 13900К свой. У меня ASUS Z690F-Gaming Wi-Fi. Ходят слухи, что на Z690 в многопотоке результат на 25% ниже, чем на Z790. Но надо обязательно обновить прошивку Биос и Intel ME (!) с сайта производителя материнской платы на Z690.

    • @spidertech4014
      @spidertech4014 2 года назад +1

      @@serguei1029 да просто разница в стоковых лимитах, вот и всё

    • @serguei1029
      @serguei1029 2 года назад +2

      @@spidertech4014 , моя материнка из коробки без лимитов запускает процессоры)

    • @isaabuev7771
      @isaabuev7771 2 года назад +1

      @@serguei1029 это проблема у асуса новом обновление исправят по этому уже была инфа на msi такой проблемы нету

  • @phoneballon
    @phoneballon 2 года назад +2

    По поводу "бутылочного горлышка". Складывается впечатления, что у одних разработчиков игр руки прямые, а у других - жадные.

  • @ЕвгенийФедулов-с6р
    @ЕвгенийФедулов-с6р 2 года назад +4

    I2HARD, БОЛЬШАЯ ПРОСЬБА! Когда будете делать сюжет о DLSS 3.0, не забудьте рассказать про INPUT LAG (задержки), которые вырастают при его включении! PRO Hi-TECH о них рассказали! Спасибо!

    • @dead_locked
      @dead_locked 2 года назад +1

      Они и так об этом в курсе, естественно эта тема будет краеугольной при анализе генерации кадров

    • @ЕвгенийФедулов-с6р
      @ЕвгенийФедулов-с6р 2 года назад +1

      @@dead_locked не знаю, не знаю... Её могут не затронуть... Хотя от 8 до 12 миллисекунд задержки при включении DLSS 3.0 - это очень много!

  • @an1xr
    @an1xr 2 года назад +2

    Тесты в 2к и 4к лучше производить подряд для каждой игры, а то к моменту теста в 4к уже забываешь фпс в 2к и сложно оценить изменения

  • @Ruslan-Night
    @Ruslan-Night 2 года назад +1

    Чем грозит Hot Spot 105 градусов для RX 6900XT???
    У меня 6600xt и она тоже временами доходит до 100 а то 110 градусов самой горячей точки - игры тянет на ультра но,ТЕМПЕРАТУРА ЖЕСТЬ.

    • @Dmitryaga
      @Dmitryaga 2 года назад

      Ускоренной деградацией чипа

    • @russian_soup
      @russian_soup 2 года назад

      Быстрой деградацией чипа

    • @Foxikdot
      @Foxikdot 2 года назад

      Пределом хотспота считается 110С. Если доходит до выше 100С, то стоит продуть карту/озаботиться продувом корпуса/вручную повысить обороты кулера на карте.

    • @russian_soup
      @russian_soup 2 года назад

      @@Foxikdot Мне кажется в его случае лучше задуматься о смене производителя видеокарты

    • @Foxikdot
      @Foxikdot 2 года назад

      @@russian_soup интересно, что у него за производитель. Худший хотспот, что я видел в обзорах на 6600XT - 98C у XFX Merc 308. Правда, у неё и уровень шума предельно низкий. Я бы всё таки поставил на условия, в которых эксплуатируется его карточка.

  • @МилютинАлексей-и4р
    @МилютинАлексей-и4р 2 года назад

    Добрый день! вопрос немного не по теме , но вижу в тестах , у rx 6900 температура чипа 80гр , а хот спот 100, хотелось бы ваше мнение у знать , это нормально? сам недавно обзавелся 6800xt и там похожая ситуация в стоке

    • @namaz_na_1_meste
      @namaz_na_1_meste 2 года назад

      Сапфир Нитро + бери, у них охлад збсь

  • @3243-v3n
    @3243-v3n 2 года назад +2

    По сути прирост производительности только от перехода на 4нм тсмс увеличение cuda rops tmus, ну и мелких улучшений

    • @CyrilIND
      @CyrilIND 2 года назад

      да, куртка вообще не парился. Тоже есть ощущение халтурности этого поколения несмотря на прирост 60-70%

  • @slavik_583
    @slavik_583 2 года назад

    Какую программу вы используете для мониторинга?

    • @Dmitryaga
      @Dmitryaga 2 года назад

      MSI AB + RTSS + HWiNFO

  • @viktorsamoilov4794
    @viktorsamoilov4794 2 года назад

    Спасибо ! А когда будет такое же сравнение новых процев ?

    • @i2hard
      @i2hard  2 года назад +1

      в процессе тесты

  • @VargoDan
    @VargoDan 2 года назад +2

    Могуче, да. 4090 сейчас в Регарде за 155к лежит. Но по хорошему, он нужен только при игре на 4к. Для всего остального есть 3070 за 40к в том же Регарде.

  • @lalalaaala55
    @lalalaaala55 2 года назад +1

    Плохо, что в итоговом резкие не сказали, что новая карта на вырост. Сейчас нет мощного процессора, который полностью выжмет соки из карты. Ну, по крайне мере для QHD.

  • @pookano
    @pookano 2 года назад

    А как вы убрали фризы в играх на 12900к? Я к тому, что из-за ерор-ядер у меня фризы были на 12700ф, т.к. на десятке иногда нагрузка кидалась на них

  • @reznik63
    @reznik63 Год назад

    брат где музыку берешь

  • @ОрбитДыня-Черемша
    @ОрбитДыня-Черемша 2 года назад

    14:30 как понять, что упор в процессор? Тут же колебание 60-80%, а не 98%

    • @sanyacev
      @sanyacev 2 года назад

      По загрузке видеокарты.
      А проценты, которые ты указываешь это загрузка одного потока. Второй столбец показывает общую многопоточную нагрузку.

    • @darkonesgift
      @darkonesgift 2 года назад

      Упор в процессор не значит, что он обязательно должен быть загружен на 100%. В видео говорится об упоре в производительность ядер процессора.

  • @ЕвгенийТрешков-к6р
    @ЕвгенийТрешков-к6р 2 года назад +8

    Спс огромное за обзор
    Ещё раз убедился бу рх 6900хт с Авито за 45000. Топ среди топов. )) Ждём 4070 по 60к

    • @PVP_58
      @PVP_58 2 года назад +2

      +Взял сапфировский 6900 XT Nitro + с Авито за 46000 с гарантией до 24 года.Да 3090 и 4090 мощнее,но вы сможете их взять за 45-47к???Вот и хрен то что нет,а для моего моника Huawei 165гц 2к разрешение, 6900xt вполне хватает.

    • @ЕвгенийТрешков-к6р
      @ЕвгенийТрешков-к6р 2 года назад +1

      @@PVP_58 если не сложно можно линк продавца?! На Авито на эти 6900

    • @СергейСергеев-с3ь1л
      @СергейСергеев-с3ь1л 2 года назад +1

      Я с озона взял новую за 48к.

    • @ВикторБухаров-ф3ь
      @ВикторБухаров-ф3ь 2 года назад

      @@PVP_58 а зачем мне 3090 когда есть 3080ти Которая даже чуть мощнее и жрет меньше

    • @ВикторБухаров-ф3ь
      @ВикторБухаров-ф3ь 2 года назад

      @@PVP_58 а 3080 ти за 50 к можно забрать бу))

  • @skanta
    @skanta 2 года назад +8

    Спасибо за обзор! Как всегда на отлично всё сделали. Цена пока дикая, но если вся линейка будет холоднее предыдущей, то это будет просто кайф. правда цены будут кусаться, но что же тут поделаешь...

  • @SergeiPoroh
    @SergeiPoroh 2 года назад +2

    Спасибо огромное за проделанный труд.
    Мое почтение.👍👍👍

  • @ЕвгенийТимофеев-у8б
    @ЕвгенийТимофеев-у8б 2 года назад +3

    4090 космос. Как по производительности, так и по цене. Хотелось бы взглянуть на что-нибудь вроде 4070Ti, как на нечто более близкое по цене к простым смертным )

  • @User126r
    @User126r Год назад

    Если кто разбирается... Подскажите утилиту для разгона видеокарт. Нужно снизить напряжение видеопамяти.

    • @xcvqh
      @xcvqh Год назад

      нельзя её снизить

  • @Mikesequell
    @Mikesequell 2 года назад

    А ре бар и сам были включены в тестах?

    • @i2hard
      @i2hard  2 года назад +1

      да, об этом в видео сказали.

  • @one5929
    @one5929 2 года назад +1

    Отличный обзор! То есть получается, что если не планируешь 4к, то 3090ти за 80-85к это норм выбор?

    • @an1xr
      @an1xr 2 года назад +2

      Тогда уж лучше 3080ti за 55

    • @AlexGun1st
      @AlexGun1st 2 года назад +1

      @@an1xr На хрен нужен этот обрубок 3080ti, если уж экономить и не целится в 4к, то проще взять обычную 3080 которая будет ощутимо дешевле. Ну а если нужна хорошая карта, то это 3090ti и только она. если не хватает на 4090 конечно.

    • @an1xr
      @an1xr 2 года назад

      @@AlexGun1st потому что 3080 поголовно ужаренные в майнинге и отстает она от 3080ti прилично (3080ti как 3090 фпс дает)

  • @TheMotoneon
    @TheMotoneon 2 года назад

    750W Deepcool PQ750M Gold хватит ? Только 3 пин 8 есть. Процессор 5600Х. Планирую андервольт. Думаю при жоре около 400вт должно работать.

    • @i2hard
      @i2hard  2 года назад +1

      850W дипкул выбивало.

    • @KolmykovVN
      @KolmykovVN 2 года назад +2

      @@i2hard выбивало в защиту с 3090, с 4090 должно быть лучше и может даже и хватить

    • @Nikolay_PPP
      @Nikolay_PPP 2 года назад

      А зачем 4090 ставить к 5600x??? Не слишком ли будет??

  • @ЮрийТомин-ъ6э
    @ЮрийТомин-ъ6э 2 года назад +1

    Вы там того, берегите себя, оборудование и помещение от пожара.

  • @inherency
    @inherency 2 года назад +4

    Интересно как на 5800x3D будет :)

    • @i2hard
      @i2hard  2 года назад

      также

  • @Arataur
    @Arataur 2 года назад

    Имею 3050 и 12400 - планирую обновляться на 4060 когда она выйдет. И вот интересно, а не будет ли и там упора в мой проц? А то как то я аж испугался увидев упор в процессор 12900 в 4к разрешении...

    • @sanyacev
      @sanyacev 2 года назад

      Не будет. А если будет, то можно и сглаживание msaa накрутить или поставить более высокое разрешение

    • @darkonesgift
      @darkonesgift 2 года назад

      Будет зависеть от игры и разрешения на котором играешь. Чем старее игра, тем больше будет упор в производительность ядер проца.

    • @ВикторБухаров-ф3ь
      @ВикторБухаров-ф3ь 2 года назад

      4080 имеет производительность как у 3080 ti а условно 4070 ти будет на чу чуть лучше 3080 обычной думаю как и обычно 4060 будет на уровне 3070
      А теперь иди смотреть производительность 3070 или 3060 ти и думай хватит или нет)

  • @alexanderrebane1637
    @alexanderrebane1637 2 года назад +1

    Прекрасный обзор, спасибо !!!

  • @legion1373
    @legion1373 2 года назад +4

    ИМХО, мне кажется проблема не в процах, а в оптимизации движков. Т.к ну очень странно выглядит, что топовый 12900к с гигансткой мощностью на ядро и с таким количеством ядер не может подготовить больше кадров. Больше похоже, что движок игры сам душит большее количество кадров.

    • @АндрейДерябин-м6е
      @АндрейДерябин-м6е 2 года назад +1

      Карта слишком мощная для 1440р в современных играх, только и всего.
      Это знаете, как запустить 3050+i9 в 480p и говорить: не может быть, что такого проца не хватает, для загрузки карты, наверное это движок ее душит... :)

    • @legion1373
      @legion1373 2 года назад +1

      @@АндрейДерябин-м6е Я бы не сказал, в нативе с лучами и моником 165Гц самое то как раз. Что там такого не может отрисовать 12900К? Вот что? Игры страше этого проца...знаете где еще проц не может отрисовать...гта 4...ой, так там оптимизация кривая и почти все новые карты недогруженые...что, опять проц слабый? Только вот на вулкане в гта4 почему-то гпу уже догружается нормально, вот чудеса то.

    • @АндрейДерябин-м6е
      @АндрейДерябин-м6е 2 года назад +1

      @@legion1373 Я основной принцип объяснил. По поводу ГТА4 ничего сказать не могу.

  • @ДенисВолков-л2ъ
    @ДенисВолков-л2ъ Год назад

    Блока питания на 750 Ватт хватит для 4090?

  • @Ser_VD
    @Ser_VD 2 года назад +2

    Спасибо большое за видео! Всегда жду именно Ваши видео, лучший контент такого типа во всем ютубе, такого разбора вопроса и подачи информации нет ни у одних "техно-блоггеров" с дахреналионом подписчиков и кучей железок от производителей, все какаие-то бесполезные графики, куча воды, отсутствие необходимой инфы, 90% из них температуру памяти карт вообще не считают нужным озвучивать... Спасибо еще раз, отличный контент.
    З.Ы. Графики у Вас в FPS-Monitor сделаны? если да, можно ли скачать Ваш пересет, или программа этого не умеет?

    • @i2hard
      @i2hard  2 года назад

      Замеры производятся MSI AB + RTSS + HWINFO, графики делает отдельный небольшой сайт.

    • @Ser_VD
      @Ser_VD 2 года назад

      @@i2hard Понял, спасибо большое за ответ!

  • @-yorcs
    @-yorcs 2 года назад

    У меня очень интересный и волнующий вопрос , почему у меня в форзе Хорайзен 5 на 3070ти ОС с коробки с дефолтныи повер лимитом 130-150 ФПС а на 4090 176 даже 3090 не показала столько ФПС сколько у меня , причем я бы приложил скрины но на Ютубе нельзя к сожелению, процесор у меня r9 5900x

    • @i2hard
      @i2hard  2 года назад

      Настройки графики?)

  • @crystal-_-antipathy7407
    @crystal-_-antipathy7407 2 года назад +1

    Кайф обзор.От души!)

  • @kachekbitsushkin8405
    @kachekbitsushkin8405 2 года назад

    Эх куда делись тесты на топовых отборных камнях 5.2 5.3ггц и с максимальным упором в гпу 4к

  • @hajiman3612
    @hajiman3612 2 года назад +1

    не понял, а где тест в майнкрафт ртх

  • @Hoka613
    @Hoka613 2 года назад +1

    Молодцы парни-красавы!!! Спасибо за обзор!! Росту каналу и чтоб вам вендоры побольше железок засылали!!!

  • @Voronkov_Pavel
    @Voronkov_Pavel 2 года назад +4

    Класс, как всегда, все на высшем уровне! Спасибо за тесты!

  • @RicoChicoMan
    @RicoChicoMan 2 года назад +4

    При разнице в цене RX6900xt и RTX3090, первая очень хороший результат выдаёт.

    • @ykpona_B_pom_MoJlomumb
      @ykpona_B_pom_MoJlomumb 2 года назад +1

      3900?? Новая карта что ли?))

    • @RicoChicoMan
      @RicoChicoMan 2 года назад

      @@ykpona_B_pom_MoJlomumb какая разница. В цене дело

    • @ykpona_B_pom_MoJlomumb
      @ykpona_B_pom_MoJlomumb 2 года назад +1

      @@RicoChicoMan про цену я знаю, у самого 6900xt, если душно открой форточку

  • @rikitikitavi89
    @rikitikitavi89 2 года назад

    Не зря подписан, глянул обзор Мурка, так он не удосужился выключить в тестах DLSS 🤦 Тут хоть всё грамотно, глянул нормально сравнение.

  • @Foxikdot
    @Foxikdot 2 года назад +3

    Самый очевидный вывод из видео - 6900XT офигенна.

  • @МаксимЛогинов-ф7г
    @МаксимЛогинов-ф7г 2 года назад

    Крутой рывок производительности! Так это что, небольшой андервольтинг позволяет сбить энергопотребление 4090 почти на 100 ватт? Может быть это и решает проблему плавящихся коннекторов питания?

    • @MrIcyWind
      @MrIcyWind 2 года назад

      Проблема не в мощности как таковой, а в том, что NVIDIA закупила некачественные переходники и она это уже официально признала. В сети есть фото этих вскрытых переходников, там толстые жилы припаяны к тонкой фольге точечно, особенно страдают крайние провода.

  • @mikedakor8492
    @mikedakor8492 2 года назад +1

    Начали всплывать подробности, что на 4090 плавится разъем питания. Если информации для ролика будет достаточно, что с удовольствием посмотрел бы его на вашем канале 👍

  • @Мурад-ь1д
    @Мурад-ь1д 2 года назад +1

    Ждал ваши тесты
    Жду процы 7700х и 13700к

  • @theSeventhDruid
    @theSeventhDruid 2 года назад +1

    Лихо конечно куртка достал из рукава свой главный козырь - фабрику TSMC.. На самсунге была бы такая печь, что мало бы никому не показалось.

  • @gariknana119
    @gariknana119 2 года назад +2

    Здравствуйте! Купил на днях 4090 gigabyte на замену 3080. И разница в hunt showdown 15-30 фпс~150) посмотрел вот и понял, что скорее всего дело в процессоре слабоват 10700к

    • @Dmitryaga
      @Dmitryaga 2 года назад +1

      ruclips.net/video/35PcR6xrh0c/видео.html

    • @gariknana119
      @gariknana119 2 года назад

      @@Dmitryaga стоит ryzen этот взять или 12900-13900 взять ?
      И реально из-за процессора такая разница в фпс? У меня,на ультрах в 2к прыгает бывает до 200, но среднее это 130. Бывает до 110. А так процессор 10700к и 32 ддр 4

    • @KolmykovVN
      @KolmykovVN 2 года назад +1

      @@gariknana119 сначала стоит попробовать разогнать память и настроить все тайминги

    • @gariknana119
      @gariknana119 2 года назад

      @@KolmykovVN я понял. Озадачусь

    • @Dmitryaga
      @Dmitryaga 2 года назад +1

      @@gariknana119 если нужен максимум в ханте - 3д бест бай, как говорится. Однако новые процы красных и синих не тестили ещё

  • @S0m380dy
    @S0m380dy 2 года назад

    Автор, проверьте, пожалуйста, названия в показателях графиков скорости кадров: кажется, 3090 и 4090 перепутаны местами

    • @i2hard
      @i2hard  2 года назад

      кажется, будьте внимательны)

    • @S0m380dy
      @S0m380dy 2 года назад

      @@i2hard Хм, всё верно, не перепутаны, спасибо и пардон.
      Но, ИМХО, графики не интуитивно оформлены: плашки с видюхами (выполняющие роль цветовой легенды столбцов графика) расположены аккурат под столбцами (AVG / 1% / 0.1%) + совпадают с размером самих столбцов --> как бы связывая столбцы с "плашками". Если на паузе специально не всматриваться-перепроверять - то возникает недоумение.
      p.s. огромное спасибо в целом за вашу работу и этот ролик в частности.

  • @Newtab_chrome
    @Newtab_chrome 2 года назад +2

    Разъем конечно имба! Плавится он быть здоров

  • @slik2.078
    @slik2.078 2 года назад +3

    4070 жду...ждал бы 4060, но боюсь не доживу...

  • @norz3nof
    @norz3nof 2 года назад +1

    Как всегда отличные тесты )) Ждёмс 13ый Интел)

  • @darkonesgift
    @darkonesgift 2 года назад

    Сегодня тестов 7600X не будет?

    • @i2hard
      @i2hard  2 года назад

      сегодня нет, но скоро будут.

  • @Жека-т8ы
    @Жека-т8ы 2 года назад

    добрый день! когда видео обзоров новых райзенов и интел? как бы стрим многочасовой,и бесконечные разговоры не хватает сил смотреть.хочется ролик подобный этому, коротко, сжато. факты сравнения

    • @i2hard
      @i2hard  2 года назад +1

      Закончили с 4090 и взялись за райзены

    • @Жека-т8ы
      @Жека-т8ы 2 года назад

      @@i2hard спасибо! Ждём!