hunt showdown не валидный тест! По чесноку надо показывать как в онлайне просаживается до 20 fps Причем видно это в родном мониторинге игры Например как здесь: ruclips.net/video/zl08E8DCqio/видео.html Понятно что просадки идут из за проца, но мы ждем вашего честного обзора на 13900К, может у него с просадками будет получше. Пока что лучше всего хант тащит 5800x3d
@@DmitriyK2012 Учитывая то, что даже при 1440p в большинстве игр карта уже была недогружена, то дальнейшее снижение разрешение бессмысленно при тесте данного видика. Это уже будет тест проца, а не видика.
@@GloryToUkrainianRus роиси. На самом деле, в Украине тоже, не богачи живут. Абсолютно такие же бедные люди, так же, как и в других странах бывшего снг, почти во всех. Народ везде бедный. Сказать спасибо нужно совку и террористам в рф. Лишь единицы есть, кто могут позволить себе такие вещи.
@@aleksfreeman3627 не нужно сравнивать нищий и слабый умом и духом народ россии с народом работящих украинцев. Я себе могу позволить дорогие вещи. Почему россиянин не может этого сделать? Все просто
Нужно соединить карты по hdmi выходам в тройник сплиттер сигналов,а четвертый хвост видеовывод в монитор, чье изображение будет пробиваться на экран тот и победил. Аналогично битве тракторов сцепленных тросом, вот это будет интересный батл.
В qhd и 3080Ti не плохо справляется. У 4090 по причине отстойного кабеля питания 12vhpwr плавятся коннекторы, как минимум уже 4 таких случая есть за 2 дня.
Ого! Вот это обзор! Просто титаническая работа. В целом прирост не удивителен, если учесть как отличаются внутренности чипов. Забавно выглядят упоры в процессор. Теперь нам нужен 13900К в разгоне =D Спасибо за проделанную работу.
@@mw2k6 Ну да, тут и пригодится поддержка DDR4 на 13900К, или стоп - это мимо и такая поддержка нужна только чтобы хвалиться в комментариях что надо поэтому брать интел а дорогая и не нужная ДДР5 нужна только для 7000 райзенов?
17:52 В презентации когда показывали киберпанк был 4к Psycho с новым RTX Overdrive режимом (возможно оно выйдет с новым DLC или в каких-то обновлениях). Вот и 22 фпс
Впервые слышу что поднимается проблема с упором в проц на 12900к, так что реально спасибо за новую информацию. На фоне упора в проц стоит ли ждать перетест с новыми процессорами? (13900к, 7950х)
Там упор не в проц, а в разрешение экрана. При 4к упора в проц нет (я не считаю колебания загрузки карты 95-99 % упором в проц, это вполне разумная погрешность). В проц может быть упиралось, если бы там стоял какой-нибудь 10700k
Топовый обзор, сложно к чему-либо придраться Слишком всё педантично) кайф) Протестируйте, пожалуйста, 4090 на разных платформах Ам5 и топы 12900к и 13900к, чтобы выявить ботлнек в разных разрешениях Было бы очень интересно на это посмотреть А так же можно будет выяснить как сильно влияет разгон памяти при упоре в процессор)
@@AlexanderMinaevFast пентиум 4))))) не ну аче 9900 не проц что-ли? вполне сурьёзный камень. по моему это тупо его выбрасывать и менять на новый. так без штанов останемся, если каждые два года менять.
До нового года работы у вас непочатый край)) Тут и Интелы в двойном размере, и Амд тоже и с процами, и с картами. Я с вашими видео как Троя с процессорными ядрами - сколько ни дай, всё мало))
Всем привет. Возможно мой вопрос слега рановат, так как я решил пропустить сборку ПК на текущем поколении железа. Но в конце 2024, когда выйдет Интел 15 поколения, 5090 и 8900xtx я уже должен быть во всеоружии. Вопрос: действительно ли нужно уметь профессионально настраивать видюхи от красных чтобы они работали так как надо? просто отдать Хуангу туеву хучу денег мне не позволяет мозг, хотя деньги на крутой комп уже отложены... А вот после игрового ноутбука сидеть и шаманить над картой AMD мне как-то стремно, еще накосячу да сгорит GPU к х*ям... Поделитесь опытом использования карт красных, плиз. Я на психологическом уровне почему-то топлю за успех 8900xtx. Спасибо
Какая температура в помещении была во время тестирования? И тесты производились на открытом стенде? Очень уж низкие температуры вышли, у меня такая же гига gaming OC, температуры в закрытом корпусе градусов на 6-7 повыше будут :) Память на +2000 это очень круто конечно, моя максимум +1000 может, дальше артефакты.
Подскажите, а мониторинг MSI Afteburner? Вопрос по частоте памяти видеоакарты 4090, у вас отображается 20 000+ Мгц, а у меня, как и у многих других обзорщиов 10 000+Мгц. Я куда-то не туда смотрю?
Отличные тесты ! всегда смотрю тесты от вас лучше всех делайте , не знаю правда сколько времени нужно для того что бы сделать такой ролик )) но молодцы всегда смотрю тесты только от вас
Нечего там с длсс2 сравнивать. Это совсем другая технология, которая никакого отношения к длсс не имеет. Очень тупой ход со стороны нвидии называть ее так и вводить людей в заблуждение.
@@dead_locked Кстати не видел информации о том, обновили ли именно сам dlss, а не только добавили frame generation в 3ей версии. + дорисовка кадра на основе motion векторов звучит как минимум интересно, понятно что добавляет input lag, но его и включать то стоит только в сингплеер играх, которые в сочетании с reflex по идее должны сделать игровой опыт лучше
@@solnik9154 Reflex по идее должен с этим помочь. В компетитив шутерах помогает, почему в синглах не сможет? + дорисовка насколько я понимаю идет не всего кадра между 2умя кадрами основного рендера, а только части на основе motion векторов
4090, хороша. Прирост, конечно, что по процессорной части, что по видео, что по рекомендуемым ценам за последние годы весьма и весьма заметный. Есть одно но, а игры где, ради которых хотелось бы сменить видеокарту, процессор, чтобы увидеть кардинально иную картину. Требования растут, но картинка на мониторе лучше не становится (я, например, про Plague tale requiem или, особенно, gotham knights) ?
@@ЮрийТомин-ъ6э так суть в том, что похорошему увеличенная мощность позволяет тратить меньше сил на оптимизацию, что в свою очередь дает возможность улучшать геймплей и мир игры, но, к сожалению, компании так не считают
*А почему вы сравниваете ROG STRIX версию 3090 с обычной 6900XT?* *Почему нельзя выбрать Сапфир Нитро + или XFX или Рэд Девил или Нитро + PURE 6900XT ИЛИ 6950XT?*
Можно было бы и тест этой карточки, чтобы узнать разницу при использовании к примеру бюджетного проц по типу 12600к и премиум сегмента 12900к. Большая ли будет разница? А то может получается что если покупаешь такую карточку, то надо иметь именно топовые все комплектующие
Нихуя себе 12600к бюджетный, для 95% это полная ложь. Но в сравнении с 4090, в проц действительно можно будет иногда упереться. Лучшей парой для неё будет 7000 линейка райзенов, особенно 3д версии которые выйдут в первой четверти следующего года и 13 линейка интел. Вторая опция, к сожалению, имеет смысл только для владельцев материнки на 1700 сокете
@@NezaicVR да, это отлично, только вот как только выйдет 7800х3д - интел объективно ничем не сможет ответить. Для людей типа меня закинуть 13600к в уже имеющуюся z690 плату это очевидный вариант, но для людей на АМ4/lga 1200.. Покупать з790 плату чтобы через 3 месяца узнать, что их карта может ещё больше, если купить ам5 плату - грустно. В этом случае мне кажется более логичным вложиться в ам5 с каким нибудь 7600х сейчас, а через 3 месяца поменять 7600х на 7800х3д.
ОГОНЬ! Как всегда лайк! Помнится мне, раньше вы и E-ядра и P-ядра разгоняли немного выше чем сейчас. вроде 5.2Ghz было. Много они конечно не дадут, но почему решили сбавить обороты?
@@i2hard , отлично! Сам жду 13900К свой. У меня ASUS Z690F-Gaming Wi-Fi. Ходят слухи, что на Z690 в многопотоке результат на 25% ниже, чем на Z790. Но надо обязательно обновить прошивку Биос и Intel ME (!) с сайта производителя материнской платы на Z690.
I2HARD, БОЛЬШАЯ ПРОСЬБА! Когда будете делать сюжет о DLSS 3.0, не забудьте рассказать про INPUT LAG (задержки), которые вырастают при его включении! PRO Hi-TECH о них рассказали! Спасибо!
Чем грозит Hot Spot 105 градусов для RX 6900XT??? У меня 6600xt и она тоже временами доходит до 100 а то 110 градусов самой горячей точки - игры тянет на ультра но,ТЕМПЕРАТУРА ЖЕСТЬ.
Пределом хотспота считается 110С. Если доходит до выше 100С, то стоит продуть карту/озаботиться продувом корпуса/вручную повысить обороты кулера на карте.
@@russian_soup интересно, что у него за производитель. Худший хотспот, что я видел в обзорах на 6600XT - 98C у XFX Merc 308. Правда, у неё и уровень шума предельно низкий. Я бы всё таки поставил на условия, в которых эксплуатируется его карточка.
Добрый день! вопрос немного не по теме , но вижу в тестах , у rx 6900 температура чипа 80гр , а хот спот 100, хотелось бы ваше мнение у знать , это нормально? сам недавно обзавелся 6800xt и там похожая ситуация в стоке
Могуче, да. 4090 сейчас в Регарде за 155к лежит. Но по хорошему, он нужен только при игре на 4к. Для всего остального есть 3070 за 40к в том же Регарде.
Плохо, что в итоговом резкие не сказали, что новая карта на вырост. Сейчас нет мощного процессора, который полностью выжмет соки из карты. Ну, по крайне мере для QHD.
+Взял сапфировский 6900 XT Nitro + с Авито за 46000 с гарантией до 24 года.Да 3090 и 4090 мощнее,но вы сможете их взять за 45-47к???Вот и хрен то что нет,а для моего моника Huawei 165гц 2к разрешение, 6900xt вполне хватает.
Спасибо за обзор! Как всегда на отлично всё сделали. Цена пока дикая, но если вся линейка будет холоднее предыдущей, то это будет просто кайф. правда цены будут кусаться, но что же тут поделаешь...
4090 космос. Как по производительности, так и по цене. Хотелось бы взглянуть на что-нибудь вроде 4070Ti, как на нечто более близкое по цене к простым смертным )
@@an1xr На хрен нужен этот обрубок 3080ti, если уж экономить и не целится в 4к, то проще взять обычную 3080 которая будет ощутимо дешевле. Ну а если нужна хорошая карта, то это 3090ti и только она. если не хватает на 4090 конечно.
Имею 3050 и 12400 - планирую обновляться на 4060 когда она выйдет. И вот интересно, а не будет ли и там упора в мой проц? А то как то я аж испугался увидев упор в процессор 12900 в 4к разрешении...
4080 имеет производительность как у 3080 ti а условно 4070 ти будет на чу чуть лучше 3080 обычной думаю как и обычно 4060 будет на уровне 3070 А теперь иди смотреть производительность 3070 или 3060 ти и думай хватит или нет)
ИМХО, мне кажется проблема не в процах, а в оптимизации движков. Т.к ну очень странно выглядит, что топовый 12900к с гигансткой мощностью на ядро и с таким количеством ядер не может подготовить больше кадров. Больше похоже, что движок игры сам душит большее количество кадров.
Карта слишком мощная для 1440р в современных играх, только и всего. Это знаете, как запустить 3050+i9 в 480p и говорить: не может быть, что такого проца не хватает, для загрузки карты, наверное это движок ее душит... :)
@@АндрейДерябин-м6е Я бы не сказал, в нативе с лучами и моником 165Гц самое то как раз. Что там такого не может отрисовать 12900К? Вот что? Игры страше этого проца...знаете где еще проц не может отрисовать...гта 4...ой, так там оптимизация кривая и почти все новые карты недогруженые...что, опять проц слабый? Только вот на вулкане в гта4 почему-то гпу уже догружается нормально, вот чудеса то.
Спасибо большое за видео! Всегда жду именно Ваши видео, лучший контент такого типа во всем ютубе, такого разбора вопроса и подачи информации нет ни у одних "техно-блоггеров" с дахреналионом подписчиков и кучей железок от производителей, все какаие-то бесполезные графики, куча воды, отсутствие необходимой инфы, 90% из них температуру памяти карт вообще не считают нужным озвучивать... Спасибо еще раз, отличный контент. З.Ы. Графики у Вас в FPS-Monitor сделаны? если да, можно ли скачать Ваш пересет, или программа этого не умеет?
У меня очень интересный и волнующий вопрос , почему у меня в форзе Хорайзен 5 на 3070ти ОС с коробки с дефолтныи повер лимитом 130-150 ФПС а на 4090 176 даже 3090 не показала столько ФПС сколько у меня , причем я бы приложил скрины но на Ютубе нельзя к сожелению, процесор у меня r9 5900x
Крутой рывок производительности! Так это что, небольшой андервольтинг позволяет сбить энергопотребление 4090 почти на 100 ватт? Может быть это и решает проблему плавящихся коннекторов питания?
Проблема не в мощности как таковой, а в том, что NVIDIA закупила некачественные переходники и она это уже официально признала. В сети есть фото этих вскрытых переходников, там толстые жилы припаяны к тонкой фольге точечно, особенно страдают крайние провода.
Начали всплывать подробности, что на 4090 плавится разъем питания. Если информации для ролика будет достаточно, что с удовольствием посмотрел бы его на вашем канале 👍
Здравствуйте! Купил на днях 4090 gigabyte на замену 3080. И разница в hunt showdown 15-30 фпс~150) посмотрел вот и понял, что скорее всего дело в процессоре слабоват 10700к
@@Dmitryaga стоит ryzen этот взять или 12900-13900 взять ? И реально из-за процессора такая разница в фпс? У меня,на ультрах в 2к прыгает бывает до 200, но среднее это 130. Бывает до 110. А так процессор 10700к и 32 ддр 4
@@i2hard Хм, всё верно, не перепутаны, спасибо и пардон. Но, ИМХО, графики не интуитивно оформлены: плашки с видюхами (выполняющие роль цветовой легенды столбцов графика) расположены аккурат под столбцами (AVG / 1% / 0.1%) + совпадают с размером самих столбцов --> как бы связывая столбцы с "плашками". Если на паузе специально не всматриваться-перепроверять - то возникает недоумение. p.s. огромное спасибо в целом за вашу работу и этот ролик в частности.
добрый день! когда видео обзоров новых райзенов и интел? как бы стрим многочасовой,и бесконечные разговоры не хватает сил смотреть.хочется ролик подобный этому, коротко, сжато. факты сравнения
Инфа только между нами: с графиками все ок. Только тсссс, никому. Пусть дальше пишут в комментариях :)
I9 13900k заказали с Али?
hunt showdown не валидный тест!
По чесноку надо показывать как в онлайне просаживается до 20 fps
Причем видно это в родном мониторинге игры
Например как здесь: ruclips.net/video/zl08E8DCqio/видео.html
Понятно что просадки идут из за проца, но мы ждем вашего честного обзора на 13900К, может у него с просадками будет получше. Пока что лучше всего хант тащит 5800x3d
А почему танки не снимаешь 2ту хард жду видео
а сколько система с 12900kf 4090 c водянкой и пару доп вентелятороми будет кушать?
@@RFNC_Its это не важно у меня например розетка бесплатная для майнинга все было сделано
Тесты в играх на любой вкус - в 1440p и в 4к, с RT и без, с андервольтом и разгоном - кайф😍👍
1080p нехватает
@@DmitriyK2012 Учитывая то, что даже при 1440p в большинстве игр карта уже была недогружена, то дальнейшее снижение разрешение бессмысленно при тесте данного видика. Это уже будет тест проца, а не видика.
ну что ж, время моего любимого развлечения - просмотра обзоров на вещи, которые я никогда в жизни себе не куплю.
это все потому, что ты из росии
@@GloryToUkrainianRus роиси. На самом деле, в Украине тоже, не богачи живут. Абсолютно такие же бедные люди, так же, как и в других странах бывшего снг, почти во всех. Народ везде бедный. Сказать спасибо нужно совку и террористам в рф. Лишь единицы есть, кто могут позволить себе такие вещи.
@@aleksfreeman3627 не нужно сравнивать нищий и слабый умом и духом народ россии с народом работящих украинцев. Я себе могу позволить дорогие вещи. Почему россиянин не может этого сделать? Все просто
@@aleksfreeman3627 вы рабы
@@aleksfreeman3627 свинина
Вы, конечно, красавчики, что смогли сделать обзор на видеокарту, но какой крутой был бы караоке-баттл между техноблоггерами по цене этой видюхи...
Пошумим блять!!
Нужно соединить карты по hdmi выходам в тройник сплиттер сигналов,а четвертый хвост видеовывод в монитор, чье изображение будет пробиваться на экран тот и победил. Аналогично битве тракторов сцепленных тросом, вот это будет интересный батл.
Тесты которые народ заслужил, спасибо вам большое ребят. А этот голос уже не покидаю 4ый год
мой любимый канал по железу.
Только тесты с QXJE так и не сделали в режиме pcie 4.0 x4. Я буду напоминать, мне не сложно)))
Короче говоря наступила эра уверенного 2к гейминга в 144гц😄
В 2К 4090 не нужна. В 4К с dlss 3 она в большинстве игр обеспечит 144 фпс
@@ProGamer-rn3bs С задержками
В qhd и 3080Ti не плохо справляется. У 4090 по причине отстойного кабеля питания 12vhpwr плавятся коннекторы, как минимум уже 4 таких случая есть за 2 дня.
@@ProGamer-rn3bs DLSS 3 в соревновательных играх нах не нужен
@@Argument77 ничоси! 4 случая на пару сотен тысяч проданных карт вот это да!
Обзор топовый, спасибо!
спасибо
Ого! Вот это обзор! Просто титаническая работа. В целом прирост не удивителен, если учесть как отличаются внутренности чипов. Забавно выглядят упоры в процессор. Теперь нам нужен 13900К в разгоне =D Спасибо за проделанную работу.
В первую очередь нужна ОЗУ (амд как всегда мимо)
ага ага она ещё и греется как печка да так что переходники просто плавятся -> на хрен она не нужна
ты же рофлишь? понимешь что 4090 купит 1к людей?
@@mw2k6 Ну да, тут и пригодится поддержка DDR4 на 13900К, или стоп - это мимо и такая поддержка нужна только чтобы хвалиться в комментариях что надо поэтому брать интел а дорогая и не нужная ДДР5 нужна только для 7000 райзенов?
@@НаильБилалов-щ7ж пока что ddr5 ничего не может противопоставить ddr4 >=4400 мгц из-за космических задержек
Спасибо за классный обзор как всегда! Интересно было бы глянуть, что там на райзенах с 4090 именно в вашем исполнении.
В смысле на 5800x3d? Там ситуацию +- такая же, много где упор в проц идет...
17:52 В презентации когда показывали киберпанк был 4к Psycho с новым RTX Overdrive режимом (возможно оно выйдет с новым DLC или в каких-то обновлениях). Вот и 22 фпс
Впервые слышу что поднимается проблема с упором в проц на 12900к, так что реально спасибо за новую информацию. На фоне упора в проц стоит ли ждать перетест с новыми процессорами? (13900к, 7950х)
C его кэшем в 30мб, неудивительно.
5800x3d неплохо решает
@@d3n1ss_ok в контре и ларке - да, но это все
Там упор не в проц, а в разрешение экрана. При 4к упора в проц нет (я не считаю колебания загрузки карты 95-99 % упором в проц, это вполне разумная погрешность). В проц может быть упиралось, если бы там стоял какой-нибудь 10700k
Да это не то, там разница точно такая же как и на pci 3.0 и 4.0, 1 fps
Спасибо вам! Купил 4090 ориентируясь на ваши тесты, хорошая видеокарта.
Топовый обзор, сложно к чему-либо придраться
Слишком всё педантично) кайф)
Протестируйте, пожалуйста, 4090 на разных платформах
Ам5 и топы 12900к и 13900к, чтобы выявить ботлнек в разных разрешениях
Было бы очень интересно на это посмотреть
А так же можно будет выяснить как сильно влияет разгон памяти при упоре в процессор)
Влияние разгона памяти при упоре в процессор есть чуть ли не в каждом тесте процессора на нашем канале
еще бы увидеть тесты в 4к на 9900к проце. этот проц явно у большинства сейчас.
@@nightshadow5328 А может сразу 6800K)))
@@AlexanderMinaevFast пентиум 4))))) не ну аче 9900 не проц что-ли? вполне сурьёзный камень. по моему это тупо его выбрасывать и менять на новый. так без штанов останемся, если каждые два года менять.
@Михаил какой мутант еще?
Спасибо,ты первый на моей памяти кто в тестах fh5 уточнил что трассировка работает только в гараже)
Лучшие техно блогеры по железу, ждал ваших тестов как свежего воздуха!!!) Супер!)
согласен
А я все ждал , когда же ты появишься ) Спс за обзор )
0:59 ошибка вместо Amper Turing написано
Спасибо
До нового года работы у вас непочатый край)) Тут и Интелы в двойном размере, и Амд тоже и с процами, и с картами. Я с вашими видео как Троя с процессорными ядрами - сколько ни дай, всё мало))
Всем привет. Возможно мой вопрос слега рановат, так как я решил пропустить сборку ПК на текущем поколении железа. Но в конце 2024, когда выйдет Интел 15 поколения, 5090 и 8900xtx я уже должен быть во всеоружии. Вопрос: действительно ли нужно уметь профессионально настраивать видюхи от красных чтобы они работали так как надо? просто отдать Хуангу туеву хучу денег мне не позволяет мозг, хотя деньги на крутой комп уже отложены... А вот после игрового ноутбука сидеть и шаманить над картой AMD мне как-то стремно, еще накосячу да сгорит GPU к х*ям... Поделитесь опытом использования карт красных, плиз. Я на психологическом уровне почему-то топлю за успех 8900xtx.
Спасибо
нет, не нужно. Никто не говорит, что софт амд - это плохо, мы лишь говорим о проблемах, с которыми можно столкнуться.
Какая температура в помещении была во время тестирования? И тесты производились на открытом стенде? Очень уж низкие температуры вышли, у меня такая же гига gaming OC, температуры в закрытом корпусе градусов на 6-7 повыше будут :) Память на +2000 это очень круто конечно, моя максимум +1000 может, дальше артефакты.
25 °С, открытый стенд
сделайте тесты по температуре нового разъема
Разъем ничто, температура всё! 😅
Ребята молодцы! Очень круто!!! Респект!
И снова выше всяких ожиданий!
Очень качественный обзор. Давно такого качественного и главное по делу, обзора не видел! Смотрю Вас впервые ... С меня подписка и лайк!
Добро пожаловать :)
Спасибо за обзор, все очень качественно! Труд огромный, представляю сколько времени потратили. Кайф!
Как всегда, отличная работа! Спасибо!
Спасибо за видео! Только сегодня открыл для себя этот канал. Отличная дикция, хорошая подача и инфографика. Подписка!
Спасибо, очень ждал от вас обзора . 👍👍👍
Подскажите, а мониторинг MSI Afteburner?
Вопрос по частоте памяти видеоакарты 4090, у вас отображается 20 000+ Мгц, а у меня, как и у многих других обзорщиов 10 000+Мгц. Я куда-то не туда смотрю?
20+ГГц - эффективная, мониторинг отображает реальную с какими-то коэффициентами, надо просто настроить АБ, мало кто это делает
Спасибо за труды! Ждал именно вашего обзора данной карты!👌
Спасибо.
@@i2hard на 9:32 ошибка в графике, да и после во многих местах)) графисту щелбан)
а в чем ошибка то?
@@i2hard я один это вижу? i120.fastpic.org/big/2022/1027/a1/116310f9315912043faa82e6e0a8b2a1.jpg?md5=xTMbCOC7_G1Gxq9-z7iCeg&expires=1666875600
@@i2hard я кажется допер, но графики у вас конечно неудобные по мне
Отличные тесты ! всегда смотрю тесты от вас лучше всех делайте , не знаю правда сколько времени нужно для того что бы сделать такой ролик )) но молодцы всегда смотрю тесты только от вас
Спасибо за подробный и информативный обзор! Узнал все, что хотел! Жду видео по DLSS3 и сравнение его со 2ой версией от вас
Да че там ждать. Это не длсс никакая а простая дорисовка кадров искуственная которая дико увеличивает инпут лаг
Нечего там с длсс2 сравнивать. Это совсем другая технология, которая никакого отношения к длсс не имеет. Очень тупой ход со стороны нвидии называть ее так и вводить людей в заблуждение.
@@dead_locked Кстати не видел информации о том, обновили ли именно сам dlss, а не только добавили frame generation в 3ей версии. + дорисовка кадра на основе motion векторов звучит как минимум интересно, понятно что добавляет input lag, но его и включать то стоит только в сингплеер играх, которые в сочетании с reflex по идее должны сделать игровой опыт лучше
@@solnik9154 Reflex по идее должен с этим помочь. В компетитив шутерах помогает, почему в синглах не сможет? + дорисовка насколько я понимаю идет не всего кадра между 2умя кадрами основного рендера, а только части на основе motion векторов
посмотри ХАРДВЕЙР АНБОКСЕД обзор на длсс 3.0.
а можно ли узнать какие проги для записи используются и было бы идеально узнать их настройки
MSI AB + RTSS + HWINFO + отдельный комп с картой захвата :)
@@i2hard аа понял) спасибо огромное что ответили) было очень интересно))
4090, хороша. Прирост, конечно, что по процессорной части, что по видео, что по рекомендуемым ценам за последние годы весьма и весьма заметный. Есть одно но, а игры где, ради которых хотелось бы сменить видеокарту, процессор, чтобы увидеть кардинально иную картину. Требования растут, но картинка на мониторе лучше не становится (я, например, про Plague tale requiem или, особенно, gotham knights) ?
В готеме картинка хуже, чем в предыдущем Бэтмене. А требования... Они давно уже никак не связаны с картинкой, а с прибылью компаний.
Играй в задроту 2 в 678888 фпс, теперь так и будет их стратегия увеличивать разрешение и не более
@@ЮрийТомин-ъ6э так суть в том, что похорошему увеличенная мощность позволяет тратить меньше сил на оптимизацию, что в свою очередь дает возможность улучшать геймплей и мир игры, но, к сожалению, компании так не считают
Подскажите, а подсветка у нее всегда горит или при запуске вертушек ? что всегда бесило на 2080 аурусах.
Долгожданный обзор, спасибо!
Подскажите что за приложение для тестов? Которое отображает телеметрию на экране!
MSI AB + RTSS + HWINFO
*А почему вы сравниваете ROG STRIX версию 3090 с обычной 6900XT?*
*Почему нельзя выбрать Сапфир Нитро + или XFX или Рэд Девил или Нитро + PURE 6900XT ИЛИ 6950XT?*
что есть на руках, то и сравниваем. Это ж логично?
@@i2hard ну так то да, но не совсем, ведь это не прямое сравнение 1-х конкурентов.
При прямом сравнении уже было бы точно не логично.
а где сказано, что сравнение первых конкурентов? Ну и вы всегда можете сделать так как хотите.
Ура! Дождались! Ждём в комментах гениальные шутки за 300 про размеры карты=)
Как сделать подсветку как на превьюхе, я уже все перепробовал через прогу rgb fusion. Но именно такай не получается
никак, подсветка не управляется.
Будет ли обзор на программу project hydra для Ryzen'ов?
Скажите, как называется программа, мониторинга процессора и видеокарты в видео?
msI ab + rtss + hwinfo
Спасибо за видео. Сделайте пожалуйста более подробный тест в рабочем ПО. У вас был такой ролик, правда пару лет назад.
Можно было бы и тест этой карточки, чтобы узнать разницу при использовании к примеру бюджетного проц по типу 12600к и премиум сегмента 12900к. Большая ли будет разница? А то может получается что если покупаешь такую карточку, то надо иметь именно топовые все комплектующие
Тесты 12600к и 12900к уже есть, разница менее 10% при прочих равных. А так да 12900к элита, аж 10% прироста.
Нихуя себе 12600к бюджетный, для 95% это полная ложь. Но в сравнении с 4090, в проц действительно можно будет иногда упереться. Лучшей парой для неё будет 7000 линейка райзенов, особенно 3д версии которые выйдут в первой четверти следующего года и 13 линейка интел. Вторая опция, к сожалению, имеет смысл только для владельцев материнки на 1700 сокете
@@МальвинаКотик-л1ъ сейчас лучший проц для игр это 13600к, для 4к или 2к.
@@NezaicVR да, это отлично, только вот как только выйдет 7800х3д - интел объективно ничем не сможет ответить. Для людей типа меня закинуть 13600к в уже имеющуюся z690 плату это очевидный вариант, но для людей на АМ4/lga 1200.. Покупать з790 плату чтобы через 3 месяца узнать, что их карта может ещё больше, если купить ам5 плату - грустно. В этом случае мне кажется более логичным вложиться в ам5 с каким нибудь 7600х сейчас, а через 3 месяца поменять 7600х на 7800х3д.
В первую очередь нужен монитор 4к 120hz+
A podxodit li eta video karta na asus z590 i5 11400?
Спасибо за обзор! Очень интересно!
Спасибо за сравнение!
Как я понял во всех тестах игр без разгонов амд упирается в температуру от туда и статеры (может и фпс было бы выше будь нормальная температура)
Нет, статтеры не из-за температур
ОГОНЬ! Как всегда лайк! Помнится мне, раньше вы и E-ядра и P-ядра разгоняли немного выше чем сейчас. вроде 5.2Ghz было. Много они конечно не дадут, но почему решили сбавить обороты?
Вы молодцы. Спасибо за контент!
Подскажите, пожалуйста, через какую программу мониторинг процессов идет?
MSI AB + RTSS + HWINFO
@@i2hard Спасибо!!!
Снимите разницу в производительности между Z690 ASUS и Z790 ASUS с 13900К. Будет интересно.
будет, но сначала получим 13900
@@i2hard , отлично! Сам жду 13900К свой. У меня ASUS Z690F-Gaming Wi-Fi. Ходят слухи, что на Z690 в многопотоке результат на 25% ниже, чем на Z790. Но надо обязательно обновить прошивку Биос и Intel ME (!) с сайта производителя материнской платы на Z690.
@@serguei1029 да просто разница в стоковых лимитах, вот и всё
@@spidertech4014 , моя материнка из коробки без лимитов запускает процессоры)
@@serguei1029 это проблема у асуса новом обновление исправят по этому уже была инфа на msi такой проблемы нету
По поводу "бутылочного горлышка". Складывается впечатления, что у одних разработчиков игр руки прямые, а у других - жадные.
I2HARD, БОЛЬШАЯ ПРОСЬБА! Когда будете делать сюжет о DLSS 3.0, не забудьте рассказать про INPUT LAG (задержки), которые вырастают при его включении! PRO Hi-TECH о них рассказали! Спасибо!
Они и так об этом в курсе, естественно эта тема будет краеугольной при анализе генерации кадров
@@dead_locked не знаю, не знаю... Её могут не затронуть... Хотя от 8 до 12 миллисекунд задержки при включении DLSS 3.0 - это очень много!
Тесты в 2к и 4к лучше производить подряд для каждой игры, а то к моменту теста в 4к уже забываешь фпс в 2к и сложно оценить изменения
Чем грозит Hot Spot 105 градусов для RX 6900XT???
У меня 6600xt и она тоже временами доходит до 100 а то 110 градусов самой горячей точки - игры тянет на ультра но,ТЕМПЕРАТУРА ЖЕСТЬ.
Ускоренной деградацией чипа
Быстрой деградацией чипа
Пределом хотспота считается 110С. Если доходит до выше 100С, то стоит продуть карту/озаботиться продувом корпуса/вручную повысить обороты кулера на карте.
@@Foxikdot Мне кажется в его случае лучше задуматься о смене производителя видеокарты
@@russian_soup интересно, что у него за производитель. Худший хотспот, что я видел в обзорах на 6600XT - 98C у XFX Merc 308. Правда, у неё и уровень шума предельно низкий. Я бы всё таки поставил на условия, в которых эксплуатируется его карточка.
Добрый день! вопрос немного не по теме , но вижу в тестах , у rx 6900 температура чипа 80гр , а хот спот 100, хотелось бы ваше мнение у знать , это нормально? сам недавно обзавелся 6800xt и там похожая ситуация в стоке
Сапфир Нитро + бери, у них охлад збсь
По сути прирост производительности только от перехода на 4нм тсмс увеличение cuda rops tmus, ну и мелких улучшений
да, куртка вообще не парился. Тоже есть ощущение халтурности этого поколения несмотря на прирост 60-70%
Какую программу вы используете для мониторинга?
MSI AB + RTSS + HWiNFO
Спасибо ! А когда будет такое же сравнение новых процев ?
в процессе тесты
Могуче, да. 4090 сейчас в Регарде за 155к лежит. Но по хорошему, он нужен только при игре на 4к. Для всего остального есть 3070 за 40к в том же Регарде.
Плохо, что в итоговом резкие не сказали, что новая карта на вырост. Сейчас нет мощного процессора, который полностью выжмет соки из карты. Ну, по крайне мере для QHD.
А как вы убрали фризы в играх на 12900к? Я к тому, что из-за ерор-ядер у меня фризы были на 12700ф, т.к. на десятке иногда нагрузка кидалась на них
брат где музыку берешь
14:30 как понять, что упор в процессор? Тут же колебание 60-80%, а не 98%
По загрузке видеокарты.
А проценты, которые ты указываешь это загрузка одного потока. Второй столбец показывает общую многопоточную нагрузку.
Упор в процессор не значит, что он обязательно должен быть загружен на 100%. В видео говорится об упоре в производительность ядер процессора.
Спс огромное за обзор
Ещё раз убедился бу рх 6900хт с Авито за 45000. Топ среди топов. )) Ждём 4070 по 60к
+Взял сапфировский 6900 XT Nitro + с Авито за 46000 с гарантией до 24 года.Да 3090 и 4090 мощнее,но вы сможете их взять за 45-47к???Вот и хрен то что нет,а для моего моника Huawei 165гц 2к разрешение, 6900xt вполне хватает.
@@PVP_58 если не сложно можно линк продавца?! На Авито на эти 6900
Я с озона взял новую за 48к.
@@PVP_58 а зачем мне 3090 когда есть 3080ти Которая даже чуть мощнее и жрет меньше
@@PVP_58 а 3080 ти за 50 к можно забрать бу))
Спасибо за обзор! Как всегда на отлично всё сделали. Цена пока дикая, но если вся линейка будет холоднее предыдущей, то это будет просто кайф. правда цены будут кусаться, но что же тут поделаешь...
Спасибо огромное за проделанный труд.
Мое почтение.👍👍👍
4090 космос. Как по производительности, так и по цене. Хотелось бы взглянуть на что-нибудь вроде 4070Ti, как на нечто более близкое по цене к простым смертным )
Если кто разбирается... Подскажите утилиту для разгона видеокарт. Нужно снизить напряжение видеопамяти.
нельзя её снизить
А ре бар и сам были включены в тестах?
да, об этом в видео сказали.
Отличный обзор! То есть получается, что если не планируешь 4к, то 3090ти за 80-85к это норм выбор?
Тогда уж лучше 3080ti за 55
@@an1xr На хрен нужен этот обрубок 3080ti, если уж экономить и не целится в 4к, то проще взять обычную 3080 которая будет ощутимо дешевле. Ну а если нужна хорошая карта, то это 3090ti и только она. если не хватает на 4090 конечно.
@@AlexGun1st потому что 3080 поголовно ужаренные в майнинге и отстает она от 3080ti прилично (3080ti как 3090 фпс дает)
750W Deepcool PQ750M Gold хватит ? Только 3 пин 8 есть. Процессор 5600Х. Планирую андервольт. Думаю при жоре около 400вт должно работать.
850W дипкул выбивало.
@@i2hard выбивало в защиту с 3090, с 4090 должно быть лучше и может даже и хватить
А зачем 4090 ставить к 5600x??? Не слишком ли будет??
Вы там того, берегите себя, оборудование и помещение от пожара.
Интересно как на 5800x3D будет :)
также
Имею 3050 и 12400 - планирую обновляться на 4060 когда она выйдет. И вот интересно, а не будет ли и там упора в мой проц? А то как то я аж испугался увидев упор в процессор 12900 в 4к разрешении...
Не будет. А если будет, то можно и сглаживание msaa накрутить или поставить более высокое разрешение
Будет зависеть от игры и разрешения на котором играешь. Чем старее игра, тем больше будет упор в производительность ядер проца.
4080 имеет производительность как у 3080 ti а условно 4070 ти будет на чу чуть лучше 3080 обычной думаю как и обычно 4060 будет на уровне 3070
А теперь иди смотреть производительность 3070 или 3060 ти и думай хватит или нет)
Прекрасный обзор, спасибо !!!
ИМХО, мне кажется проблема не в процах, а в оптимизации движков. Т.к ну очень странно выглядит, что топовый 12900к с гигансткой мощностью на ядро и с таким количеством ядер не может подготовить больше кадров. Больше похоже, что движок игры сам душит большее количество кадров.
Карта слишком мощная для 1440р в современных играх, только и всего.
Это знаете, как запустить 3050+i9 в 480p и говорить: не может быть, что такого проца не хватает, для загрузки карты, наверное это движок ее душит... :)
@@АндрейДерябин-м6е Я бы не сказал, в нативе с лучами и моником 165Гц самое то как раз. Что там такого не может отрисовать 12900К? Вот что? Игры страше этого проца...знаете где еще проц не может отрисовать...гта 4...ой, так там оптимизация кривая и почти все новые карты недогруженые...что, опять проц слабый? Только вот на вулкане в гта4 почему-то гпу уже догружается нормально, вот чудеса то.
@@legion1373 Я основной принцип объяснил. По поводу ГТА4 ничего сказать не могу.
Блока питания на 750 Ватт хватит для 4090?
У тебя стальные шары?
@@MetaMorph3D хотел написать для 4080.
Спасибо большое за видео! Всегда жду именно Ваши видео, лучший контент такого типа во всем ютубе, такого разбора вопроса и подачи информации нет ни у одних "техно-блоггеров" с дахреналионом подписчиков и кучей железок от производителей, все какаие-то бесполезные графики, куча воды, отсутствие необходимой инфы, 90% из них температуру памяти карт вообще не считают нужным озвучивать... Спасибо еще раз, отличный контент.
З.Ы. Графики у Вас в FPS-Monitor сделаны? если да, можно ли скачать Ваш пересет, или программа этого не умеет?
Замеры производятся MSI AB + RTSS + HWINFO, графики делает отдельный небольшой сайт.
@@i2hard Понял, спасибо большое за ответ!
У меня очень интересный и волнующий вопрос , почему у меня в форзе Хорайзен 5 на 3070ти ОС с коробки с дефолтныи повер лимитом 130-150 ФПС а на 4090 176 даже 3090 не показала столько ФПС сколько у меня , причем я бы приложил скрины но на Ютубе нельзя к сожелению, процесор у меня r9 5900x
Настройки графики?)
Кайф обзор.От души!)
Эх куда делись тесты на топовых отборных камнях 5.2 5.3ггц и с максимальным упором в гпу 4к
не понял, а где тест в майнкрафт ртх
Молодцы парни-красавы!!! Спасибо за обзор!! Росту каналу и чтоб вам вендоры побольше железок засылали!!!
Класс, как всегда, все на высшем уровне! Спасибо за тесты!
При разнице в цене RX6900xt и RTX3090, первая очень хороший результат выдаёт.
3900?? Новая карта что ли?))
@@ykpona_B_pom_MoJlomumb какая разница. В цене дело
@@RicoChicoMan про цену я знаю, у самого 6900xt, если душно открой форточку
Не зря подписан, глянул обзор Мурка, так он не удосужился выключить в тестах DLSS 🤦 Тут хоть всё грамотно, глянул нормально сравнение.
Самый очевидный вывод из видео - 6900XT офигенна.
Крутой рывок производительности! Так это что, небольшой андервольтинг позволяет сбить энергопотребление 4090 почти на 100 ватт? Может быть это и решает проблему плавящихся коннекторов питания?
Проблема не в мощности как таковой, а в том, что NVIDIA закупила некачественные переходники и она это уже официально признала. В сети есть фото этих вскрытых переходников, там толстые жилы припаяны к тонкой фольге точечно, особенно страдают крайние провода.
Начали всплывать подробности, что на 4090 плавится разъем питания. Если информации для ролика будет достаточно, что с удовольствием посмотрел бы его на вашем канале 👍
Можно на других
Во время съемки тестов ни 1 4090 не пострадала
Ждал ваши тесты
Жду процы 7700х и 13700к
Лихо конечно куртка достал из рукава свой главный козырь - фабрику TSMC.. На самсунге была бы такая печь, что мало бы никому не показалось.
Здравствуйте! Купил на днях 4090 gigabyte на замену 3080. И разница в hunt showdown 15-30 фпс~150) посмотрел вот и понял, что скорее всего дело в процессоре слабоват 10700к
ruclips.net/video/35PcR6xrh0c/видео.html
@@Dmitryaga стоит ryzen этот взять или 12900-13900 взять ?
И реально из-за процессора такая разница в фпс? У меня,на ультрах в 2к прыгает бывает до 200, но среднее это 130. Бывает до 110. А так процессор 10700к и 32 ддр 4
@@gariknana119 сначала стоит попробовать разогнать память и настроить все тайминги
@@KolmykovVN я понял. Озадачусь
@@gariknana119 если нужен максимум в ханте - 3д бест бай, как говорится. Однако новые процы красных и синих не тестили ещё
Автор, проверьте, пожалуйста, названия в показателях графиков скорости кадров: кажется, 3090 и 4090 перепутаны местами
кажется, будьте внимательны)
@@i2hard Хм, всё верно, не перепутаны, спасибо и пардон.
Но, ИМХО, графики не интуитивно оформлены: плашки с видюхами (выполняющие роль цветовой легенды столбцов графика) расположены аккурат под столбцами (AVG / 1% / 0.1%) + совпадают с размером самих столбцов --> как бы связывая столбцы с "плашками". Если на паузе специально не всматриваться-перепроверять - то возникает недоумение.
p.s. огромное спасибо в целом за вашу работу и этот ролик в частности.
Разъем конечно имба! Плавится он быть здоров
4070 жду...ждал бы 4060, но боюсь не доживу...
Как всегда отличные тесты )) Ждёмс 13ый Интел)
Сегодня тестов 7600X не будет?
сегодня нет, но скоро будут.
добрый день! когда видео обзоров новых райзенов и интел? как бы стрим многочасовой,и бесконечные разговоры не хватает сил смотреть.хочется ролик подобный этому, коротко, сжато. факты сравнения
Закончили с 4090 и взялись за райзены
@@i2hard спасибо! Ждём!