hunt showdown не валидный тест! По чесноку надо показывать как в онлайне просаживается до 20 fps Причем видно это в родном мониторинге игры Например как здесь: ruclips.net/video/zl08E8DCqio/видео.html Понятно что просадки идут из за проца, но мы ждем вашего честного обзора на 13900К, может у него с просадками будет получше. Пока что лучше всего хант тащит 5800x3d
@@DmitriyK2012 Учитывая то, что даже при 1440p в большинстве игр карта уже была недогружена, то дальнейшее снижение разрешение бессмысленно при тесте данного видика. Это уже будет тест проца, а не видика.
@@GloryToUkrainianRus роиси. На самом деле, в Украине тоже, не богачи живут. Абсолютно такие же бедные люди, так же, как и в других странах бывшего снг, почти во всех. Народ везде бедный. Сказать спасибо нужно совку и террористам в рф. Лишь единицы есть, кто могут позволить себе такие вещи.
@@aleksfreeman3627 не нужно сравнивать нищий и слабый умом и духом народ россии с народом работящих украинцев. Я себе могу позволить дорогие вещи. Почему россиянин не может этого сделать? Все просто
Нужно соединить карты по hdmi выходам в тройник сплиттер сигналов,а четвертый хвост видеовывод в монитор, чье изображение будет пробиваться на экран тот и победил. Аналогично битве тракторов сцепленных тросом, вот это будет интересный батл.
Ого! Вот это обзор! Просто титаническая работа. В целом прирост не удивителен, если учесть как отличаются внутренности чипов. Забавно выглядят упоры в процессор. Теперь нам нужен 13900К в разгоне =D Спасибо за проделанную работу.
@@mw2k6 Ну да, тут и пригодится поддержка DDR4 на 13900К, или стоп - это мимо и такая поддержка нужна только чтобы хвалиться в комментариях что надо поэтому брать интел а дорогая и не нужная ДДР5 нужна только для 7000 райзенов?
В qhd и 3080Ti не плохо справляется. У 4090 по причине отстойного кабеля питания 12vhpwr плавятся коннекторы, как минимум уже 4 таких случая есть за 2 дня.
17:52 В презентации когда показывали киберпанк был 4к Psycho с новым RTX Overdrive режимом (возможно оно выйдет с новым DLC или в каких-то обновлениях). Вот и 22 фпс
Топовый обзор, сложно к чему-либо придраться Слишком всё педантично) кайф) Протестируйте, пожалуйста, 4090 на разных платформах Ам5 и топы 12900к и 13900к, чтобы выявить ботлнек в разных разрешениях Было бы очень интересно на это посмотреть А так же можно будет выяснить как сильно влияет разгон памяти при упоре в процессор)
@@АлександрМинаев-е3п пентиум 4))))) не ну аче 9900 не проц что-ли? вполне сурьёзный камень. по моему это тупо его выбрасывать и менять на новый. так без штанов останемся, если каждые два года менять.
Нечего там с длсс2 сравнивать. Это совсем другая технология, которая никакого отношения к длсс не имеет. Очень тупой ход со стороны нвидии называть ее так и вводить людей в заблуждение.
@@dead_locked Кстати не видел информации о том, обновили ли именно сам dlss, а не только добавили frame generation в 3ей версии. + дорисовка кадра на основе motion векторов звучит как минимум интересно, понятно что добавляет input lag, но его и включать то стоит только в сингплеер играх, которые в сочетании с reflex по идее должны сделать игровой опыт лучше
@@solnik9154 Reflex по идее должен с этим помочь. В компетитив шутерах помогает, почему в синглах не сможет? + дорисовка насколько я понимаю идет не всего кадра между 2умя кадрами основного рендера, а только части на основе motion векторов
Впервые слышу что поднимается проблема с упором в проц на 12900к, так что реально спасибо за новую информацию. На фоне упора в проц стоит ли ждать перетест с новыми процессорами? (13900к, 7950х)
Там упор не в проц, а в разрешение экрана. При 4к упора в проц нет (я не считаю колебания загрузки карты 95-99 % упором в проц, это вполне разумная погрешность). В проц может быть упиралось, если бы там стоял какой-нибудь 10700k
Какая температура в помещении была во время тестирования? И тесты производились на открытом стенде? Очень уж низкие температуры вышли, у меня такая же гига gaming OC, температуры в закрытом корпусе градусов на 6-7 повыше будут :) Память на +2000 это очень круто конечно, моя максимум +1000 может, дальше артефакты.
ОГОНЬ! Как всегда лайк! Помнится мне, раньше вы и E-ядра и P-ядра разгоняли немного выше чем сейчас. вроде 5.2Ghz было. Много они конечно не дадут, но почему решили сбавить обороты?
Отличные тесты ! всегда смотрю тесты от вас лучше всех делайте , не знаю правда сколько времени нужно для того что бы сделать такой ролик )) но молодцы всегда смотрю тесты только от вас
До нового года работы у вас непочатый край)) Тут и Интелы в двойном размере, и Амд тоже и с процами, и с картами. Я с вашими видео как Троя с процессорными ядрами - сколько ни дай, всё мало))
4090, хороша. Прирост, конечно, что по процессорной части, что по видео, что по рекомендуемым ценам за последние годы весьма и весьма заметный. Есть одно но, а игры где, ради которых хотелось бы сменить видеокарту, процессор, чтобы увидеть кардинально иную картину. Требования растут, но картинка на мониторе лучше не становится (я, например, про Plague tale requiem или, особенно, gotham knights) ?
@@ЮрийТомин-ъ6э так суть в том, что похорошему увеличенная мощность позволяет тратить меньше сил на оптимизацию, что в свою очередь дает возможность улучшать геймплей и мир игры, но, к сожалению, компании так не считают
Плохо, что в итоговом резкие не сказали, что новая карта на вырост. Сейчас нет мощного процессора, который полностью выжмет соки из карты. Ну, по крайне мере для QHD.
4090 космос. Как по производительности, так и по цене. Хотелось бы взглянуть на что-нибудь вроде 4070Ti, как на нечто более близкое по цене к простым смертным )
Могуче, да. 4090 сейчас в Регарде за 155к лежит. Но по хорошему, он нужен только при игре на 4к. Для всего остального есть 3070 за 40к в том же Регарде.
Спасибо за обзор! Как всегда на отлично всё сделали. Цена пока дикая, но если вся линейка будет холоднее предыдущей, то это будет просто кайф. правда цены будут кусаться, но что же тут поделаешь...
Можно было бы и тест этой карточки, чтобы узнать разницу при использовании к примеру бюджетного проц по типу 12600к и премиум сегмента 12900к. Большая ли будет разница? А то может получается что если покупаешь такую карточку, то надо иметь именно топовые все комплектующие
Нихуя себе 12600к бюджетный, для 95% это полная ложь. Но в сравнении с 4090, в проц действительно можно будет иногда упереться. Лучшей парой для неё будет 7000 линейка райзенов, особенно 3д версии которые выйдут в первой четверти следующего года и 13 линейка интел. Вторая опция, к сожалению, имеет смысл только для владельцев материнки на 1700 сокете
@@NezaicVR да, это отлично, только вот как только выйдет 7800х3д - интел объективно ничем не сможет ответить. Для людей типа меня закинуть 13600к в уже имеющуюся z690 плату это очевидный вариант, но для людей на АМ4/lga 1200.. Покупать з790 плату чтобы через 3 месяца узнать, что их карта может ещё больше, если купить ам5 плату - грустно. В этом случае мне кажется более логичным вложиться в ам5 с каким нибудь 7600х сейчас, а через 3 месяца поменять 7600х на 7800х3д.
I2HARD, БОЛЬШАЯ ПРОСЬБА! Когда будете делать сюжет о DLSS 3.0, не забудьте рассказать про INPUT LAG (задержки), которые вырастают при его включении! PRO Hi-TECH о них рассказали! Спасибо!
Начали всплывать подробности, что на 4090 плавится разъем питания. Если информации для ролика будет достаточно, что с удовольствием посмотрел бы его на вашем канале 👍
@@i2hard , отлично! Сам жду 13900К свой. У меня ASUS Z690F-Gaming Wi-Fi. Ходят слухи, что на Z690 в многопотоке результат на 25% ниже, чем на Z790. Но надо обязательно обновить прошивку Биос и Intel ME (!) с сайта производителя материнской платы на Z690.
Подскажите, а мониторинг MSI Afteburner? Вопрос по частоте памяти видеоакарты 4090, у вас отображается 20 000+ Мгц, а у меня, как и у многих других обзорщиов 10 000+Мгц. Я куда-то не туда смотрю?
Спасибо большое за видео! Всегда жду именно Ваши видео, лучший контент такого типа во всем ютубе, такого разбора вопроса и подачи информации нет ни у одних "техно-блоггеров" с дахреналионом подписчиков и кучей железок от производителей, все какаие-то бесполезные графики, куча воды, отсутствие необходимой инфы, 90% из них температуру памяти карт вообще не считают нужным озвучивать... Спасибо еще раз, отличный контент. З.Ы. Графики у Вас в FPS-Monitor сделаны? если да, можно ли скачать Ваш пересет, или программа этого не умеет?
+Взял сапфировский 6900 XT Nitro + с Авито за 46000 с гарантией до 24 года.Да 3090 и 4090 мощнее,но вы сможете их взять за 45-47к???Вот и хрен то что нет,а для моего моника Huawei 165гц 2к разрешение, 6900xt вполне хватает.
Шикарный обзор!!! Низкий поклон за столь огромный объем проделанных работ!!! На последнем стриме говорили, что к вам едет 5700х... К Дмитряге едет или Виталик будет тестить? Когда приедет то? В планах сравнивать его с 7700х или 7600х? Когда ждать обзора?
@@an1xr На хрен нужен этот обрубок 3080ti, если уж экономить и не целится в 4к, то проще взять обычную 3080 которая будет ощутимо дешевле. Ну а если нужна хорошая карта, то это 3090ti и только она. если не хватает на 4090 конечно.
ИМХО, мне кажется проблема не в процах, а в оптимизации движков. Т.к ну очень странно выглядит, что топовый 12900к с гигансткой мощностью на ядро и с таким количеством ядер не может подготовить больше кадров. Больше похоже, что движок игры сам душит большее количество кадров.
Карта слишком мощная для 1440р в современных играх, только и всего. Это знаете, как запустить 3050+i9 в 480p и говорить: не может быть, что такого проца не хватает, для загрузки карты, наверное это движок ее душит... :)
@@АндрейДерябин-м6е Я бы не сказал, в нативе с лучами и моником 165Гц самое то как раз. Что там такого не может отрисовать 12900К? Вот что? Игры страше этого проца...знаете где еще проц не может отрисовать...гта 4...ой, так там оптимизация кривая и почти все новые карты недогруженые...что, опять проц слабый? Только вот на вулкане в гта4 почему-то гпу уже догружается нормально, вот чудеса то.
Добрый день! вопрос немного не по теме , но вижу в тестах , у rx 6900 температура чипа 80гр , а хот спот 100, хотелось бы ваше мнение у знать , это нормально? сам недавно обзавелся 6800xt и там похожая ситуация в стоке
*А почему вы сравниваете ROG STRIX версию 3090 с обычной 6900XT?* *Почему нельзя выбрать Сапфир Нитро + или XFX или Рэд Девил или Нитро + PURE 6900XT ИЛИ 6950XT?*
С 40й серией вышли и новые драйвера, которые, как говорят, повысили производительность и 'старых' 30ток и даже 20ток. Интересно было бы посмотреть как смотрятся видеокарты среднего и выше среднего именно с новыми дровами, амд, свои тоже уже допилиил вроде как. На видеокарты 3070,3070ти, 6750хт, 3060, 3060ти, 6800хт сейчас очень хорошая цена, много людей собирают на этих картах .
У амд даже на встройках фпс вырос в 2 раза в майнкрафте, то есть дрова подходят для всех карт именно у амд, но последние дрова настолько кривые, что в хроме (гугл, эдж) мигает курсор и лагает. Дрова мегакачественные (нет)
RTX 4090 это карта only for 4к. То есть 1440р если только киберкотлета (а там обычно не ставят ультра настройки). Так что упора в проц по сути и нет, просто надо карту использовать в правильном разрешении и проблем не будет. Это кстати проблема многих геймеров, используют мощные карты под низкое разрешение и удивляются упору в проц. А так тест топ, всё понятно и без лишней воды.
да нет там упора в проц, просто тестеры похоже не в курсе лимитов внутриигрового движка. Там в тестах и с i9 13900 разогнанным в сопли (для тех кто говорит, что не хватает производительности ядер) + ддр5 на 7800мгц - в большинстве игр нет разницы по фпс и в 1080p, и 1440p, тк лимиты фпс в игре были заточены под запросы максимальных по текущим герцовкам мониторов. В каких-то играх лимит 140-160 фпс - зачастую ААА проекты типа киберпанк2077, в каких-то 180-200 фпс. В онллайн пострелушках типа пабг лимит где-то 240, в апекс 300, в валорант 400. Хоть ставь 720p, но выше фпс просто не получится добиться. Вот игры на движке вулкан - это уже совсем другое, там похоже и в 720p карта будет нагружена на 100%, тк движок будет позволять отрисовать больше 1000 кадров.
Такое ощущение, что 4090 не хватает ПСП. Какое-то странное потребление мощности и большой разброс по показателям. Чип стал в 2 раза сильнее, а псп увеличилось на 7-10%
Крутой рывок производительности! Так это что, небольшой андервольтинг позволяет сбить энергопотребление 4090 почти на 100 ватт? Может быть это и решает проблему плавящихся коннекторов питания?
Проблема не в мощности как таковой, а в том, что NVIDIA закупила некачественные переходники и она это уже официально признала. В сети есть фото этих вскрытых переходников, там толстые жилы припаяны к тонкой фольге точечно, особенно страдают крайние провода.
Здравствуйте! Купил на днях 4090 gigabyte на замену 3080. И разница в hunt showdown 15-30 фпс~150) посмотрел вот и понял, что скорее всего дело в процессоре слабоват 10700к
@@Dmitryaga стоит ryzen этот взять или 12900-13900 взять ? И реально из-за процессора такая разница в фпс? У меня,на ультрах в 2к прыгает бывает до 200, но среднее это 130. Бывает до 110. А так процессор 10700к и 32 ддр 4
Максым, вопрос, сколько пробег у 4090 Octavia? Откуда привезли? Сколько заплатили? У кого и где лучше брать? Что в плане бр с 4090? Она кончено сильно опережает 3090, но рдр2 на это плевать и вообще не запускает? И самый главный вопрос? Сколько фпс на ультрах в 4к в тундре и Таркове?
@@TMWagner21 2К разрешение, Одисей G7. Но как то Нвидиа своим ДЛСС привлекает, и в Киберпанке привлекает оптимизация. Смотрел тесты, что АМД в ней с фризами/микрофризами работает
@@ДенисВолков-л2ъ горячая память гддр6х которая у большинства моделей перегревается, жрет на 30% больше энергии, я играю принципиально в нативном разрешении, т.е. длсс мне не нужен ни фср. Я считаю отдать бабки за карту и потом мылить картинку/смотреть на артефакты это себя не уважать. Потому под мою задачу 6800хт под фуллхд на высокие герцы самое то. Я сторонник карт как 1080ти, много мощности, много памяти, никаких финтифлюшек лишних.
Инфа только между нами: с графиками все ок. Только тсссс, никому. Пусть дальше пишут в комментариях :)
I9 13900k заказали с Али?
hunt showdown не валидный тест!
По чесноку надо показывать как в онлайне просаживается до 20 fps
Причем видно это в родном мониторинге игры
Например как здесь: ruclips.net/video/zl08E8DCqio/видео.html
Понятно что просадки идут из за проца, но мы ждем вашего честного обзора на 13900К, может у него с просадками будет получше. Пока что лучше всего хант тащит 5800x3d
А почему танки не снимаешь 2ту хард жду видео
а сколько система с 12900kf 4090 c водянкой и пару доп вентелятороми будет кушать?
@@RFNC_Its это не важно у меня например розетка бесплатная для майнинга все было сделано
Тесты в играх на любой вкус - в 1440p и в 4к, с RT и без, с андервольтом и разгоном - кайф😍👍
1080p нехватает
@@DmitriyK2012 Учитывая то, что даже при 1440p в большинстве игр карта уже была недогружена, то дальнейшее снижение разрешение бессмысленно при тесте данного видика. Это уже будет тест проца, а не видика.
ну что ж, время моего любимого развлечения - просмотра обзоров на вещи, которые я никогда в жизни себе не куплю.
это все потому, что ты из росии
@@GloryToUkrainianRus роиси. На самом деле, в Украине тоже, не богачи живут. Абсолютно такие же бедные люди, так же, как и в других странах бывшего снг, почти во всех. Народ везде бедный. Сказать спасибо нужно совку и террористам в рф. Лишь единицы есть, кто могут позволить себе такие вещи.
@@aleksfreeman3627 не нужно сравнивать нищий и слабый умом и духом народ россии с народом работящих украинцев. Я себе могу позволить дорогие вещи. Почему россиянин не может этого сделать? Все просто
@@aleksfreeman3627 вы рабы
@@aleksfreeman3627 свинина
Вы, конечно, красавчики, что смогли сделать обзор на видеокарту, но какой крутой был бы караоке-баттл между техноблоггерами по цене этой видюхи...
Пошумим блять!!
Нужно соединить карты по hdmi выходам в тройник сплиттер сигналов,а четвертый хвост видеовывод в монитор, чье изображение будет пробиваться на экран тот и победил. Аналогично битве тракторов сцепленных тросом, вот это будет интересный батл.
Тесты которые народ заслужил, спасибо вам большое ребят. А этот голос уже не покидаю 4ый год
мой любимый канал по железу.
Только тесты с QXJE так и не сделали в режиме pcie 4.0 x4. Я буду напоминать, мне не сложно)))
Спасибо за классный обзор как всегда! Интересно было бы глянуть, что там на райзенах с 4090 именно в вашем исполнении.
В смысле на 5800x3d? Там ситуацию +- такая же, много где упор в проц идет...
Ого! Вот это обзор! Просто титаническая работа. В целом прирост не удивителен, если учесть как отличаются внутренности чипов. Забавно выглядят упоры в процессор. Теперь нам нужен 13900К в разгоне =D Спасибо за проделанную работу.
В первую очередь нужна ОЗУ (амд как всегда мимо)
ага ага она ещё и греется как печка да так что переходники просто плавятся -> на хрен она не нужна
ты же рофлишь? понимешь что 4090 купит 1к людей?
@@mw2k6 Ну да, тут и пригодится поддержка DDR4 на 13900К, или стоп - это мимо и такая поддержка нужна только чтобы хвалиться в комментариях что надо поэтому брать интел а дорогая и не нужная ДДР5 нужна только для 7000 райзенов?
@@НаильБилалов-щ7ж пока что ddr5 ничего не может противопоставить ddr4 >=4400 мгц из-за космических задержек
Короче говоря наступила эра уверенного 2к гейминга в 144гц😄
В 2К 4090 не нужна. В 4К с dlss 3 она в большинстве игр обеспечит 144 фпс
@@ProGamer-rn3bs С задержками
В qhd и 3080Ti не плохо справляется. У 4090 по причине отстойного кабеля питания 12vhpwr плавятся коннекторы, как минимум уже 4 таких случая есть за 2 дня.
@@ProGamer-rn3bs DLSS 3 в соревновательных играх нах не нужен
@@Argument77 ничоси! 4 случая на пару сотен тысяч проданных карт вот это да!
17:52 В презентации когда показывали киберпанк был 4к Psycho с новым RTX Overdrive режимом (возможно оно выйдет с новым DLC или в каких-то обновлениях). Вот и 22 фпс
Обзор топовый, спасибо!
спасибо
Топовый обзор, сложно к чему-либо придраться
Слишком всё педантично) кайф)
Протестируйте, пожалуйста, 4090 на разных платформах
Ам5 и топы 12900к и 13900к, чтобы выявить ботлнек в разных разрешениях
Было бы очень интересно на это посмотреть
А так же можно будет выяснить как сильно влияет разгон памяти при упоре в процессор)
Влияние разгона памяти при упоре в процессор есть чуть ли не в каждом тесте процессора на нашем канале
еще бы увидеть тесты в 4к на 9900к проце. этот проц явно у большинства сейчас.
@@nightshadow5328 А может сразу 6800K)))
@@АлександрМинаев-е3п пентиум 4))))) не ну аче 9900 не проц что-ли? вполне сурьёзный камень. по моему это тупо его выбрасывать и менять на новый. так без штанов останемся, если каждые два года менять.
@Михаил какой мутант еще?
Спасибо,ты первый на моей памяти кто в тестах fh5 уточнил что трассировка работает только в гараже)
Спасибо за подробный и информативный обзор! Узнал все, что хотел! Жду видео по DLSS3 и сравнение его со 2ой версией от вас
Да че там ждать. Это не длсс никакая а простая дорисовка кадров искуственная которая дико увеличивает инпут лаг
Нечего там с длсс2 сравнивать. Это совсем другая технология, которая никакого отношения к длсс не имеет. Очень тупой ход со стороны нвидии называть ее так и вводить людей в заблуждение.
@@dead_locked Кстати не видел информации о том, обновили ли именно сам dlss, а не только добавили frame generation в 3ей версии. + дорисовка кадра на основе motion векторов звучит как минимум интересно, понятно что добавляет input lag, но его и включать то стоит только в сингплеер играх, которые в сочетании с reflex по идее должны сделать игровой опыт лучше
@@solnik9154 Reflex по идее должен с этим помочь. В компетитив шутерах помогает, почему в синглах не сможет? + дорисовка насколько я понимаю идет не всего кадра между 2умя кадрами основного рендера, а только части на основе motion векторов
посмотри ХАРДВЕЙР АНБОКСЕД обзор на длсс 3.0.
Спасибо за видео! Только сегодня открыл для себя этот канал. Отличная дикция, хорошая подача и инфографика. Подписка!
Впервые слышу что поднимается проблема с упором в проц на 12900к, так что реально спасибо за новую информацию. На фоне упора в проц стоит ли ждать перетест с новыми процессорами? (13900к, 7950х)
C его кэшем в 30мб, неудивительно.
5800x3d неплохо решает
@@d3n1ss_ok в контре и ларке - да, но это все
Там упор не в проц, а в разрешение экрана. При 4к упора в проц нет (я не считаю колебания загрузки карты 95-99 % упором в проц, это вполне разумная погрешность). В проц может быть упиралось, если бы там стоял какой-нибудь 10700k
Да это не то, там разница точно такая же как и на pci 3.0 и 4.0, 1 fps
Какая температура в помещении была во время тестирования? И тесты производились на открытом стенде? Очень уж низкие температуры вышли, у меня такая же гига gaming OC, температуры в закрытом корпусе градусов на 6-7 повыше будут :) Память на +2000 это очень круто конечно, моя максимум +1000 может, дальше артефакты.
25 °С, открытый стенд
Как всегда, отличная работа! Спасибо!
ОГОНЬ! Как всегда лайк! Помнится мне, раньше вы и E-ядра и P-ядра разгоняли немного выше чем сейчас. вроде 5.2Ghz было. Много они конечно не дадут, но почему решили сбавить обороты?
А я все ждал , когда же ты появишься ) Спс за обзор )
Отличные тесты ! всегда смотрю тесты от вас лучше всех делайте , не знаю правда сколько времени нужно для того что бы сделать такой ролик )) но молодцы всегда смотрю тесты только от вас
До нового года работы у вас непочатый край)) Тут и Интелы в двойном размере, и Амд тоже и с процами, и с картами. Я с вашими видео как Троя с процессорными ядрами - сколько ни дай, всё мало))
Спасибо за труды! Ждал именно вашего обзора данной карты!👌
Спасибо.
@@i2hard на 9:32 ошибка в графике, да и после во многих местах)) графисту щелбан)
а в чем ошибка то?
@@i2hard я один это вижу? i120.fastpic.org/big/2022/1027/a1/116310f9315912043faa82e6e0a8b2a1.jpg?md5=xTMbCOC7_G1Gxq9-z7iCeg&expires=1666875600
@@i2hard я кажется допер, но графики у вас конечно неудобные по мне
Лучшие техно блогеры по железу, ждал ваших тестов как свежего воздуха!!!) Супер!)
согласен
Спасибо вам! Купил 4090 ориентируясь на ваши тесты, хорошая видеокарта.
Спасибо за видео. Сделайте пожалуйста более подробный тест в рабочем ПО. У вас был такой ролик, правда пару лет назад.
Спасибо за обзор, все очень качественно! Труд огромный, представляю сколько времени потратили. Кайф!
Ребята молодцы! Очень круто!!! Респект!
И снова выше всяких ожиданий!
Долгожданный обзор, спасибо!
Очень качественный обзор. Давно такого качественного и главное по делу, обзора не видел! Смотрю Вас впервые ... С меня подписка и лайк!
Добро пожаловать :)
Спасибо, очень ждал от вас обзора . 👍👍👍
Спасибо за сравнение!
4090, хороша. Прирост, конечно, что по процессорной части, что по видео, что по рекомендуемым ценам за последние годы весьма и весьма заметный. Есть одно но, а игры где, ради которых хотелось бы сменить видеокарту, процессор, чтобы увидеть кардинально иную картину. Требования растут, но картинка на мониторе лучше не становится (я, например, про Plague tale requiem или, особенно, gotham knights) ?
В готеме картинка хуже, чем в предыдущем Бэтмене. А требования... Они давно уже никак не связаны с картинкой, а с прибылью компаний.
Играй в задроту 2 в 678888 фпс, теперь так и будет их стратегия увеличивать разрешение и не более
@@ЮрийТомин-ъ6э так суть в том, что похорошему увеличенная мощность позволяет тратить меньше сил на оптимизацию, что в свою очередь дает возможность улучшать геймплей и мир игры, но, к сожалению, компании так не считают
Ура! Дождались! Ждём в комментах гениальные шутки за 300 про размеры карты=)
Плохо, что в итоговом резкие не сказали, что новая карта на вырост. Сейчас нет мощного процессора, который полностью выжмет соки из карты. Ну, по крайне мере для QHD.
Самый очевидный вывод из видео - 6900XT офигенна.
4090 космос. Как по производительности, так и по цене. Хотелось бы взглянуть на что-нибудь вроде 4070Ti, как на нечто более близкое по цене к простым смертным )
Вы там того, берегите себя, оборудование и помещение от пожара.
Могуче, да. 4090 сейчас в Регарде за 155к лежит. Но по хорошему, он нужен только при игре на 4к. Для всего остального есть 3070 за 40к в том же Регарде.
0:59 ошибка вместо Amper Turing написано
Спасибо
Тесты в 2к и 4к лучше производить подряд для каждой игры, а то к моменту теста в 4к уже забываешь фпс в 2к и сложно оценить изменения
Спасибо за обзор! Как всегда на отлично всё сделали. Цена пока дикая, но если вся линейка будет холоднее предыдущей, то это будет просто кайф. правда цены будут кусаться, но что же тут поделаешь...
Спасибо за обзор! Очень интересно!
Можно было бы и тест этой карточки, чтобы узнать разницу при использовании к примеру бюджетного проц по типу 12600к и премиум сегмента 12900к. Большая ли будет разница? А то может получается что если покупаешь такую карточку, то надо иметь именно топовые все комплектующие
Тесты 12600к и 12900к уже есть, разница менее 10% при прочих равных. А так да 12900к элита, аж 10% прироста.
Нихуя себе 12600к бюджетный, для 95% это полная ложь. Но в сравнении с 4090, в проц действительно можно будет иногда упереться. Лучшей парой для неё будет 7000 линейка райзенов, особенно 3д версии которые выйдут в первой четверти следующего года и 13 линейка интел. Вторая опция, к сожалению, имеет смысл только для владельцев материнки на 1700 сокете
@@МальвинаКотик-л1ъ сейчас лучший проц для игр это 13600к, для 4к или 2к.
@@NezaicVR да, это отлично, только вот как только выйдет 7800х3д - интел объективно ничем не сможет ответить. Для людей типа меня закинуть 13600к в уже имеющуюся z690 плату это очевидный вариант, но для людей на АМ4/lga 1200.. Покупать з790 плату чтобы через 3 месяца узнать, что их карта может ещё больше, если купить ам5 плату - грустно. В этом случае мне кажется более логичным вложиться в ам5 с каким нибудь 7600х сейчас, а через 3 месяца поменять 7600х на 7800х3д.
В первую очередь нужен монитор 4к 120hz+
I2HARD, БОЛЬШАЯ ПРОСЬБА! Когда будете делать сюжет о DLSS 3.0, не забудьте рассказать про INPUT LAG (задержки), которые вырастают при его включении! PRO Hi-TECH о них рассказали! Спасибо!
Они и так об этом в курсе, естественно эта тема будет краеугольной при анализе генерации кадров
@@dead_locked не знаю, не знаю... Её могут не затронуть... Хотя от 8 до 12 миллисекунд задержки при включении DLSS 3.0 - это очень много!
сделайте тесты по температуре нового разъема
Разъем ничто, температура всё! 😅
По поводу "бутылочного горлышка". Складывается впечатления, что у одних разработчиков игр руки прямые, а у других - жадные.
Начали всплывать подробности, что на 4090 плавится разъем питания. Если информации для ролика будет достаточно, что с удовольствием посмотрел бы его на вашем канале 👍
Можно на других
Во время съемки тестов ни 1 4090 не пострадала
Снимите разницу в производительности между Z690 ASUS и Z790 ASUS с 13900К. Будет интересно.
будет, но сначала получим 13900
@@i2hard , отлично! Сам жду 13900К свой. У меня ASUS Z690F-Gaming Wi-Fi. Ходят слухи, что на Z690 в многопотоке результат на 25% ниже, чем на Z790. Но надо обязательно обновить прошивку Биос и Intel ME (!) с сайта производителя материнской платы на Z690.
@@serguei1029 да просто разница в стоковых лимитах, вот и всё
@@spidertech4014 , моя материнка из коробки без лимитов запускает процессоры)
@@serguei1029 это проблема у асуса новом обновление исправят по этому уже была инфа на msi такой проблемы нету
Будет ли обзор на программу project hydra для Ryzen'ов?
Вы молодцы. Спасибо за контент!
Подскажите, а мониторинг MSI Afteburner?
Вопрос по частоте памяти видеоакарты 4090, у вас отображается 20 000+ Мгц, а у меня, как и у многих других обзорщиов 10 000+Мгц. Я куда-то не туда смотрю?
20+ГГц - эффективная, мониторинг отображает реальную с какими-то коэффициентами, надо просто настроить АБ, мало кто это делает
При разнице в цене RX6900xt и RTX3090, первая очень хороший результат выдаёт.
3900?? Новая карта что ли?))
@@ykpona_B_pom_MoJlomumb какая разница. В цене дело
@@RicoChicoMan про цену я знаю, у самого 6900xt, если душно открой форточку
По сути прирост производительности только от перехода на 4нм тсмс увеличение cuda rops tmus, ну и мелких улучшений
да, куртка вообще не парился. Тоже есть ощущение халтурности этого поколения несмотря на прирост 60-70%
Спасибо большое за видео! Всегда жду именно Ваши видео, лучший контент такого типа во всем ютубе, такого разбора вопроса и подачи информации нет ни у одних "техно-блоггеров" с дахреналионом подписчиков и кучей железок от производителей, все какаие-то бесполезные графики, куча воды, отсутствие необходимой инфы, 90% из них температуру памяти карт вообще не считают нужным озвучивать... Спасибо еще раз, отличный контент.
З.Ы. Графики у Вас в FPS-Monitor сделаны? если да, можно ли скачать Ваш пересет, или программа этого не умеет?
Замеры производятся MSI AB + RTSS + HWINFO, графики делает отдельный небольшой сайт.
@@i2hard Понял, спасибо большое за ответ!
Спс огромное за обзор
Ещё раз убедился бу рх 6900хт с Авито за 45000. Топ среди топов. )) Ждём 4070 по 60к
+Взял сапфировский 6900 XT Nitro + с Авито за 46000 с гарантией до 24 года.Да 3090 и 4090 мощнее,но вы сможете их взять за 45-47к???Вот и хрен то что нет,а для моего моника Huawei 165гц 2к разрешение, 6900xt вполне хватает.
@@PVP_58 если не сложно можно линк продавца?! На Авито на эти 6900
Я с озона взял новую за 48к.
@@PVP_58 а зачем мне 3090 когда есть 3080ти Которая даже чуть мощнее и жрет меньше
@@PVP_58 а 3080 ти за 50 к можно забрать бу))
Шикарный обзор!!! Низкий поклон за столь огромный объем проделанных работ!!! На последнем стриме говорили, что к вам едет 5700х... К Дмитряге едет или Виталик будет тестить? Когда приедет то? В планах сравнивать его с 7700х или 7600х? Когда ждать обзора?
Спасибо ! А когда будет такое же сравнение новых процев ?
в процессе тесты
4070 жду...ждал бы 4060, но боюсь не доживу...
Подскажите, а подсветка у нее всегда горит или при запуске вертушек ? что всегда бесило на 2080 аурусах.
Лихо конечно куртка достал из рукава свой главный козырь - фабрику TSMC.. На самсунге была бы такая печь, что мало бы никому не показалось.
Отличный обзор! То есть получается, что если не планируешь 4к, то 3090ти за 80-85к это норм выбор?
Тогда уж лучше 3080ti за 55
@@an1xr На хрен нужен этот обрубок 3080ti, если уж экономить и не целится в 4к, то проще взять обычную 3080 которая будет ощутимо дешевле. Ну а если нужна хорошая карта, то это 3090ti и только она. если не хватает на 4090 конечно.
@@AlexGun1st потому что 3080 поголовно ужаренные в майнинге и отстает она от 3080ti прилично (3080ti как 3090 фпс дает)
Разъем конечно имба! Плавится он быть здоров
Какую программу вы используете для мониторинга?
MSI AB + RTSS + HWiNFO
ИМХО, мне кажется проблема не в процах, а в оптимизации движков. Т.к ну очень странно выглядит, что топовый 12900к с гигансткой мощностью на ядро и с таким количеством ядер не может подготовить больше кадров. Больше похоже, что движок игры сам душит большее количество кадров.
Карта слишком мощная для 1440р в современных играх, только и всего.
Это знаете, как запустить 3050+i9 в 480p и говорить: не может быть, что такого проца не хватает, для загрузки карты, наверное это движок ее душит... :)
@@АндрейДерябин-м6е Я бы не сказал, в нативе с лучами и моником 165Гц самое то как раз. Что там такого не может отрисовать 12900К? Вот что? Игры страше этого проца...знаете где еще проц не может отрисовать...гта 4...ой, так там оптимизация кривая и почти все новые карты недогруженые...что, опять проц слабый? Только вот на вулкане в гта4 почему-то гпу уже догружается нормально, вот чудеса то.
@@legion1373 Я основной принцип объяснил. По поводу ГТА4 ничего сказать не могу.
Спасибо огромное за проделанный труд.
Мое почтение.👍👍👍
Подскажите, пожалуйста, через какую программу мониторинг процессов идет?
MSI AB + RTSS + HWINFO
@@i2hard Спасибо!!!
Скажите, как называется программа, мониторинга процессора и видеокарты в видео?
msI ab + rtss + hwinfo
Как я понял во всех тестах игр без разгонов амд упирается в температуру от туда и статеры (может и фпс было бы выше будь нормальная температура)
Нет, статтеры не из-за температур
а можно ли узнать какие проги для записи используются и было бы идеально узнать их настройки
MSI AB + RTSS + HWINFO + отдельный комп с картой захвата :)
@@i2hard аа понял) спасибо огромное что ответили) было очень интересно))
Добрый день! вопрос немного не по теме , но вижу в тестах , у rx 6900 температура чипа 80гр , а хот спот 100, хотелось бы ваше мнение у знать , это нормально? сам недавно обзавелся 6800xt и там похожая ситуация в стоке
Сапфир Нитро + бери, у них охлад збсь
*А почему вы сравниваете ROG STRIX версию 3090 с обычной 6900XT?*
*Почему нельзя выбрать Сапфир Нитро + или XFX или Рэд Девил или Нитро + PURE 6900XT ИЛИ 6950XT?*
что есть на руках, то и сравниваем. Это ж логично?
@@i2hard ну так то да, но не совсем, ведь это не прямое сравнение 1-х конкурентов.
При прямом сравнении уже было бы точно не логично.
а где сказано, что сравнение первых конкурентов? Ну и вы всегда можете сделать так как хотите.
С 40й серией вышли и новые драйвера, которые, как говорят, повысили производительность и 'старых' 30ток и даже 20ток. Интересно было бы посмотреть как смотрятся видеокарты среднего и выше среднего именно с новыми дровами, амд, свои тоже уже допилиил вроде как. На видеокарты 3070,3070ти, 6750хт, 3060, 3060ти, 6800хт сейчас очень хорошая цена, много людей собирают на этих картах .
У амд даже на встройках фпс вырос в 2 раза в майнкрафте, то есть дрова подходят для всех карт именно у амд, но последние дрова настолько кривые, что в хроме (гугл, эдж) мигает курсор и лагает. Дрова мегакачественные (нет)
Ждал ваши тесты
Жду процы 7700х и 13700к
A podxodit li eta video karta na asus z590 i5 11400?
Подскажите что за приложение для тестов? Которое отображает телеметрию на экране!
MSI AB + RTSS + HWINFO
RTX 4090 это карта only for 4к. То есть 1440р если только киберкотлета (а там обычно не ставят ультра настройки). Так что упора в проц по сути и нет, просто надо карту использовать в правильном разрешении и проблем не будет. Это кстати проблема многих геймеров, используют мощные карты под низкое разрешение и удивляются упору в проц.
А так тест топ, всё понятно и без лишней воды.
да нет там упора в проц, просто тестеры похоже не в курсе лимитов внутриигрового движка. Там в тестах и с i9 13900 разогнанным в сопли (для тех кто говорит, что не хватает производительности ядер) + ддр5 на 7800мгц - в большинстве игр нет разницы по фпс и в 1080p, и 1440p, тк лимиты фпс в игре были заточены под запросы максимальных по текущим герцовкам мониторов. В каких-то играх лимит 140-160 фпс - зачастую ААА проекты типа киберпанк2077, в каких-то 180-200 фпс. В онллайн пострелушках типа пабг лимит где-то 240, в апекс 300, в валорант 400. Хоть ставь 720p, но выше фпс просто не получится добиться. Вот игры на движке вулкан - это уже совсем другое, там похоже и в 720p карта будет нагружена на 100%, тк движок будет позволять отрисовать больше 1000 кадров.
Посоны, когда приедет 13600К - большая просьба сделать тесты с DDR4, а то у рукожопов с других каналов на ней задержки по 78ns из-за соотношения 1:4
Наверное обидно тем, кто 3080 пару месяцев назад брал за 120-130к, эх как же все не постоянно
Такое ощущение, что 4090 не хватает ПСП. Какое-то странное потребление мощности и большой разброс по показателям.
Чип стал в 2 раза сильнее, а псп увеличилось на 7-10%
Крутой рывок производительности! Так это что, небольшой андервольтинг позволяет сбить энергопотребление 4090 почти на 100 ватт? Может быть это и решает проблему плавящихся коннекторов питания?
Проблема не в мощности как таковой, а в том, что NVIDIA закупила некачественные переходники и она это уже официально признала. В сети есть фото этих вскрытых переходников, там толстые жилы припаяны к тонкой фольге точечно, особенно страдают крайние провода.
750W Deepcool PQ750M Gold хватит ? Только 3 пин 8 есть. Процессор 5600Х. Планирую андервольт. Думаю при жоре около 400вт должно работать.
850W дипкул выбивало.
@@i2hard выбивало в защиту с 3090, с 4090 должно быть лучше и может даже и хватить
А зачем 4090 ставить к 5600x??? Не слишком ли будет??
А как вы убрали фризы в играх на 12900к? Я к тому, что из-за ерор-ядер у меня фризы были на 12700ф, т.к. на десятке иногда нагрузка кидалась на них
Не зря подписан, глянул обзор Мурка, так он не удосужился выключить в тестах DLSS 🤦 Тут хоть всё грамотно, глянул нормально сравнение.
Прекрасный обзор, спасибо !!!
аккуратнее там с 4090 посоны, 40 раз лимит по дерганию питальника вроде как, который при этом у некоторых начал гореть
Дело не в лимитах, а в говноблоках.
@@AlexGun1st Дело не говноблоках, а в демопереходниках, которые NVIDIA закупила для 4090.
Осталось только сделать интересные игры которых уже давно нет и не предвидится.😂
Здравствуйте! Купил на днях 4090 gigabyte на замену 3080. И разница в hunt showdown 15-30 фпс~150) посмотрел вот и понял, что скорее всего дело в процессоре слабоват 10700к
ruclips.net/video/35PcR6xrh0c/видео.html
@@Dmitryaga стоит ryzen этот взять или 12900-13900 взять ?
И реально из-за процессора такая разница в фпс? У меня,на ультрах в 2к прыгает бывает до 200, но среднее это 130. Бывает до 110. А так процессор 10700к и 32 ддр 4
@@gariknana119 сначала стоит попробовать разогнать память и настроить все тайминги
@@KolmykovVN я понял. Озадачусь
@@gariknana119 если нужен максимум в ханте - 3д бест бай, как говорится. Однако новые процы красных и синих не тестили ещё
Блока питания на 750 Ватт хватит для 4090?
У тебя стальные шары?
@@MetaMorph3D хотел написать для 4080.
Кайф обзор.От души!)
А ре бар и сам были включены в тестах?
да, об этом в видео сказали.
Молодцы парни-красавы!!! Спасибо за обзор!! Росту каналу и чтоб вам вендоры побольше железок засылали!!!
Где же я слышал голос диктора, такой знакомый
С появлением 13 поколения интуль и 7к зен, интересен тест сравнения хотяб последних 3 поколений, какой прирост в рабочих задачах.
Андервольт весьма норм же, сохранили почти такую же производительность, но скинули с ГПУ и памяти где то около 5 градусов.
Эх куда делись тесты на топовых отборных камнях 5.2 5.3ггц и с максимальным упором в гпу 4к
Максым, вопрос, сколько пробег у 4090 Octavia? Откуда привезли? Сколько заплатили? У кого и где лучше брать?
Что в плане бр с 4090? Она кончено сильно опережает 3090, но рдр2 на это плевать и вообще не запускает?
И самый главный вопрос? Сколько фпс на ультрах в 4к в тундре и Таркове?
Парни, не теряйтесь!
Стоит ли брать сейчас 6900XT или все же к 3080 присмотреться ?
в зависимости от разрешения, если фуллхд на 5 лет вперед под высокие герцы бери 6900хт, они холоднее и менее прожорливые и больше видеопамяти
@@TMWagner21 2К разрешение, Одисей G7. Но как то Нвидиа своим ДЛСС привлекает, и в Киберпанке привлекает оптимизация. Смотрел тесты, что АМД в ней с фризами/микрофризами работает
@@ДенисВолков-л2ъ хз, кибер прошел и забыл, не показатель. Фср работает, я 10+ лет на зеленых сидел, уже не то что мне нужно
@@TMWagner21 а чем сейчас не утсраивают? На авито +- цена одинаковая у 6900 и 3080.. ломаю голову с выбором
@@ДенисВолков-л2ъ горячая память гддр6х которая у большинства моделей перегревается, жрет на 30% больше энергии, я играю принципиально в нативном разрешении, т.е. длсс мне не нужен ни фср. Я считаю отдать бабки за карту и потом мылить картинку/смотреть на артефакты это себя не уважать.
Потому под мою задачу 6800хт под фуллхд на высокие герцы самое то.
Я сторонник карт как 1080ти, много мощности, много памяти, никаких финтифлюшек лишних.
Один из первых русскоязычных блогеров, сделавших обзор)
на самом деле нет, уже обзоров 5 было, а может и больше )