А ко мне едет курьер с такой же, но в исполнении GameRock... Не спрашивайте зачем. Даже монитор не 4к, а QHD. Просто хочу 🍞 Из доступных вариантов - Гига/Инно3д/Палит, - пришлось выбрать последнее.
Они решили использовать самую быструю память , что есть на рынке.Память микрон.У микрон gddr6x память, собственной разработки.У Самсунга нет такой быстрой памяти, а есть обычная менее скоростная gddr6.
@ТЕРРИТОРИЯ ПК вижу: майнинг умер, доллар ползёт вниз, карточки которые всё покупали за 150+к сейчас могу купить за 70к, с дубайска не первый раз заказываю железо без пошлины которое упало в цене. Или ты про политику на техно канале хочешь, мамкин бунтарь)
@ТЕРРИТОРИЯ ПК ты либо слеп, либо глуп - я написал тебе пару экономических фактов, которые позволили тысячям людей сквозь ожидание сделать топ сборки, по цене видео-карты января 21 года, а ты снова разлил воду- осознаешь свою бессмысленность? Давай, на связи, пустышка))))
@@Dpo6aW это на бумажке долар в низ идёт пока рубли штампуют везде где только можно. Как перестанут искусственно сдерживать валюту дай бог что б мы 200 увидели за бакс
@@Mizantrop._ как здорово что с февраля я пользуюсь курсом по 60-70р стало быть стану богаче в десятки раз))) и так, давай разберёмся, если страна печатает деньги - валюта обесценивается, и доллар растёт, открываем книжки по экономике убеждаемся в этом. Может ты хотел сказать страна использует резервы? Так и после их окончания курс доллара не попрет наверх, тут работают иные факторы. Но если курс станет 200-500 я стану миллионером поневоле, у руля не идиоты и не допустят подобного) Так что ты имеешь ввиду когда говоришь на бумажке?
Тот случай, когда у тебя сцена в Люмионе сжирает все 8 гб видеобуфера и еще 30-40 гигов оперативки, выдавая еле еле 10 фаписов, а блоххеры тестят 4090 на игрульках)) Я не могу конечно решать за людей - что им делать. Но может лучше такое железо прогонять исключительно в проф софте. Хотя бы в том же D5 Render
Привет! Спасибо за интересное мнение, про блок питания было особенно полезно ибо многие советуют чть ли не 1600 ватт под нее брать) спасибо, продолжай, подписываюсь)
6:00 Поясняю за микрон Сейчас только микрон делает двухгиговые чипы gddr6x, остальные ещё нет Одногиговые приходилось с обеих сторон располагать, а двухгиговые только с одной
@@drakonplay8955 лучше тогда брать топовый, чтоб забыть о нем на несколько поколений, чем эти 60е обрубки каждый раз скупать. также и видеокарту . пока на 9900м пересижу на сколько его хватит, как отыквится, так и махну. обрубки нынче дороже обходятся.
@@Serodji Согласен), спасибо за feedback аудитории, и желаю удачи в дальнейшем :) Ну а карточка действительно монструозная, да вот только кто сможет ее себе позволить? А кредит брать, только себе дороже, одну по цене 3х возьмешь
@@Serodji все верно, карта просит 4 × 8 пин, но у тебя на бп вдвое меньше 2×8 пин, Ты имеешь ввиду кабели от блока питания pcie 6+2 pin (раздвоены, дублированы)? Так получается?
Бро, спасибо за обзор, но если честно, моё субъективное мнение, стоило разобраться в теме чуть побольше, некоторые тезисы из видео ну очень спорные. Делать выводы о всех 4090 на основе одного лишь гигабайта -это неправильно
Не пидите, для 4 типов, карта подойдёт для майнинга, т.к. единственная копает в какой-то более ощутимый + чем вообще все остальные. Если курсы крипты пойдут даже чуть вверх, на прилавках вы ее не увидите, либо по ценникам 200-300к.
@@Serodji даже Найсхеш с вами не согласен. А вообще народ майнит Kaspa, даёт 1$ грязными с 4090. Как только курсы чуть вверх - карт не увидят ни геймеры, ни «дызайнеры».
@@Serodji да и про то что майнинг сдох, слышу уже 4 раз. Но он чето все не сдыхает окончательно 🤣 Гораздо чаще можно слышать «майнеры 3-2-1-СЫ опять из-за них карты не купить и ценники бешеные». «Купите карту сейчас а часть стоимости отобьёте майнингом»( с) ТехноКухня, Прохайтек, и ещё немалое количество техно-блогеров в 21-22гг.
У меня Суприм. Да в любом исполнении можно брать и не париться. Если не разгонять, конечно. С простым андервольтом, потребление - 360вт в рендере, даже с небольшим повышением частоты гпу, относительно стока. Сам я хотел брать гамерок, но Яндекс выдал мне Суприм за 128 тысяч рублей и это была самая дешёвая цена за 4090, в декабре 2022 года. Ну а так, по карте все хорошо. С моим андервольтом и настройкой вертушек - 65-67 градусов на гпу, 75-76 хотспот, 70-78 память. Но это с учётом, что скорость вертушек я ограничил на 55%. При таких оборотах их не слышно.
8:25 большой процент брака на чипах samsung в прошлом поколении вынудило их вернуться к TSMC. 8:13 Какой вообще смысл в этом бублике? Зачем знать значения шума в специфичной программе, такой вопрос важен в обычных играх. И какой там шум в играх я не услышал. Раньше видюхи не тянули нормально 4К. Но платить столько мало кто готов. Доступный 4К будет скорее всего в следующем поколении.
@@Serodji И по поводу того что память стоит микрон а не самсунг, это проеб. Так как контракт Nvidia и Micron был на эту память и они ее вместе разрабатывали, но эт ладно
Нужно брать 4090 только gigabyte Airbus master тот охлад самый лучший из всех производителей 4090. И компонентная база там топовая как в Asus 4090 strix или msi suprieme. Версия гейминг от гигабайт хуже охлаждается и компонентная база дешманская.
@@vadzim9300 речь о том, что Ryzen 5 5600x может не раскрыть потенциал RTX 4080 тогда смысла и покупать её нет, может его предел это RTX 4070, мне кажется, что примерно так оно и есть. А из выпущенного для него предел это RTX 3080ti... Видимо.
На Ксеоне оно и понятно будет в 2 раза ниже fps чем на райзен 7700Х, на показания афтебернера в этом случае не смотри, и почему так я не вспомню точно, то надо Пашу "Этот Компьютер" смотреть, он там всё толково объясняет.
Неужели тот тест который мне нужен😍😍😍😍Я смело могу прибавить до 20% фпс))) Учитывая то что меня 6950Х в разгоне, и монитор 3840х1600))) Спасибо огромное автору за видос💥💥💥💥💥💥💥💥
и в кс такой низкий фепес потому что процессор для нее не торт. С рузеном 3700х ты уыидел бы его под 400. а с 5600 и того больше 500, ну либо интель 12400 какой нибудь
Интересный тест топовой карты, на очень недорогом железе) блок питания конечно даа)) но он и выдержал тут ничего удивительного) протос мало кушающий , видяха которая постоянно была недогружена, ее бы по ватам покпзать, да боже -200-300 ват кушала) вот еслиб это блок питания роставить в систему с 13900к и выше) блок питания сразу бы ушел в защиту) возможнл с бубликом бы еще плсопротивлялся недолго) 3дмарк убрал бы его сразу) а так ток проц материнка и тд это уже ват 450 бы лопало ток впуть плюс картав среднем 400-450 ват) с полным жором 500+ ват. При слабых блоках питания а так де работы через переходники и тд возможен повышенный нагрев карты) ну а так это как с чем бы сравнить…это как людоеда посадить на веганскую диету ))))то же самое пихать 4090 в такие условия) профи не профи карта , если есть деньги и возможность то для игр отличная видяха но и то производительности впритык это на 4 к) для моников с высокой герцовкой в 360 и выше для 2к ток ток) избыточной мощности к сожалению нет) раскрытие процом ну да будет еще мощнее проц еще больше герц будет поинтереснее, 4080 это 4к с лучами ток с дллс в осноновом везде вариант чип в половину меньше 4090) ну плюс 100 200 ват сверху в среднем) гореть перестали, так как задушили по прошивка так же задушили по дровам скочки напряга) так что лучьше брать обсалютно новую карту и ставить последние дрова, проблем не будет) не в переходниках дело там) как вы его там допихаои или нет))а так это эксперементпльные карты, норм будет 5 серия но ток помле выхода ждать пол года перед покупкой ) а то сто не серия то косяки вначале))пусть бэтотестиры закупят оценят , зелень поправит, и моно брать)))
не вижу про память что бы кто то написал, так что напишу я. nvidia ставит в топовые карты gddr6x эта память является совместной разроботкой nvidia и micron. и производит её только micron. но для амд не всё так плохо, samsung уже делает gddr6 которая быстрее чем gddr6x в 3000 линейке, в 4000 память ъта быстрее на 5 %
Автор, твой обзор максимально не объективный. ты тестировал лучшую на сегодняшний день карту в мире на откровенном ведре, помимо процессора думаю остальное железо также оставляет желать лучшего. Во вторых в тесте бенчмарка ты скорее всего забыл сказать, что 71 градус это температура hotspot, ну а про уровень шума ты откровенно приврал. Я сам являюсь владельцем такой же модели 4090 и она вообще бесшумная. И потом когда это 71 градус в furrmarke были как ты утверждаешь плохим значением ?
@@7_HERZOG_7 ну хз, мерял с другом, она выше 1660 super, проблема в том, что я купил 1440p моник, и там её уже иногда маловато. Понятно что в доте2 упор в 200фпс, но играх графонистее всё неочень.
Ну дай бог Серега чтоб таким и оставлася, а то я например старожил, не одного канала техноблогинга, проходит время и когда количество подписоты перешагивает грань 60к или 100к то там уже все , подписота становится пылью. И лишь не многие могут ответить на вопрос, когда пишешь в личку (какой лучше проц купить? например) когда собираешься приобрести оный , а не для того чтоб просто попиздеть, ведь у обычного человека нет возможности пощупать какое-нибудь железо вовсе. При этом время просто красиво и вежливо тебя послать у них имеется.))))
Strix 4090 🥰 вот там охлад огонь , разные исполнения поэтому и разница в температурах , гдето больше где то меньше , и кстати процесор тоже накидывает фпс он подготавлевает кадры естественно что у вас будет меньше фпс чем на более шустром процесоре
Погоди, а почему ты считаешь что RTX 4090 не для игр в 4k, ведь именно с этой картой наконец пришёл по-настоящему 4К-гейминг к чего небыло годом ранее когда были 20 и 30-е серии RTX-ов, но не суть, все эти 4090, 3090 Ti, Титаны а ещё раньше и двухчиповые видеокарты от nVidia были полупрофессиональные видеокарта то есть это тот же Geforce игровой но с возможностью из Quadro которые проходит и для геймеров особенно продвинутых геймеров которые со времён HL2 и Crysis любят только топовые и харкорные трипл-эй игр и для тех кто любит создавать 3D в Blender или 3Ds Max с Maya либо создаёт видеоролики в 4к и точка, так что не верю что 4090 и вся топовые версии Geforce является не игровым, ведь по-настоящему неигровым видюхой можно считать Quadro которые всегда был для профессионалов в 3D-моделировании, Анимации, Видеороликов для топ Ютуба и ТВ и CAD. И по поводу 3 игр я с тобой согласен что не все игры имеет крутую RTX-графики, потому что ещё со времён PlayStation 2 мировые разработчики видеоигр привыкли делать свои игры под консоли в первую очередь, по этой причине сейчас на пк очень много консольных портов которые интересы лишь владелецам именно этой платформы а не пк-боярам то есть в основном дети или казуальные игроки, а где игр которые являются по-настоящему пкшным и которые интересы именно продвинутым геймерам (настоящее пк-геймеры) основной аудитории топового пк наряду с профессионалами сейчас мало, потому что во-первых разрабы уже давно наплевать на пк-гейминг а во-вторых количество пк-бояр больше чем настоящих пк-геймеров.
@@Serodji ну да потому что большинство игр сейчас как в во времена PS2 и Xbox 360, были консольными портами, потому что разрабы популярных игр не ставит крутую графику во главу угла, лишь угодить рядовым геймером где они в большинстве своём играет на консолях но это в остальном мире конечно.
@@Serodji ну ты знаешь что графика замедлилось именно из-за консолей ведь пока не выходит новые поколения консоли графика в играх остаётся также как и прежде по причине ограниченного мощности консоли.
Наверное лучше будет взять в декабре 7900xt, она слабее но никаких траблов с охладом и влезанием в корпус не будет, да и не 32пина доп питальника надо)
@@Capybarin мне кажется она будет сильно дороже 7900xt, но я не знаю будет ли там урезана шина, если просто 4гб памяти уберут, то xt будет выгоднее, а если шину порежут то тут надо будет смотреть тесты, ибо с нашим ценообразованием за эти 4гб придётся отдать очень много деревянных
150к за этот блок каменный, лучше взять будет 7900xtx пустьи меньше производительность, но и дешевле, и полезет в средний корпус, да и 4к потянет 60кадров точно.
Честно скажу… вы**ться не планировал. Да, совершил ошибку выбрав 4к oled монитор. Ошибка была в том, что я искренне верил, что 3080 умеет в 4к. Но увы, она не умеет. Пришлось отдавать еще одну кучку деревянных, чтобы была 4090. Рад ли я? Ну… не знаю, работает все хорошо, кроме не оптимизированного киберпанка все летает. Но если вспомнить сколько это мне стоило, то радость от 4к гейминга как-то плавненько спадает. В общем, если будет у Вас выбор между 2к и 4к монитором - не вы**ывайтесь и купите 2к
У меня 6800xt и мне стало плохо когда я запустил Hogwarts legacy в 4к моего монитора, и щас просто смотрю эти обзоры, с мыслю купить 5090 когда выйдет, с обновлением всего пк. Бюджет 500к думаю хватит что бы обновиться
Да судя по тестам, сейчас вообще не существует процессора которые может везде раскрыть эту карту на 100%. Как и не существует корпуса, куда её можно адекватно впихнуть. Все эти провисания и шнуры питания выглядят просто нелепо. Может Nvidia сможет как то оптимизировать производство этой карты и условная 4090ti уменьшится хотя бы до размеров 3090.
Думаю, если в высоком разрешении (4к и выше) и на полных ультрах (включая рендерер 200% где это возможно), с трассировкой, без DLSS, с каким-нибудь 13900к, упор будет в видеокарту свегда.
У меня на 4090 MSI Gaming X Trio при 80% оборотов кулеров в 90% загрузке температура 38 градусов))) как так 71 градус ?!?!?)) в 71 я поверю при авто режиме, когда кулеры крутятся до 30%. У меня в таком случае 64 даже)
Это самый лучший техноблогер. Пока все зажравшиеся тестят на ryzen 7000, наш неподкупный тестит на xeon'ах. Спасибо за тесты!
АХаахах
+
Это как играть в футбол своими яйцами)
ага.., а 4090 на сдачу взял с этого зиона
@@igor6solo во еблан, видео не посмотрел, а уже пиздит)))
После фразы "Тестирую на зионе" заголовок "Самый адекватный и объективный обзор" заиграл новыми красками
Гений! Браво! Я аплодирую стоя! Тестить 4090 с зеоном - это сильно!
согласен
Ещё бы пенёк 4 взял бы 😂😂😂
только микрон производят GDDR6X, которую разработала Nvidia.
хотя самса уже разработала гддр 6 на 24000 частоте, так что..
Байт чтобы набрать комментарии
А ко мне едет курьер с такой же, но в исполнении GameRock...
Не спрашивайте зачем. Даже монитор не 4к, а QHD. Просто хочу 🍞 Из доступных вариантов - Гига/Инно3д/Палит, - пришлось выбрать последнее.
я такой же )) купил полностью компр с 4090 )) и пофиг на все разборы ))
счастливые черт возьми люди
А мог бы стать вулкановодом...
5:52 потому что GDDR6X память - это совместная технология нвидиа и микрона
Автор туповат видимо, чтобы самому узнать))
Для самых маленьких следует дописать, что гддр6х производят ТОЛЬКО микрон
За зеон👍 респект первый кто сделал обзор с 4090......хотелось бы в 4к еще игр и больше инфы
Первый ?
ruclips.net/video/2XgCjiIuGYk/видео.html
Ой, а кто это у нас
Карта огонь, просто горячая новинка, а если питать его aerocool kcas на киловатт вообще бомба, просто взрыв мозга
Увидите спецэффекты в реальной жизни) Покупайте!
@@smoke4707 смертельный восторг
Можно ли его ставить вертикально, через переходник?
думаю можно, если не упадет))
Важно чтобы поддерживался PCIE 4.0 шлейфом переходника, а то будет глючить ☝️
Они решили использовать самую быструю память , что есть на рынке.Память микрон.У микрон gddr6x память, собственной разработки.У Самсунга нет такой быстрой памяти, а есть обычная менее скоростная gddr6.
Это когда зеленые свою память делали, угорел в бане чтоли?:))))))))))
@@TAtoshkkko это ты на морозе? причём тут зелёные? речь шла о памяти самсунг и микрон.
Размер как от радиатора жигулей😂Лойс за тесты👍
Спасибо за выпуск, ломался купить/не купить))
Подожду 4060/4070
@ТЕРРИТОРИЯ ПК вижу: майнинг умер, доллар ползёт вниз, карточки которые всё покупали за 150+к сейчас могу купить за 70к, с дубайска не первый раз заказываю железо без пошлины которое упало в цене.
Или ты про политику на техно канале хочешь, мамкин бунтарь)
@ТЕРРИТОРИЯ ПК ты либо слеп, либо глуп - я написал тебе пару экономических фактов, которые позволили тысячям людей сквозь ожидание сделать топ сборки, по цене видео-карты января 21 года, а ты снова разлил воду- осознаешь свою бессмысленность?
Давай, на связи, пустышка))))
"не нужна тебе такая машина, брат..." 😀
@@Dpo6aW это на бумажке долар в низ идёт пока рубли штампуют везде где только можно. Как перестанут искусственно сдерживать валюту дай бог что б мы 200 увидели за бакс
@@Mizantrop._ как здорово что с февраля я пользуюсь курсом по 60-70р стало быть стану богаче в десятки раз))) и так, давай разберёмся, если страна печатает деньги - валюта обесценивается, и доллар растёт, открываем книжки по экономике убеждаемся в этом. Может ты хотел сказать страна использует резервы? Так и после их окончания курс доллара не попрет наверх, тут работают иные факторы. Но если курс станет 200-500 я стану миллионером поневоле, у руля не идиоты и не допустят подобного)
Так что ты имеешь ввиду когда говоришь на бумажке?
Годный контент бро
Тот случай, когда у тебя сцена в Люмионе сжирает все 8 гб видеобуфера и еще 30-40 гигов оперативки, выдавая еле еле 10 фаписов, а блоххеры тестят 4090 на игрульках))
Я не могу конечно решать за людей - что им делать. Но может лучше такое железо прогонять исключительно в проф софте. Хотя бы в том же D5 Render
Истину глаголешь!
Годный обзор 😉лайкосик влепил.
4:30-КОТИКИ!!!!!!!
Привет! Спасибо за интересное мнение, про блок питания было особенно полезно ибо многие советуют чть ли не 1600 ватт под нее брать) спасибо, продолжай, подписываюсь)
6:00
Поясняю за микрон
Сейчас только микрон делает двухгиговые чипы gddr6x, остальные ещё нет
Одногиговые приходилось с обеих сторон располагать, а двухгиговые только с одной
Сомневаюсь, что обзор объективный и неподкупный, в ролике нет игрового кресла)
Наебал получается?
@@markirra8649 на самом деле кресло вросло... кое куда
@@smoke4707 на самом деле кресло было продано, как и квартира для покупки 4090
За такие то деньги она в 8к во всех играх на максималках должна выдавать минимум 144 кадра
Помню как блогеры говорили про скорый 8к гейминг... (Хотя о чем я, можно же на 4090 запустить batlfield 1 в 8к)
Как интересно смотреть о RTX 4090 сидя с GTX 1660S
Ха) тут ваще на i3-4170 и Geforce 9600gt 1gb )))))
@@nightshadow5328 у меня стоит Ryzen 5 1500X но планирую менять материнку и с ней проц брать 3600/5600
@@drakonplay8955 ети процы будут слабые для 4090... там надо брать 5800х3д или 7000райзены+ddr5, но там цена космос.
@@ЮраБожик2024 я не планирую брать в течении 2-3 лет новую видеокарту в принципе
@@drakonplay8955 лучше тогда брать топовый, чтоб забыть о нем на несколько поколений, чем эти 60е обрубки каждый раз скупать. также и видеокарту . пока на 9900м пересижу на сколько его хватит, как отыквится, так и махну. обрубки нынче дороже обходятся.
Нравится данный канал) Молодец👍
Хочу взять видеокарту, и хочу спросить, что лучше: GTX 1660 или RTX 3050? (у меня просто есть возможность забрать не Б/У 3050 за 17 000)
Rtx 3050
Ты видел, что у ностальжи все таки вышло такое видео?))))
Видел, большего бреда я еще не слышал)
@@Serodji Согласен), спасибо за feedback аудитории, и желаю удачи в дальнейшем :)
Ну а карточка действительно монструозная, да вот только кто сможет ее себе позволить? А кредит брать, только себе дороже, одну по цене 3х возьмешь
@@Serodji а не подскажешь, как ты ее запитал?
Я вроде смотрю, на блоке 2×8 pin pcie
А карта еще столько же просит
@@vdpt385 там переходник, в него 32 пина надо воткнуть (8х4)
@@Serodji все верно, карта просит 4 × 8 пин, но у тебя на бп вдвое меньше 2×8 пин,
Ты имеешь ввиду кабели от блока питания pcie 6+2 pin
(раздвоены, дублированы)? Так получается?
Сколько градусов показывает hot spot в фур марке ? И температура памяти какая
09:45 чувак кстати годный контент пилит. Множество карт наблюдал в деле именно у него
очень жду от тебя обзор на radeon rx 7900 xtxxxxx, ( я не помню сколько там иксов) было бы круто посмотреть на их сравнение в твоем исполнении
да, я тоже жду это сравнение)
хтхтхтхтхтхтхтхтхтхтхтхтхтхтхтх*
Бро, спасибо за обзор, но если честно, моё субъективное мнение, стоило разобраться в теме чуть побольше, некоторые тезисы из видео ну очень спорные. Делать выводы о всех 4090 на основе одного лишь гигабайта -это неправильно
А ну если кресло есть настоящий геймер-ютубе не подкапать😂
GDDR6X это экслюзив NIVIDRO и макаронов,поэтому она только от них)
Байт чтобы набрать комментарии
@@Oforths люблю макароны)
Привет пока ещё не крупный блоггер, я сам такой-же))) Случайно попал на твой канал, понравилось, твори дальше)
0:24 что за разширение с рейтингом?
затестил ростовский блогер, только на 2666 v3)))
Кстати, Tokyo Ghostwire хорошие лучи, там разница заметна не вооружённым взглядом
Xeon настоящий герой. Тужился, тужился, но не смог. Помянем его. Он и 4090 как я и скала в команде
Микрон ставят так как гддр6х память есть ТОЛЬКО на микроне
Не пидите, для 4 типов, карта подойдёт для майнинга, т.к. единственная копает в какой-то более ощутимый + чем вообще все остальные. Если курсы крипты пойдут даже чуть вверх, на прилавках вы ее не увидите, либо по ценникам 200-300к.
майнинг сдох
@@Serodji даже Найсхеш с вами не согласен. А вообще народ майнит Kaspa, даёт 1$ грязными с 4090. Как только курсы чуть вверх - карт не увидят ни геймеры, ни «дызайнеры».
@@Serodji да и про то что майнинг сдох, слышу уже 4 раз. Но он чето все не сдыхает окончательно 🤣 Гораздо чаще можно слышать «майнеры 3-2-1-СЫ опять из-за них карты не купить и ценники бешеные». «Купите карту сейчас а часть стоимости отобьёте майнингом»( с) ТехноКухня, Прохайтек, и ещё немалое количество техно-блогеров в 21-22гг.
почему нет тестов в стратегиях ск 2 в 4на4 на200
Какая лучше - от ASUS ROG Strix или MSI Suprim X?
Есть тут владельцы?
У меня Суприм. Да в любом исполнении можно брать и не париться. Если не разгонять, конечно. С простым андервольтом, потребление - 360вт в рендере, даже с небольшим повышением частоты гпу, относительно стока. Сам я хотел брать гамерок, но Яндекс выдал мне Суприм за 128 тысяч рублей и это была самая дешёвая цена за 4090, в декабре 2022 года. Ну а так, по карте все хорошо. С моим андервольтом и настройкой вертушек - 65-67 градусов на гпу, 75-76 хотспот, 70-78 память. Но это с учётом, что скорость вертушек я ограничил на 55%. При таких оборотах их не слышно.
@@xstassmironov7038 благодарю. Повезло с выбором по цене)
А скорость вращения 80% вентиляторов это сколько оборотов в минуту? 2000-2400? Жаль в видео не сказал...
2300
не знал, что в Кемерово могут быть люди с новой 4090
Не знал, что в Кемерово могут быть люди))
@@Serodji сам в шоке, сам куплю себе скоро новый пк
Я бы взял её. Но проблема в другом, разъемы сгорают. Зачем мне убытки 😑
Только микрон делает гддр6х же, или я чё то упустил
6x память запатентована Микроном и производится только им, поэтому не бывает другого производителя GDDR6X.
так там GDDR6X стоит, по этому и микрон
Вот для кого такая видюха? Я её даже в корпус запихнуть не смог бы. И вот думайте, амуде или нвиде...
Ее не нужно пехать в корпус: сразу 10 штук и в ферму, 2-3 БП на 2000W и го.
Нвидя, но что нибудь по разумней, например 3070
@@Dt_75m на 3070 проще риг собрать и дешевле, их щас в достатке на Авито. Но это только пока что.
Игорь линк явно повлиял на данного молодого человека..
у меня даже кресло игровое есть
8:25 большой процент брака на чипах samsung в прошлом поколении вынудило их вернуться к TSMC.
8:13 Какой вообще смысл в этом бублике? Зачем знать значения шума в специфичной программе, такой вопрос важен в обычных играх. И какой там шум в играх я не услышал. Раньше видюхи не тянули нормально 4К. Но платить столько мало кто готов. Доступный 4К будет скорее всего в следующем поколении.
в играх (не во всех), плюс минус такие же температуры и шум
А чек? Никита тоже засылает карты. И Почему в Rdr Не Вулкан
зачем тестить вулкан на нвидии. А тз у меня на карту нету, я рекламлю именно тг канал, а не продукцию
@@Serodji Ну никита за это и засылал виктору, И тз у него тоже не было. И вулкан он более правильно распределяет ресурсы и там фпс больше
@@Serodji И по поводу того что память стоит микрон а не самсунг, это проеб. Так как контракт Nvidia и Micron был на эту память и они ее вместе разрабатывали, но эт ладно
Нужно брать 4090 только gigabyte Airbus master тот охлад самый лучший из всех производителей 4090. И компонентная база там топовая как в Asus 4090 strix или msi suprieme. Версия гейминг от гигабайт хуже охлаждается и компонентная база дешманская.
Самый адекватный политик
Какой именно лучше 4090 подскажите пожалуйста
А что с микроном не так ?
5:56 микрон это единственный производитель GDDR6X памяти. У самсы такой просто нет
Перед видео вылезла реклама систем видеонаблюдения, lol
Забавная ситуация, чувак берет 4090 а у него в пк стоит ксас, небось ещё в хуанан на зеоне в связку ставит
Скажите, есть ли смысл с ryzen 5 5600x ставить rtx 3090ti или даже дождаться rtx 4080?
Скоро от амд выйдут, адекватные по цене и по производительности
думаю не нужно
А что надо? Для игр 5600х ещё очень хорош. Всё что сейчас быстрее его попросит как минимум охлад совсем другого уровня.
@@Asus-new на АМД нет лучей и DLSS, а FSR 3.0 еще неизвестно каким будет... FSR 2.0 всего в 10 играх, а DLSS 2.0 в более чем в 200.
@@vadzim9300 речь о том, что Ryzen 5 5600x может не раскрыть потенциал RTX 4080 тогда смысла и покупать её нет, может его предел это RTX 4070, мне кажется, что примерно так оно и есть.
А из выпущенного для него предел это RTX 3080ti... Видимо.
Самые лучшие тесты, и это не шутка.
какой стоит в тесте блок питания
Данная информация есть в самом ролике.
Самый адекватный, объективный и неподкупный обзор на зионе и карты от Даблфронта
На Ксеоне оно и понятно будет в 2 раза ниже fps чем на райзен 7700Х, на показания афтебернера в этом случае не смотри, и почему так я не вспомню точно, то надо Пашу "Этот Компьютер" смотреть, он там всё толково объясняет.
да это понятно, мы тут лишь рофлим
Неужели тот тест который мне нужен😍😍😍😍Я смело могу прибавить до 20% фпс))) Учитывая то что меня 6950Х в разгоне, и монитор 3840х1600))) Спасибо огромное автору за видос💥💥💥💥💥💥💥💥
На сколько погнал? Сколько ест?
@@polrasepulrase8032 Скромно до 4.0 на Zalman CNPS 14X, ест до 165Вт
и в кс такой низкий фепес потому что процессор для нее не торт. С рузеном 3700х ты уыидел бы его под 400. а с 5600 и того больше 500, ну либо интель 12400 какой нибудь
Все забыли про Control с лучами
Интересный тест топовой карты, на очень недорогом железе) блок питания конечно даа)) но он и выдержал тут ничего удивительного) протос мало кушающий , видяха которая постоянно была недогружена, ее бы по ватам покпзать, да боже -200-300 ват кушала) вот еслиб это блок питания роставить в систему с 13900к и выше) блок питания сразу бы ушел в защиту) возможнл с бубликом бы еще плсопротивлялся недолго) 3дмарк убрал бы его сразу) а так ток проц материнка и тд это уже ват 450 бы лопало ток впуть плюс картав среднем 400-450 ват) с полным жором 500+ ват. При слабых блоках питания а так де работы через переходники и тд возможен повышенный нагрев карты) ну а так это как с чем бы сравнить…это как людоеда посадить на веганскую диету ))))то же самое пихать 4090 в такие условия) профи не профи карта , если есть деньги и возможность то для игр отличная видяха но и то производительности впритык это на 4 к) для моников с высокой герцовкой в 360 и выше для 2к ток ток) избыточной мощности к сожалению нет) раскрытие процом ну да будет еще мощнее проц еще больше герц будет поинтереснее, 4080 это 4к с лучами ток с дллс в осноновом везде вариант чип в половину меньше 4090) ну плюс 100 200 ват сверху в среднем) гореть перестали, так как задушили по прошивка так же задушили по дровам скочки напряга) так что лучьше брать обсалютно новую карту и ставить последние дрова, проблем не будет) не в переходниках дело там) как вы его там допихаои или нет))а так это эксперементпльные карты, норм будет 5 серия но ток помле выхода ждать пол года перед покупкой ) а то сто не серия то косяки вначале))пусть бэтотестиры закупят оценят , зелень поправит, и моно брать)))
не вижу про память что бы кто то написал, так что напишу я. nvidia ставит в топовые карты gddr6x эта память является совместной разроботкой nvidia и micron. и производит её только micron. но для амд не всё так плохо, samsung уже делает gddr6 которая быстрее чем gddr6x в 3000 линейке, в 4000 память ъта быстрее на 5 %
Автор, твой обзор максимально не объективный. ты тестировал лучшую на сегодняшний день карту в мире на откровенном ведре, помимо процессора думаю остальное железо также оставляет желать лучшего. Во вторых в тесте бенчмарка ты скорее всего забыл сказать, что 71 градус это температура hotspot, ну а про уровень шума ты откровенно приврал. Я сам являюсь владельцем такой же модели 4090 и она вообще бесшумная. И потом когда это 71 градус в furrmarke были как ты утверждаешь плохим значением ?
81% оборотов кулера, не много ли?)
не спорю что конфиг ведро
Спасибо большое за твои ролики, рад что ты продолжаешь делать свое дело!
Ждем РАДЕОНЫ
Как интересно смотреть о RTX 4090 сидя с GTX 980 TI
980ти довольно мощная карта около 1660 где то
@@7_HERZOG_7 ну хз, мерял с другом, она выше 1660 super, проблема в том, что я купил 1440p моник, и там её уже иногда маловато. Понятно что в доте2 упор в 200фпс, но играх графонистее всё неочень.
micron там потому, что 6x память делает только он, эксклюзивно для nvidia и именно по этому такую память не ставят на radeon
А что за талант на инвокере кнопки там жмёт?
Сильный чел.
Я)
топ 480 ммр
Брал Msi 4090 supreme X в основном для Satisfactory, и нового Асус 4к WOLED 240 герц монитора
Наверное потому что на карте GDDR6X, поэтому память Микрон? И что за предвзятое отношение к Микрону.. мда
Это байт на коменты касаемо памяти, а отношения на самом деле никакого нету :) У самого на микроне карта и все ок
Ну дай бог Серега чтоб таким и оставлася, а то я например старожил, не одного канала техноблогинга, проходит время и когда количество подписоты перешагивает грань 60к или 100к то там уже все , подписота становится пылью. И лишь не многие могут ответить на вопрос, когда пишешь в личку (какой лучше проц купить? например) когда собираешься приобрести оный , а не для того чтоб просто попиздеть, ведь у обычного человека нет возможности пощупать какое-нибудь железо вовсе. При этом время просто красиво и вежливо тебя послать у них имеется.))))
Это гениальный обзор отвечаю в чем его смсл ару
Strix 4090 🥰 вот там охлад огонь , разные исполнения поэтому и разница в температурах , гдето больше где то меньше , и кстати процесор тоже накидывает фпс он подготавлевает кадры естественно что у вас будет меньше фпс чем на более шустром процесоре
А за цены скажем спасибо войне )
Погоди, а почему ты считаешь что RTX 4090 не для игр в 4k, ведь именно с этой картой наконец пришёл по-настоящему 4К-гейминг к чего небыло годом ранее когда были 20 и 30-е серии RTX-ов, но не суть, все эти 4090, 3090 Ti, Титаны а ещё раньше и двухчиповые видеокарты от nVidia были полупрофессиональные видеокарта то есть это тот же Geforce игровой но с возможностью из Quadro которые проходит и для геймеров особенно продвинутых геймеров которые со времён HL2 и Crysis любят только топовые и харкорные трипл-эй игр и для тех кто любит создавать 3D в Blender или 3Ds Max с Maya либо создаёт видеоролики в 4к и точка, так что не верю что 4090 и вся топовые версии Geforce является не игровым, ведь по-настоящему неигровым видюхой можно считать Quadro которые всегда был для профессионалов в 3D-моделировании, Анимации, Видеороликов для топ Ютуба и ТВ и CAD.
И по поводу 3 игр я с тобой согласен что не все игры имеет крутую RTX-графики, потому что ещё со времён PlayStation 2 мировые разработчики видеоигр привыкли делать свои игры под консоли в первую очередь, по этой причине сейчас на пк очень много консольных портов которые интересы лишь владелецам именно этой платформы а не пк-боярам то есть в основном дети или казуальные игроки, а где игр которые являются по-настоящему пкшным и которые интересы именно продвинутым геймерам (настоящее пк-геймеры) основной аудитории топового пк наряду с профессионалами сейчас мало, потому что во-первых разрабы уже давно наплевать на пк-гейминг а во-вторых количество пк-бояр больше чем настоящих пк-геймеров.
я ртх сам трогал и почти везде разница минимальная
@@Serodji ну да потому что большинство игр сейчас как в во времена PS2 и Xbox 360, были консольными портами, потому что разрабы популярных игр не ставит крутую графику во главу угла, лишь угодить рядовым геймером где они в большинстве своём играет на консолях но это в остальном мире конечно.
@@Serodji ну ты знаешь что графика замедлилось именно из-за консолей ведь пока не выходит новые поколения консоли графика в играх остаётся также как и прежде по причине ограниченного мощности консоли.
Насчёт 3х игр с ртх автор не прав! ;) Есть ещё Quake 2 rtx (правда её уже и 3080 в 4к 60фпс тянет)
4 игры)
Скоро ещё Portal выйдет. Там тоже будет реальный полноценный RTX.
Наверное лучше будет взять в декабре 7900xt, она слабее но никаких траблов с охладом и влезанием в корпус не будет, да и не 32пина доп питальника надо)
Почему не 7900 xtx?
@@Capybarin мне кажется она будет сильно дороже 7900xt, но я не знаю будет ли там урезана шина, если просто 4гб памяти уберут, то xt будет выгоднее, а если шину порежут то тут надо будет смотреть тесты, ибо с нашим ценообразованием за эти 4гб придётся отдать очень много деревянных
@@nehisoka шина подрезана. Ощутимо ли - сейчас нельзя сказать.
Думаю в декабре 7900xt будет стоить дороже 3090ti.
@@Player-qp7ow не думаю шо стоит сейчас сравнивать видяхи нвидиа и АМД, 3090 ведь подешеветь может с выходом 7900хт из-за своей бессмысленности
Потом кто то запустит зеон хуанан и ксас с 4090
Зачем в 4к ставить 8х MSAA?
4090)
@@Serodji ну у меня тоже 4090, и все равно не понимаю зачем ставить такое сглаживание на таком разрешении
@@quasar9284 напомнить цену?
@@Serodji Причем тут цена? насколько нужно быть безмозглым чтобы включать ненужные функции ссылаясь на цену видеокарты?
@@quasar9284 мы перешли на личности, браво. А если серьезно, от 4090 ты ожидаешь что она вывезет вообще любые настройки
150к за этот блок каменный, лучше взять будет 7900xtx пустьи меньше производительность, но и дешевле, и полезет в средний корпус, да и 4к потянет 60кадров точно.
Тогда RTX не будет ☝️
Музыка фона ёбнутая из палаты номер 6
откуда инфа что рекомендуемый бп 850 ватт? в минималках указано что минимальный бп 1000 ватт, 850 для какой нибудь 3080
на википедии прочитал
Честно скажу… вы**ться не планировал. Да, совершил ошибку выбрав 4к oled монитор. Ошибка была в том, что я искренне верил, что 3080 умеет в 4к. Но увы, она не умеет.
Пришлось отдавать еще одну кучку деревянных, чтобы была 4090.
Рад ли я? Ну… не знаю, работает все хорошо, кроме не оптимизированного киберпанка все летает. Но если вспомнить сколько это мне стоило, то радость от 4к гейминга как-то плавненько спадает.
В общем, если будет у Вас выбор между 2к и 4к монитором - не вы**ывайтесь и купите 2к
РАЗВЕ МОЖНО ВОЗИТЬ ТАКУЮ Карту-в Дэу Нексии?!!!!!!! НАнялиБ МЭрсЭдЭс-ХОТЬ!!!!!!!
Samsung не производит gddr6x
Играть то не во что на этих супер-топовых картах. Смысла в супержелезе нет - ИМХО.
За тест на зеоне - МЕГАРЕСПЕКТ!!!!
У меня 6800xt и мне стало плохо когда я запустил Hogwarts legacy в 4к моего монитора, и щас просто смотрю эти обзоры, с мыслю купить 5090 когда выйдет, с обновлением всего пк.
Бюджет 500к думаю хватит что бы обновиться
Gddr6x эксклюзивная разработка micron и nvd
есть ещё 4-й тип - майнеры
За 1600 не нужна, а за косарь баксов с руками оторвут.
Да судя по тестам, сейчас вообще не существует процессора которые может везде раскрыть эту карту на 100%. Как и не существует корпуса, куда её можно адекватно впихнуть. Все эти провисания и шнуры питания выглядят просто нелепо. Может Nvidia сможет как то оптимизировать производство этой карты и условная 4090ti уменьшится хотя бы до размеров 3090.
Думаю, если в высоком разрешении (4к и выше) и на полных ультрах (включая рендерер 200% где это возможно), с трассировкой, без DLSS, с каким-нибудь 13900к, упор будет в видеокарту свегда.
На али есть крепёж с удлинителем для вертикального размещения видеокарты ☝️
У меня на 4090 MSI Gaming X Trio при 80% оборотов кулеров в 90% загрузке температура 38 градусов))) как так 71 градус ?!?!?)) в 71 я поверю при авто режиме, когда кулеры крутятся до 30%. У меня в таком случае 64 даже)
ну так у меня не х трио
@@Serodji ну все равно чет много
@@alexanderkoretskiy5260 ну охлад охладу рознь и тесты в стенде
Услышал что он в не игровой комп(серверный) потестил сразу отключил видео
Ну так по замерам у других больше 435 ват не жрала+ проц мать и тд, впритык влез, но блин рискуешь 😅
ну ты и нашел на чем тестить страно что не на ефиксах ещё тестил
Хороший контент👍
Наверное этот трактор нормально так электричества жрет...