это уже буквально так, такую видеокарту вполне можно вставить...подключить через окулинк к миним пк на 7940hx или ai 370 и эти малыши вполне себе эту карточку вывезут) имея всемеро меньший размер) мне 50** серия напомнила времена 5** серии, когда вышла отвальная 580 на том же чипе вообще что и 480, только уже на полноценном, была горяченной, отвальной и бесполезной
Через 10 лет..... Сегодня мы обозреваем нового флагмана от Хуанга. Аккуратно открываем его крышку - помещаем внутрь материнскую плату и комплектующие с жестким диском. На переднюю крышку крепим монитор и ставим на отдельную тумбу. Не забудьте теперь она требует отдельную киловаттную линию на 480 Вольт....... так начинаем тестировать .. она немного греется до 150 градусов но отдельный блок азотного охлаждения прекрасно справляется с этим.
Генератор Курток молодец.Всем мозги запудрил. Жаль нельзя прийти к нему с купюрой в 100$ исправив на ней цифру 100 на 2000$. "Это сгенерированные доллары" не смотри на артефактры от синей ручки
Кстати англоязычная аудитория так шутили при релизе в комментариях к видео с анонсами. Еще и про "5070 будет как 4090", хотя куртку не так там поняли. Там комменты по 100к лайков набирали 😂😅
ПО это как КПП в машине. А само железо - двигатель. Одтельно сравнивать смысла нет. Вы же не жалуетесь что мол "у меня в машине 1.8 литра, а вот В ПЕРВОМ Ford Model T еще в 1920ых было целых 3 литра!" Только вот выдавал он лошадок поменьше. И разрабатывался на езду считай без коробки.
Заебись 2025 год мы вставляем плату в видеокарту, ждём когда корпус будет пережитком прошлого и в новой 8090 можно будет прятать заначки от жены в свободных слотах для ОЗУ
@@ervin78561 даже интерфейс подлагивает ,я прямо сейчас это могу продемонстрировать залить видео , беру любую программу захватываю и таскаю по Монику и она плавно передвигается по экрану 200 герц , берешь софтину адреналин , хватаешь и она 20 кадров в секунду по экрану рывками передвигается . Даже в такой мелочи и то какой то косяк . У нвдиа лучше всегда у меня работало , но мне все ровно , цена качество мне на данный момент важнее было и у меня 5700х и 6600 . И так было всегда , со времён ещё АТИ . Вспомните каталист драйверы . С другой стороны на амд всегда легко было найти , какой то драйвер для новых игр , даже если разработчики уже не поддерживают карту , умельцы , как то делали это и игры шли , не знаю есть ли сейчас такое .
@ervin78561 даже интерфейс подлагивает ,я прямо сейчас это могу продемонстрировать залить видео , беру любую программу захватываю и таскаю по Монику и она плавно передвигается по экрану 200 герц , берешь софтину адреналин , хватаешь и она 20 кадров в секунду по экрану рывками передвигается . Даже в такой мелочи и то какой то косяк . У нвдиа лучше всегда у меня работало , но мне все ровно , цена качество мне на данный момент важнее было и у меня 5700х и 6600 . И так было всегда , со времён ещё АТИ . Вспомните каталист драйверы . С другой стороны на амд всегда легко было найти , какой то драйвер для новых игр , даже если разработчики уже не поддерживают карту , умельцы , как то делали это и игры шли , не знаю есть ли сейчас такое .
Выше тот же самый коммент оставил, 2 года б.я сижу ни 1 косяка, но все с ними что то не то, притом что регулярно обновляются, да еще и адреналин прям кайф.
ИИ бум + экспортные ограничения = 250к за 5080. 2 года назад я купил 4090 за 130к и при таких огромных улучшениях производительности как в 5090 мне ее хватит лет на 10 точно. Жаль только не купил тогда штуки 4...
Говорилось тут про 6000 баксов за RTX 4090. Не знаю. Я купил за 200 тр. MSI SUPRIM - никакие это не 6000 баксов. Но это было уже полтора года назад. Но доволен покупкой как слон ))) Можно ещё 2-3 поколения видюх сидеть и ни о чем не париться
А что не так с интерфейсом драйверов AMD? Единственная проблема это при запуске действительно может подтупливать, в остальном всё интуитивно и в одном месте, никаких дополнительных программ не нужно устанавливать. У той же Нвидии только сейчас вышел аналог, который к слову тоже может тупить.
@@Igor-Bond у меня второй ПК с карточкой АМД (RX 570), раньше на ней долго сидел на основном компе. Так вот в настройки я чаще всего заходил, чтобы отключить остановку вентиляторов при низких температурах и нагрузке. Этого прям сильно не хватает на Нвидии, простой переключатель (Fan Off) с сохранением кривой вентиляторов, не надо кривую самому собирать или выставлять вручную определённые обороты. Для нетребовательных игр это прям очень удобно. Но это мой бзик, в обычном случае в настройки вообще не нужно заходить) И как я понимаю это камень в сторону слетающих настроек, такое редкость что у красных, что у зелёных. Но у АМД настройки прекрасно сохраняются в файл, в случае чего профиль в пару кликов возвращается на место, даже после переустановки винды. Я как раз недавно столкнулся с проблемой, что профили MSI Afterburner при переносе на другой ПК не захотели подгружаться (была одна и та же карта Нвидии).
@@nodly93, у амд нормальные драйвера. Чтобы не слетали настройки, нужно в энергопотребление выключить быстрый запуск выиндовс. А вот у рткс проблема с hdmi , монитор показывает как телевизор (твч) и не работает g-sync пока не поставишь кабель display port
@@user-dr3qp6ie4c кривые там драйверы, по крайней мере были раньше. у меня была 3 года 5700ХТ(2020-2023), так вот там часто вылетал черный экран на 5-7 секунд(можете прогуглить "5700xt black screen"). По патчноутам драйверов они долго пытались это лечить, вылечили или нет не знаю, но после грейда на 4080 таких проблем нету. Блок питания был и там и тут Super Flower Leadex V Platinum Pro Black, так что вряд-ли какие-то хардварные проблемы AMD испытывала.
Не, братцы, при цене одной только видеокарты за 200 000 р. всё это давно уже не про большинство игроков. Это, увы, всё больше про состоятельных энтузязистов.
Ну так они вышли 4 дня назад, разумеется щас искуственный дефицит, ажиотаж и т.д. Через пару месяцев они будут стоить столько же, сколько сейчас стоит 4080
@@dangername6996это не отменяет того факта, что топовая карта стоит дороже 170 000 рублей. Она же и в долларах стала дороже. И при всем при этом, условная карта ртх 5060 (если такая выйдет) - будет позиционироваца как карта для нищих и производительность будет иметь соответствующую. А если полностью повторится ситуация как с ртх 4000 где все что ниже ртх4070 покупать нельзя - будет фиаско. Я конечно понимаю мол рубль-не-рубль там, все дела, но ценники на карты улетели за пределы адекватности и доступности. У меня весь пк (р9 5900х + 32ram + rtx3080_10gb) стоит как 1 ртх 5080! Это уже нивкакие ворота!
@@TechnoGameViking Я просто в какой-то момент поймал себя на мысли, что раньше все эти обзоры смотрел как реальное руководство по выбору товара. А сейчас исключительно как развлекательный контент. Интересно было бы посмотреть на статистику аудитории МК, какие карты используются. Сороковая серия процентов 10 хоть набрала бы? 🤔
Начать вступление с древнейшего мифа из начала 2010х о проблемах дров АМД, и потом в тесте показать проблемы с дровами нвидии 👍👍👍 кстати помимо этого подтверждаю, что на 572 дровах нвидии у меня начались графические артефакты в Dead Space Remake - на металлических поверхностях появились сине-зеленые артефакты , которых на прошлом драйвере нет.
Каких всех кривых чипов у топовых АМД. Сказал бы у некоторых, было бы честнее.. Совсем в логику не ку-ку? Автор уже на мат охота перейти. Ты если транслируешь на огромную аудиторию свои домыслы про криво работающие драйвера АМД или ты специально делаешь такие формулировки чтобы вызвать хайп и буру в комментах, что выгодно таким авторам на ютубе.
@@socceran7337 Я пользовался и чё дальше? Многими картами на самом деле пользовался и от красных и от зелёных 650 ti, r 290, gtx 1030, gtx 1650 super, 6650xt , 4070 super. И скажу , самые стабильные дрова как раз таки у красных, единственную проблему, которую я видел у красных - приложение дров перестаёт показываться, но это решается очень просто. А вот с зелёнными уже заемался, то одно то другое. Вот щас вышли дрова от 30 января, оверлей тупо не хочет работать и хз как это исправить, мелкание текстур тоже проскакивает как автор сообщил.
8:27 - двухлетнего RTXa? А ничего что 4080 SUPER релиз был в январе прошлого года? Какие еще два года? А вот 7900 XTX в ноябре 22 года...то есть ей то как раз уже больше двух лет.
@@ArTuRkrut13 обновленная карта старого покаление на данные момент, докапываться до такого смысла нету, а вот то что автор постоянно вставляет словечки по типу дегенератор кадров я бы по голове дал
@@ArTuRkrut13 я понимаю что 4000 серия вышла в 22-ом году, но так зачем тогда вообще упоминание о двухлетнем если 7900 XTX вышла тогда же? Уже не первый раз вижу на этом канале уклон в сторону зеленых. В этом же обзоре из розетки у красной 515...а пишем и произносим уже 520...и до кучи ни слова о том что в обзоре сильно разогнанная версия AORUS Elite и практически референсная MSI RTX 4080 Super Expert...ну да, зачем быть объективными.
@@powermanus1 мешает желание играть в новые игры сейчас, а не через 5 лет)) а там ещё 5 лет ждать, ибо зачем брать старье когда можно подождать и купить новое, и т.д.
Классный выпуск. Хотя покупать эти карты не собираюсь, но всё равно понравилось. Подробно, интересно, бодро. Тщательное исследование цены за ватт а также энергопотребление очень актуально ! Спасибо за труды !
2 раза за ролик слышу о проблемных драйверах АМД, но при этом реальная проблема с драйвером в какой-либо игре упоминается только со стороны нВидиа. Где же истина?! :)
@@antikillerhawkВам процитировать, или пересмотрите с 7:00? Там идёт перечисление: не очень удачные драйвера, (запятая) не очень работают с нейронами и т.д. Т.е. проблема с драйверами и с рабочим софтом это отдельные проблемы Про одну из которых ничего сказано конкретного не было, просто оценочное суждение (и при этом приводится прямой пример проблем с драйверами нВидиа). Вторая проблема, очевидно присутствует у АМД, опять же, смотря каким конкретно рабочим софтом планируется пользоваться. Для понимания: я скорее предпочту купить продукцию нВидиа, при равной цене и производительности, но не из-за проблем в драйверами у АМД,. И сейчас у меня в компе "зелёная" карта, поэтому не получится обвинить меня в амудефилии :)
@@ЕвгенийТ-ч8в "на мой взгляд не самые лучшие драйвера" - дословная цитата. Допустим прямого примера в его видео не оказалось. Но вот прямой пример от меня с драйверами на RX480. Пришёл ко мне человек с компом в феврале 2024 года, которому я собрал бич-пк, говорит в играх вдруг стало 2 фпс. Смотрю, а там и на рабочем столе фпс 10 стало. Посмотрел, оказалось, что адреналин недавно январьский драйвер накатил, в котором эта проблема и оказалась. Пришлось сделать откат и удалить адреналин, так как он уже не хотел работать со старым драйвером. Вот другой пример. Ставил человеку винду на комп с RX480. Через год звонит, просит приехать настроить игру, ну и так, проверить комп. Проверяю, кулера крутят на максималках. Хотя когда я всё ставил - автоматика сама работала. Помятуя о чудесном январьском драйвере, решил откатить, - не помогло. Пришлось руками настраивать кривую в адреналине. А уж сколько мне ноутбучные амд драйвера крови попили, можно томик издавать.
Мои реальные проблемы с реальными играми. Pacific drive - примерно пол-года назад вышла версия драйвера, на которой стабильно крашилась игра на старте, об этом писал сам разработчик в стиме. Примерно в то же время вышел драйвер, который 100% валил Mudrunner и Dakrtide на моей rx7600. Мне приходилось откатываться на старый драйвер, чтобы нормально поиграть в эти игры. Да, можно съехать на "ну это жи индихуинди", но на зеленых дровах я такого вообще не припомню.
Проблема с перегревом это и у карт NVIDIA так же есть , на моей INNO3D 4070 TI хот спот был 110 градусов, и карта тротлила ,и сбрасывала частоты. Помогла замена термо пасты на более качественную , хот спот сразу стал 88-89 градусов , а было 110. Но прикол в том что такие карты обычно на гарантии , а ДНС не особо обслуживает такие карты за бесплатно , и не признает дефект с выдавливанием термопасты.
А мне вернули в подобном случае деньги, принёс спустя 2 года и сдал на ремонт, мол перегревается. Через 2 недели просто вернули деньги. Не просите обслужить, просите починить, мол пропадает изображение при перегреве, никто проверять не будет
Это и раньше было, на 3080ти дельта по хотспоту со средней была 25-30, как ни охлаждай, прокладку с ФП поставил - дельта порядка 10 градусов. Эффекту pump out многие подвержены.
Такое впечатление, что для Нвидиа, основные клиенты сейчас, это разработчики нейросетей, которые обучаются на видеокартах. Отсюда и прекращения роста чистой производительности, и появления генератора кадров. Нужно же как-то продавать геймерам ядра ИИ, на которые и делают основной упор зелёные.
И не просто в нативе, а даже в старой доброй и медленной Виндовс 10, потому что в Вин 11 видеокарты RTX выдают больше кдс, как и потребляют на 20% больше!
Как же актуально наговаривать в 2025 году на драйвера АМД... Может хватит?? Лично пользовался многими картами обоих брендов и скажу, что у АМД драйвера точно не хуже, если не лучше. Хочешь разгон? Без проблем, разгоняй в драйвере. Хочешь, драйвер сам за тебя разгонит. Хочешь добавить сторонних эффектов в игры? Легко и просто, просто нажми комбинацию, чтобы вызвать оверлей и включи все, что нужно. Не надо заходить в отдельную панель через рабочий стол, где еще найди те функции, которые тебе нужны. Чтобы даже элементарно пользоваться всем функционалом тебе не надо автоищовываться в драйверах через аккаунт (как у нвидиа) , просто скачал и пользуйся. Хочешь фрисинк? Да без проблем, нажми две кнопки в драйвере и все. И при этом тебе не нужен специально для этого покупать display port кабель, как у нвидиа. Мог бы еще кучу всего привести, но не вижу смысла. Просто кажется тупым аргумент, что драйвера говно, даже без элементарных примеров...
"мерцания с dlss вы не заметит" я тот человек который похоронил и возненавидел dlss за мерцающие блики. Я не представляю, насколько нужно быть контуженным, что бы не заметить страбоскопы на крышах машин, хроме и т.д.
17:40 “в обычном геймплее вы не заметите (генерацию кадров)“ - лол, и показан «геймпадный геймплей» где игрок просто едет по дороге и то даже через видео ощущается эта задержка, как голова поворачивается. Вы попробуйте поиграть за нетраннера или милишника, где вам необходимо каждую секунду головой вертеть и тогда вы узнаете всю прелесть «всего-лишь» 35 милисекундной задержки. Это не резидент или алан вейк, поэтому такая задержка уже считается значительной. Про тех кто играет на билдах завязанных на оружие я вообще молчу, как целится с таким инпутлагом я вообще не представляю
Я как человек который записывает геймплей игр и выкладывает его на ютуб, хочу сказать вам что сравнивать плавность геймплея по ролику на ютубе абсолютно неправильно. В реальности игра выглядит намного плавнее чем на ютубе даже в 60 ФПС.
прошел на 4070ti кибепрпанк на максимальной сложности. Вообще не ощутил никаких проблем с задержкой. Проблема могла бы быть может в каких-то киберспортивных играх вроде контры, но там тебе никакие генераторы кадров и не нужны. Там и в нативе будет 500+ фпс.
Полтора года сижу на 7900ХТХ powercolor hellhound. Моник 2К. Играл на максимальных настройках в Plague tale requiem, forza horizon 5, horizon forbidden west, elden ring: shadow of the erdthree. Больше 360 Вт потребления не видел ни разу.
Жаль вас) посмотрите как фары в киберпанке заставляют откидывать тени от любых объектов в движении с лучами, игнорировать трассировку в наше время, уже глупо, Индиана Джонс привет тоже передаёт красным
@ ну че жаль? Я устанавливаю игру в которую хочу поиграть. Запускаю. Включаю для прикола лучи, если они вообще там есть. И кроме падения фпс не вижу ничего. Выключаю нафек и радуюсь тому что не переплатил в свое время за 4090.
Краткое резюме: перехайпленный оверпрайс от NV способен конкурировать приблизительно на равных с существенно более дешёвым топом от AMD двухлетней давности только с помощью проприетарных заточек с софтом (мухлёж с нейронкой и генератором кадров) а также только при включении "зелёных лучей" (которые, естественно, оптимизируют игры только под карты от NV). Это, безусловно, успех. Ну, а любители NV, собственно, получили то, чего всегда и добивались. И мантра про "ужасные драйверы AMD" порадовала отдельно. Очень хорошо про RT было: "...которые вы в динамике все равно не увидите"! P.S. Ах, нет, извините, это было про артефакты фальшивых дорисованных кадров.
Лучи - это технологии NV, DLSS - это мухлеж с нейронкой NV, FrameGen - это мухлеж с нейро-генератором от NV. А можно список новых технологий от AMD?) А то они чет сами делают FSR и AMFM по аналогии с NV, правда, выходит хуже... А так да, оверпрайс лютый, но через пару месяцев за 120к условные будет отличной покупкой
на самом деле это видео лучшая реклама амуде😂 7900хтх во всех играх без маркетинговых лучей либо равна, либо мощнее 4080 суперпупер и дешевле ее на 30т
Играю в 4к поэтому брал 7900xtx потому как 4080 в редкой игре в разрешении 4к будет на 3 кадров больше. Сижу полтора года ждал новое поколение карт хуанга. Хорошо что не слил свою чтоб купить 5080. А трассировку можно чутка поубавить. Если сильно просаживает. И генератор кадров у амуде тоже бустит x2 кадров во всех играх FSR тоже работает во всех играх и выглядит так же как DLSS если только в нон стопе не искать отличия. Не знаю как вы а я останусь на амуде. Жалею только о том что на момент покупки не взял сразу 4090 шоб с лучами было не так печально переплатив 35 рублей. Сейчас цены просто космос у куртки.
Говорит, если включить лучи, АМД ловит бледного. Ну так если напоить автора уксусом вместо воды он тоже бледного поймает. Что за бред, использовать технологию, для которой карта не предназначена.
сделать Рыксе андервольт и наблюдать снижение потребления на треть❌ хаить Рыксу весь ролик за высокое энергопотребление✅ | | | | | | | P.S. говорю как владелец БУшной 6800ХТ (у которой кристалл ещё кривее). сам думал, что покупаю кипятильник и нужно будет менять термоинтерфейс на топовый, но сделал андервольт и теперь хот спот не доходит даже до 80 градусов при околоминимальных оборотах кулеров, даже разбирать не стал
4080 тоже андервольтится. Суть то в сравнении. Вчера драйвер обновил и афтебернер выключился. В Space Marine 2 в нативе 1080p потребление 280 ватт на базе. Подрубил пресет с 950мв на 2700 и + 1000 памяти. Фреймрейт тот же, а потребление падает до 200 ватт! Если DLSS качество дать, то 160-180, а если генерацию кадров включить, то вообще за 130 ватт не выходит. Как 1060 блин, магия.
@@aleksandrshimanov5150 Ну тогда создатели АтомикФарта и последнего Ворика не русские компании, а киприотские. ;) Русская компания - создатели Смуты. =)))
Ебать открыли офис в чехии и сразу чешская кантора?😂😂 GSC Game World is a Ukrainian video game developer based in Kyiv with a second temporary office in Prague
@@Abnormaliz а сколько 7900хтх электричества сожрала ты не посчитал? электричество бесплатное? а переплата за более мощный блок питания тоже не считается? Амдэшная математика она такая...
А может пора дать Люлей разработчикам играм и программ, чтобы оптимизацией занимались? Лень, да? Или договорняк между производителями игр и карт? Просто игры всё хуже и хуже по качеству, а про смысл игр это вообще НУЛЬ!
Дед, таблетки выпей. В Ведьмаке, говорит, включил RT - мерцание исчезли, смотришь, а там DLSS ещё включен вместо TAA, который "натив" ( Если что DLSS убирает всю темпоральную нестабильность, иногда слишком хорошо из-за чего случается гостинг, а TAA делает это не очень хорошо). А ещё, значится, ты видишь мыло от DLSS, а изменения от RT нет? Ну ок, в зеркало посмотри (только не у редов, у них с зеркалами особое отношение)
Где-то потерялся момент про то, что генератор кадров работает нормально только там, где видяха в нативе вывозит нормальный фреймрейт. Пластмассовый мир все еще не победил
@@Dastiel. Тут есть нюанс. "Хуже", чем в нативе без сглаживания). длсс уже была на уровне msaa, теперь вероятно даже лучше, не говоря уже про хреновые TAA и FXAA. А так как без сглаживания с лесенками играть большинство не готово, то даже без учета буста фпс длсс почти единственные вариант. Ну если прям совсем зудит в жопе, то врубаешь DLAA
@@Dastiel.улучшение графики хахахахахахах. Если серьезно длсс конечно может сделать картинку приятнее(не говоря уже про длаа), но изначальная суть в повышении производительности ценой ухудшения картинки
Канал боится называть всё своими именами. Для них происходящее - это "СВО", а не война и "хлопки" вместо взрывов, и НПЗ горят не из-за украинских дронов, а от их "обломков"...
Спасибо что читаете комменты и прислушиваетесь, табличка просто бомба, сразу показывает кто есть кто и кто чего стоит. х1,5 к прайсу, за 12% производительности это прям сильно)
Жаль, что в погоне за фэпэсами геймеры стали забывать для чего нужны игры. Ау, в окно посмотрите, вот это настоящий графон, а игры должны развлекать и приносить удовольствие, чего к сожалению в последнее время не наблюдается.
@@mixture6696и с мыльцом. Раньше делали игры без всех этих апскейлиров и все было красиво и оптимизированно, не то что сейчас, игры делают с расчётом что без мыла в них играть невозможно
За окном точно такие же лучи, только генерирует их тебе солнце, а не монитор. А картинка в твоём мозгу точно такая же ненастоящая, а собранная из двух картинок с двух глаз, прошедших через автоинтеллект сетчатки глаза.
В видео показано сравнение, где 5080 быстрее 4080 супер в среднем на 15%. Это разница между старой супер и новой, но обычной версией. Между предшественницей (обычной 4080) и новой 5080 разница еще больше. Вот тебе и 25-30%
@ Я не замерял точных замеров, как сейчас, но я до этого видел не одно видео, где показан заметный прирост у 4080s после 4080. Я еще тогда подметил, что 4080s по производительности (в среднем) между 4080 и 4090. Получается, что 4080s стоит между 4080 и 4090, а 5080 - между 4080s и 4090
Красные карты только для игр. А может стоит проверять на каком-нибудь более серьезном софте? Блендер - это так поразвлечься, бублик замоделить. Что насчет Maya и 3ds max? Симуляция одежды в marvelous? Почему-то там я не испытывал проблем на своей rx6600m/rx7600
@@treexh пришлось написать лонгрид перед сном. RTX 3080 действительно быстрее RTX 2080 примерно на 60-70%, но вот RTX 2080 давала прирост над GTX 1080 всего в районе 30-35%. RTX 4080, в свою очередь, не на 60% быстрее 3080, а скорее на 40-45%, если смотреть в среднем по тестам. Более того, новые поколения зачастую растут не только в производительности, но и в энергопотреблении, что тоже не всегда идёт в плюс. Если же взглянуть на прирост в течение десяти лет, а не между отдельными удачными моделями, картина становится ещё интереснее. Например, GTX 980 вышла в 2014 году, и её производительность в сравнении с RTX 4080 выше примерно в 6 раз. Это чуть больше 20% прироста в год. Но если считать с учётом цен, то RTX 4080 стоит куда дороже, чем флагманы 10 лет назад. А если сравнить с 5080, то её прирост над 4080S как раз те самые 10-15%, которые стабильно повторяются из поколения в поколение. Так что если взять долгосрочную перспективу, особенно топовых карт, средний прирост за поколение действительно держится в районе 10-20%, а прорывы случаются раз в несколько лет. Душные факты: 1. RTX 3080 vs RTX 2080 RTX 3080 действительно быстрее RTX 2080 примерно на 60-70% в среднем по тестам. Однако RTX 2080 превосходила GTX 1080 в 30-35%, что уже значительно ниже. 2. RTX 4080 vs RTX 3080 Прирост RTX 4080 над RTX 3080 в среднем 40-45%, но не 60%. RTX 4080 в играх на максималках быстрее RTX 3090 на 30-35%, а та, в свою очередь, была быстрее 3080 примерно на 15%. 3. Глобальный прирост за 10 лет GTX 980 (2014) → RTX 4080 (2022) Разница в 5,5-6 раз, что даёт в среднем 18-22% в год, но не линейно: GTX 980 → GTX 1080 (2016) ≈ +70% GTX 1080 → RTX 2080 (2018) ≈ +30-35% RTX 2080 → RTX 3080 (2020) ≈ +60-70% RTX 3080 → RTX 4080 (2022) ≈ +40-45% RTX 4080 → RTX 5080 (2025) ≈ +15-25% Таким образом, если брать усреднённый рост по поколениям, действительно выходит 10-20% прироста за каждое новое поколение в среднем. Иногда бывают удачные скачки, иногда - стагнация, но в среднем тренд остаётся таким. Средний прирост между поколениями за последние 10 лет колеблется в пределах 10-20%, но бывают исключения, когда новые поколения дают до 60-70% роста, как это было с 3080 по сравнению с 2080.
@@PulsePC Ты что-то путаешь, 20% в год это 44% в 2 года или за поколение, карты же выходят раз в 2 года 😁 И проценты по-другому считаются, например ты пишешь 4080 быстрее 3090 на 35%, а 3090 быстрее 3080 на 15%, тут надо не складывать 35+15, а 15% или 1.15 умножать на 35% или 1.35 и получится 1.15*1.35=1.55 или 55%
так мониторинг хот спота отключен самой nvidia и gpu-z показывает максимальное значение (считай затычка), в бета версии gpu-z этот мониторинг вообще убран
@@VEnZ0ja датчик температуры есть! без него бы не было мониторинга =) (в картах 80+ датчиков температуры, но инвидия просто на уровне прошивки теперь дает только средне значение, максимальное решили спрятать от глаз пользователей чтоб не делать антирекламу 5090)
Я вот честно не смог и не осилил ) Вы мне скажите, старику под FHD моей 3060Ti на сколько хватит и когда переходить на 10-12 гигабайт видео памяти ))))) ?
12:08 - а теперь выключи DLSS и посмотри где твой буст от нового драйвера? в том то и дело, что буст даёт новая версия DLSS, которая новым драйвером может переопределяется для любой игры
в смысле не настала? На топовых картах можно поиграть в абсолютно любую современную игру с фпсом 70+ и в 4 к. И то фпс 70+ будет буквально в нескольких самых требовательных играх. Большая часть игр без проблем выдаст 120+.
Вот чисто психологически не могу взять карту, которая в играх будет жрать 400Вт, тем более, в 2к. Что это за промышленный керогаз? С одной стороны, хочется увидеть в будущем маложрущие карты на 1,7нм техпроцессе, но ведь эти капиталисты просто засунут больше транзисторов и сделают жор снова на уровне 400Вт у предфлагмана и хз сколько у 6090
Психологически не можешь? Ну так сходи к психологу, лечись, если тебя цифры так пугают или наоборот возбуждают. Абсолютно нормальное потребление, с андервольтом 7900xtx вообще больше 320 не жрет
Да хоть киловатт жрет, какая разница за исключением работы 24/7? Не, если ты из европейских стран каких-нибудь, тогда ещё ладно, но если ты из СНГ - вообще чхать сколько карта ест, лишь бы была холодной и тихой. Да и в чем проблема тогда взять 4060, она ест мало, вставляешь в ПК и наслаждаешься соткой ватт
ну 400 вт она будет жрать не всегда а только в самых тяжелых режимах. например 4090 имеет тдп 450 но в свежих играх она обычно ест 300-370 а в старых или простых потребление вообще падает до 150 или даже ниже. Только если на ней рендерить или запускать ai задачи то тогда сразу выходит на полные 450.
Вабще не понимаю этих индустриастов , как простой ползователь . Ведь при таких размерах и энергопотреблении оная должна тянуть 3D дисплей с разрешением в 12К и размером 3х4 м а так то что толку платить цену бюджетного авто за портативный обогрреватель?
У нвидии теперь дрова кривые.... Сам вон не всегда всё идёт, то в фоне в сотку грузит. А с такими ценами хз что брать😂 А драйвер 572 сохраните, мужики, в загашник, а то следующий драйвер опять урежет🤣🤣🤣
Я не понимаю чем не угодили дрова амдшные, 2 года на них сижу вообще ни одной проблемы. ПО адреналин на голову выше, а если и проц амдшный тем более. По разгону современное железо лучше андервольтить чем разгонять мое мнение.
Меня удивяет когда ты говоришь. "Если не зочеться мылить картинку 4к/длсс качество" ставим 2к натив. Нет 4к длсс 4 качества смотритьься намного лучше чем 2к натив. Даже не учитывая апскейл внутренее разрешение длсс качество 66% от 4к что составляет 5280000 пикселей что больше чем 2к. И вот жто разрешение скейлииься до 4к велеколепным длсс4. То есть играть в нативные 2к когда ты можешь в 4к с длсс нет никакого смысла, тупа ухудшишь се картинку
@@VitaliyIvashenko я в киберпанке и сталкере включил длсс качество не потому что они уменя не идет а потому что я хочу сгладить рябь и мделать картику четче. У меня и в нативе в них 70 фпс но что я могу сделать если с длсс картинка тупа лучше. Бывают ли иногда микро артифакты? Да. Но с обычным таа сглаживанием они тоже есть и низера не меньше
@@VitaliyIvashenko щас длсс дошел то того что лучше его врубить даже не ради фпс а ради более качественного сглаживания в тупую. И очевидно что нативное 2к выглядит сильно зуже чем 4к длсс качество. (Спокйлер 4к длсс производительнлсть тоже выглядит явно лучше чем нативное 2к)
Было бы славно, если бы в замерах производительности было бы не три левых части кадра (например 18:59), а как у i2hard, мониторинг для левой сцены слева, для средней посередине, для правой - справа. Это, конечно, добавит больше мороки по тому, что нужно выставлять для каждой карты положение оверлея, но сделает картинку приятнее.
после выхода длсс 4 я решил вновь дать шанс Генератору кадров и был очень удивлён, ощущения от управления никак не изменились, а плавность и отсутствие артефактов очень удивило, теперь я с удовольствием включаю это и радуюсь.
У киберпанка такая репутация сложилась + одна из первых игр с поддержкой dlls4 и генератора кадров. Ласт оф ас вышел относительно недавно, ему не так давно занесли оптимизацию. Ведьмак, благодаря CD Red, также получил некст ген обновление
И на какой почве удивления? У Cyberpunk очень эластичный движок, с потенциалом на годы вперёд получился. Мододелы вообще до фотореализма местами картинку довели. Жаль студия на UE5 ушла, это прям печаль
Мне интересны эти дурачки, которые не слышат от обновлении киберпанка и других игр... По твоему что, pach traising образовался на релизе игры?) ты тот ещё олух ..
Люблю такие видосы. Это как смотреть соревнования по боксу- вкачанные мужики месят друг другу кабины, жюри подсчитывает очки и меланхолично резюмирует, что один качок с реакцией пантеры хуже другого такого же на n число баллов. Только нокаутов тут нет. Разве что в трассировке, но будем честны- она все еще не настолько народная, чтоб учитывать ее на серьезных щах. Не, я вполне допускаю, что на свете есть люди, пересевшие с ps3/ps4 и rx6600 на что то более серьезное, типа 4070 или 7700xt, но мужики, относиться к этому серьезнее, чем к шоу, и уж тем более обсуждать в курилке новые разработки куртки я отказываюсь, ну их лесом.
Я знаешь чо думаю дорисовка не плохая штука, но дорисовка должна быть тогда когда реальных кадров за 200, так не будет воспринимать наш глаз количество кадров и мы уйдём от мыла и инпутлага, а приобретём за счёт дорисовки плавность, киношность, и больший размер экрана. Ещёбы сделали дорисовку не полного кадра лучше, тоесть зону персонажа бы не трогали, тогда отзывчивость на управления получилась бы тчётче. Можно пойти и другим путём, например хорочие геймерские очки, там пикселей разместить 2 тысячи на 2 тысячи и нынешних видеокарт хватит, зато картинку получим внеепическую даже без дорисовки кадров.😊
Надо сравнивать 5080 с 4080, а 4080 супер с 5080 супер!!! Очень дорогая карта получается на старте продаж, для богатых пк-бояр!!! А так прирост минимальный, но со временем будет лучше (драйвера допилят)!!! Мне всегда нравились карты от нвидия: 1. Потребление ниже, на бп можно сэкономить!!! 2. Производительность тоже выше в сравнении с АМД!!! 3. Ликвидность на б/у рынке, да и живут карты дольше!!! Тем кто сидит на 3000, 4000 серии можно сидеть дальше, а остальные идут покупать 5000 серию, но лучше подождать снижение цены, а так открытая касса!!! Спасибо за тесты!! Всем всего хорошего и удачи в делах и сборках пк!!!
В 2023году на канале Hardware Unboxed чмырили карту RTX3070 с буфером памяти 8Гб с фризам и отставанием от конкурента RX6800 где память16гб.. В этом году тоже самое будет RTX5080 (может это будет на другом канале) с нищенским буфером 16Гбв 2025году, уже сейчас загрузка памяти местами находится у опасной черты, например в Indiana Jones and the Great Circle. Поэтому : нужно дождаться версию 5080TI или 5080Super где добавят видеопамяти а это 100% Будет т.к. 16Гб для 4К в 2025году это не серьезно и нет запаса, плюс улучшат драйвер и карта догонит 4090.
Так 9070 будет максимум 600 баксов. 16 гигов еще на 1-2 года хватит на 4к. UE 5 мало памяти потребляет. Претензии к 5080 за 1 к баксов 16 гигов конечно позор.
Только RTX 3070 не конкурент RX6800, она по сырой мощи лучше даже без переполнения буфера. Однако, когда эти карты были популярными, в ДНС RX6800 стоила дороже даже чем 3070Ti (в 2022 году летом цены были 57k 3070ti vs 63k RX6800 в моем городе). Да и память можно сэкономить если с настройками поиграться.
Мой Компьютер в Telegram - t.me/mknewsru
МК в ВК - vk.com/mknews
Рутуб - rutube.ru/u/mknews/
Да DLSS впечатляет. За ним будующее.
какие плохие драйвера у АМД - омагад!
такие плохие, что аж работают в Ведьмаке 3!
определитесь там по причинам и следствиям как-то уже!)
Странная реклама игры - обещание подарков для никогда не игравших, и понятия не имеющих что из себя представляют эти подарки.
Так в ВК или Рутубе будет ролик сегодня?
Очень жаль, что не протестили 4090 - это самое важно сравнение как по мне 5080vs4090
Сбылось предсказание из 2008 года, что пк будет вставляться в видеокарту. Размер мое почтение.
Ну пока что сейчас ПК (тот же стимдек можно полноценным ПК назвать) уже размером с такие видеокарты
это уже буквально так, такую видеокарту вполне можно вставить...подключить через окулинк к миним пк на 7940hx или ai 370 и эти малыши вполне себе эту карточку вывезут) имея всемеро меньший размер)
мне 50** серия напомнила времена 5** серии, когда вышла отвальная 580 на том же чипе вообще что и 480, только уже на полноценном, была горяченной, отвальной и бесполезной
Так купи большую материнку, в чём проблема, и это с тремя вентиляторами, в fe она меньше и тоньше
скажем дружно, нах. нужно
😂страшно сука как то становится от всего этого и потребление растёт😅
Через 10 лет..... Сегодня мы обозреваем нового флагмана от Хуанга. Аккуратно открываем его крышку - помещаем внутрь материнскую плату и комплектующие с жестким диском. На переднюю крышку крепим монитор и ставим на отдельную тумбу. Не забудьте теперь она требует отдельную киловаттную линию на 480 Вольт....... так начинаем тестировать .. она немного греется до 150 градусов но отдельный блок азотного охлаждения прекрасно справляется с этим.
Жёсткий диск? Что?
@@Dastiel. Потому что мягкий диск не выдержит всего этого :)
А на какой глубине в вечной мерзлоте Гренландии нужно его ставить? Друг хочет открыть санаторий с горячими источниками, но боится что затопит Канаду.
@@elanhelosdeblanco8476 трамп что ли?
Китайцы обвалили акции Н Видео на 700 миллиардов долларов , а так же обвалили фондовый рынок США свои ИИ !
Это уже не кирпичи, это газобетонные блоки!
Тоже думал взять кирпич поставить и сравнить, но не нашел, а шлакоблок был слишком длинный)
@@mka Силикат блок 25-25-12
следующее поколение будут похоже на ФБС
Пока шлакоблоки но через пару поколений будкт газоблоки😂
Теплопакет 360 ватт как у 3080ти, и незачем делать такой кирпич, сама плата стала меньше компактнее, это просто охлад нагородили
Генератор Курток молодец.Всем мозги запудрил.
Жаль нельзя прийти к нему с купюрой в 100$ исправив на ней цифру 100 на 2000$.
"Это сгенерированные доллары" не смотри на артефактры от синей ручки
Кстати англоязычная аудитория так шутили при релизе в комментариях к видео с анонсами. Еще и про "5070 будет как 4090", хотя куртку не так там поняли. Там комменты по 100к лайков набирали 😂😅
@aiku_shorts ну этож очевидный прикол😂.
Можно еще вспомнить притчу про Хаджу насредина.
"Кто продает запах от еды , получает звон от монет"
ПО это как КПП в машине. А само железо - двигатель. Одтельно сравнивать смысла нет.
Вы же не жалуетесь что мол "у меня в машине 1.8 литра, а вот В ПЕРВОМ Ford Model T еще в 1920ых было целых 3 литра!"
Только вот выдавал он лошадок поменьше. И разрабатывался на езду считай без коробки.
@@onik7000 ПО в машине это прошивка. Там тоже чип накатываешь и получаешь х2-3-4 к лошадям
Юрия Рыбникова смотрели? там такое сказано и это так и есть, наипалово
Рядовой пользователь: подключает видюху к материнке.
МК: подключает материнку к видюхе.
Вам обзорщикам дают одну карту погонят по очереди на всех? Как не посмотришь - у всех 5080 от палит
Возможно, потому что от палит в самом дешевом исполнении
На дороже придëтся кредит на несколько поколений оформлять
@@mr-uw4vl Если на обзор берут, то уже им за это платят.
Я вчора огляд 5090 дивився 😊
@@IDPL4Yпонравилось?
Заебись 2025 год мы вставляем плату в видеокарту, ждём когда корпус будет пережитком прошлого и в новой 8090 можно будет прятать заначки от жены в свободных слотах для ОЗУ
да ладно вам, у же сейчас пара банковских пачек помещается в отсек для 3,5 жёсткого диска )))
Фантазеры ждут, реалисты такого не ждут
У меня 12 лет Пк без корпуса, топ вентиляция
@@Caedo2004 топ сосатель пыли отовсюду
В новых, платы уже будут в чайник юзера вставляться.
Ох уж эти драйверы амд, фраза которая произносится даже без мыслей в голове о том что конкретно не так, просто плохие и все
В это время хорошие драйвера невидии в ведьмаке: пу-пу-пу
Бывает они просто перестают включаться 😊
@@ervin78561 даже интерфейс подлагивает ,я прямо сейчас это могу продемонстрировать залить видео , беру любую программу захватываю и таскаю по Монику и она плавно передвигается по экрану 200 герц , берешь софтину адреналин , хватаешь и она 20 кадров в секунду по экрану рывками передвигается . Даже в такой мелочи и то какой то косяк . У нвдиа лучше всегда у меня работало , но мне все ровно , цена качество мне на данный момент важнее было и у меня 5700х и 6600 . И так было всегда , со времён ещё АТИ . Вспомните каталист драйверы . С другой стороны на амд всегда легко было найти , какой то драйвер для новых игр , даже если разработчики уже не поддерживают карту , умельцы , как то делали это и игры шли , не знаю есть ли сейчас такое .
@ervin78561 даже интерфейс подлагивает ,я прямо сейчас это могу продемонстрировать залить видео , беру любую программу захватываю и таскаю по Монику и она плавно передвигается по экрану 200 герц , берешь софтину адреналин , хватаешь и она 20 кадров в секунду по экрану рывками передвигается . Даже в такой мелочи и то какой то косяк . У нвдиа лучше всегда у меня работало , но мне все ровно , цена качество мне на данный момент важнее было и у меня 5700х и 6600 . И так было всегда , со времён ещё АТИ . Вспомните каталист драйверы . С другой стороны на амд всегда легко было найти , какой то драйвер для новых игр , даже если разработчики уже не поддерживают карту , умельцы , как то делали это и игры шли , не знаю есть ли сейчас такое .
Выше тот же самый коммент оставил, 2 года б.я сижу ни 1 косяка, но все с ними что то не то, притом что регулярно обновляются, да еще и адреналин прям кайф.
а амд плохие дрова тем временем
Ведьмак 3 мигают текстуры на нвидия)
Нвидиа давно подозревают в нечестной конкуренции, есть мысль что они сжимают текстуры поэтому и фпс выше но бывают такие вот баги.
Давно не проверял, года 3 назад это лечилось длсс качеством.
дрова постоянно обновляются
Ты напиши в АМД что тебя не устраивает
@@MrSaint-qk6gcвот как раз на новом длсс качество мерцает больше
Выбираем карту на ближайшие 2 года,с вас 250к,через 2 года ещё 250к😂
170 в ДНС эти 5080 видел.
@degit их уже скупили,как горячие пирожки 🙃
ХЗ, я в 2017 купил 1030, и вот только осенью перешёл на 4070S. Думаю мне её хватит лет на 10.
ИИ бум + экспортные ограничения = 250к за 5080. 2 года назад я купил 4090 за 130к и при таких огромных улучшениях производительности как в 5090 мне ее хватит лет на 10 точно. Жаль только не купил тогда штуки 4...
Говорилось тут про 6000 баксов за RTX 4090. Не знаю. Я купил за 200 тр. MSI SUPRIM - никакие это не 6000 баксов. Но это было уже полтора года назад. Но доволен покупкой как слон ))) Можно ещё 2-3 поколения видюх сидеть и ни о чем не париться
В общем, я рад, что полгода назад купил RTX 4080 Super и не стал ждать нового поколения
А я ждал... И до сих пор жду 5070 😂
@@Mydefaultchannel1 5070 super
А мы то как рады за тебя!😂
А ведь есть те, кто лет 7 назад купил Radeon VII и до сих пор играют.
А что не так с интерфейсом драйверов AMD?
Единственная проблема это при запуске действительно может подтупливать, в остальном всё интуитивно и в одном месте, никаких дополнительных программ не нужно устанавливать. У той же Нвидии только сейчас вышел аналог, который к слову тоже может тупить.
"У АМД плохие драйвера" это так приветствуют друг друга ДжиФаги. Так сказать для определения свой-чужой.
А как часто вы заходите и регулируете настройки в программной оболочке Адреналин, раз в день или два раза в день?
@@Igor-Bond у меня второй ПК с карточкой АМД (RX 570), раньше на ней долго сидел на основном компе.
Так вот в настройки я чаще всего заходил, чтобы отключить остановку вентиляторов при низких температурах и нагрузке. Этого прям сильно не хватает на Нвидии, простой переключатель (Fan Off) с сохранением кривой вентиляторов, не надо кривую самому собирать или выставлять вручную определённые обороты. Для нетребовательных игр это прям очень удобно.
Но это мой бзик, в обычном случае в настройки вообще не нужно заходить)
И как я понимаю это камень в сторону слетающих настроек, такое редкость что у красных, что у зелёных. Но у АМД настройки прекрасно сохраняются в файл, в случае чего профиль в пару кликов возвращается на место, даже после переустановки винды. Я как раз недавно столкнулся с проблемой, что профили MSI Afterburner при переносе на другой ПК не захотели подгружаться (была одна и та же карта Нвидии).
@@nodly93, у амд нормальные драйвера. Чтобы не слетали настройки, нужно в энергопотребление выключить быстрый запуск выиндовс. А вот у рткс проблема с hdmi , монитор показывает как телевизор (твч) и не работает g-sync пока не поставишь кабель display port
@@user-dr3qp6ie4c кривые там драйверы, по крайней мере были раньше. у меня была 3 года 5700ХТ(2020-2023), так вот там часто вылетал черный экран на 5-7 секунд(можете прогуглить "5700xt black screen"). По патчноутам драйверов они долго пытались это лечить, вылечили или нет не знаю, но после грейда на 4080 таких проблем нету. Блок питания был и там и тут Super Flower Leadex V Platinum Pro Black, так что вряд-ли какие-то хардварные проблемы AMD испытывала.
Не, братцы, при цене одной только видеокарты за 200 000 р. всё это давно уже не про большинство игроков. Это, увы, всё больше про состоятельных энтузязистов.
Ну так они вышли 4 дня назад, разумеется щас искуственный дефицит, ажиотаж и т.д. Через пару месяцев они будут стоить столько же, сколько сейчас стоит 4080
@@dangername6996 Ну да, 140 000 - сущие копейки. 😳
@@dangername6996это не отменяет того факта, что топовая карта стоит дороже 170 000 рублей. Она же и в долларах стала дороже. И при всем при этом, условная карта ртх 5060 (если такая выйдет) - будет позиционироваца как карта для нищих и производительность будет иметь соответствующую. А если полностью повторится ситуация как с ртх 4000 где все что ниже ртх4070 покупать нельзя - будет фиаско. Я конечно понимаю мол рубль-не-рубль там, все дела, но ценники на карты улетели за пределы адекватности и доступности. У меня весь пк (р9 5900х + 32ram + rtx3080_10gb) стоит как 1 ртх 5080! Это уже нивкакие ворота!
уже на авито от 170к появились
@@TechnoGameViking Я просто в какой-то момент поймал себя на мысли, что раньше все эти обзоры смотрел как реальное руководство по выбору товара. А сейчас исключительно как развлекательный контент. Интересно было бы посмотреть на статистику аудитории МК, какие карты используются. Сороковая серия процентов 10 хоть набрала бы? 🤔
Спасибо всей команде за подробные сравнительные тесты.
А я пару месяцев назад сменил 1080ти на RX6700xt😁
Начать вступление с древнейшего мифа из начала 2010х о проблемах дров АМД, и потом в тесте показать проблемы с дровами нвидии 👍👍👍 кстати помимо этого подтверждаю, что на 572 дровах нвидии у меня начались графические артефакты в Dead Space Remake - на металлических поверхностях появились сине-зеленые артефакты , которых на прошлом драйвере нет.
Каких всех кривых чипов у топовых АМД. Сказал бы у некоторых, было бы честнее.. Совсем в логику не ку-ку? Автор уже на мат охота перейти. Ты если транслируешь на огромную аудиторию свои домыслы про криво работающие драйвера АМД или ты специально делаешь такие формулировки чтобы вызвать хайп и буру в комментах, что выгодно таким авторам на ютубе.
а ты точно пользовался радеон картами?
@@socceran7337 конечно
@@socceran7337 Я пользовался и чё дальше? Многими картами на самом деле пользовался и от красных и от зелёных
650 ti, r 290, gtx 1030, gtx 1650 super, 6650xt , 4070 super. И скажу , самые стабильные дрова как раз таки у красных, единственную проблему, которую я видел у красных - приложение дров перестаёт показываться, но это решается очень просто. А вот с зелёнными уже заемался, то одно то другое. Вот щас вышли дрова от 30 января, оверлей тупо не хочет работать и хз как это исправить, мелкание текстур тоже проскакивает как автор сообщил.
8:27 - двухлетнего RTXa? А ничего что 4080 SUPER релиз был в январе прошлого года? Какие еще два года? А вот 7900 XTX в ноябре 22 года...то есть ей то как раз уже больше двух лет.
Верно подмечено)
Какая разница улучшенная 4080
@@Klyoffical Разница есть как в производительности, так и в цене, так и в дате выхода.
@@ArTuRkrut13 обновленная карта старого покаление на данные момент, докапываться до такого смысла нету, а вот то что автор постоянно вставляет словечки по типу дегенератор кадров я бы по голове дал
@@ArTuRkrut13 я понимаю что 4000 серия вышла в 22-ом году, но так зачем тогда вообще упоминание о двухлетнем если 7900 XTX вышла тогда же? Уже не первый раз вижу на этом канале уклон в сторону зеленых. В этом же обзоре из розетки у красной 515...а пишем и произносим уже 520...и до кучи ни слова о том что в обзоре сильно разогнанная версия AORUS Elite и практически референсная MSI RTX 4080 Super Expert...ну да, зачем быть объективными.
Не забываем, что 5080 в два раза дороже 7900
Посмотри выводы
У нас в Казахстане уже разница далеко не 2ух кратная - за 7900 xtx 1142$, а за 5080 - 1561$ )
@@sata1288 интресный парадокс, в Польше их нет потому что раскупили, а в Казахстане они доступны, но мало кто может купить
А почему RTX 5080 в два раза дороже RX 7900 XTX, неужели RX 7900 XTX хуже чем RTX 5080 в два раза?
@@sata1288 5080 1377$ если за нал брать
Цены будут ломить до тех пор пока покупатели готовы переплачивать чисто за "зато нВидия"
Ну так ктож мешает подождать лет 5 и купить в пол цены.
Или ты думал, что nvidia - это благотворительная организация? 😂
@@powermanus1 мешает желание играть в новые игры сейчас, а не через 5 лет)) а там ещё 5 лет ждать, ибо зачем брать старье когда можно подождать и купить новое, и т.д.
ага, надеюсь радики составят конкуренцию в етом поколении. Еще бы интол б770 выкатила
@@powermanus1а про коммунизме все будет за..бись, там будет всё круто нужно только подождать
Ну альтернативы от красных нет пока. К сожалению
Классный выпуск. Хотя покупать эти карты не собираюсь, но всё равно понравилось. Подробно, интересно, бодро. Тщательное исследование цены за ватт а также энергопотребление очень актуально ! Спасибо за труды !
Под столом, в первый раз вижу такое. Не видеокарту в материнку вставляют. А материнку в видео карту =))))))
2 раза за ролик слышу о проблемных драйверах АМД, но при этом реальная проблема с драйвером в какой-либо игре упоминается только со стороны нВидиа.
Где же истина?! :)
Истина в вине. Вот Хесус и превратил воду в вино)) 😂
Речь шла про рабочие задачи и искуственный интеллект. Внимательнее.
@@antikillerhawkВам процитировать, или пересмотрите с 7:00?
Там идёт перечисление: не очень удачные драйвера, (запятая) не очень работают с нейронами и т.д.
Т.е. проблема с драйверами и с рабочим софтом это отдельные проблемы Про одну из которых ничего сказано конкретного не было, просто оценочное суждение (и при этом приводится прямой пример проблем с драйверами нВидиа).
Вторая проблема, очевидно присутствует у АМД, опять же, смотря каким конкретно рабочим софтом планируется пользоваться.
Для понимания: я скорее предпочту купить продукцию нВидиа, при равной цене и производительности, но не из-за проблем в драйверами у АМД,.
И сейчас у меня в компе "зелёная" карта, поэтому не получится обвинить меня в амудефилии :)
@@ЕвгенийТ-ч8в "на мой взгляд не самые лучшие драйвера" - дословная цитата. Допустим прямого примера в его видео не оказалось. Но вот прямой пример от меня с драйверами на RX480. Пришёл ко мне человек с компом в феврале 2024 года, которому я собрал бич-пк, говорит в играх вдруг стало 2 фпс. Смотрю, а там и на рабочем столе фпс 10 стало. Посмотрел, оказалось, что адреналин недавно январьский драйвер накатил, в котором эта проблема и оказалась. Пришлось сделать откат и удалить адреналин, так как он уже не хотел работать со старым драйвером. Вот другой пример. Ставил человеку винду на комп с RX480. Через год звонит, просит приехать настроить игру, ну и так, проверить комп. Проверяю, кулера крутят на максималках. Хотя когда я всё ставил - автоматика сама работала. Помятуя о чудесном январьском драйвере, решил откатить, - не помогло. Пришлось руками настраивать кривую в адреналине. А уж сколько мне ноутбучные амд драйвера крови попили, можно томик издавать.
Мои реальные проблемы с реальными играми. Pacific drive - примерно пол-года назад вышла версия драйвера, на которой стабильно крашилась игра на старте, об этом писал сам разработчик в стиме. Примерно в то же время вышел драйвер, который 100% валил Mudrunner и Dakrtide на моей rx7600. Мне приходилось откатываться на старый драйвер, чтобы нормально поиграть в эти игры. Да, можно съехать на "ну это жи индихуинди", но на зеленых дровах я такого вообще не припомню.
Проблема с перегревом это и у карт NVIDIA так же есть , на моей INNO3D 4070 TI хот спот был 110 градусов, и карта тротлила ,и сбрасывала частоты. Помогла замена термо пасты на более качественную , хот спот сразу стал 88-89 градусов , а было 110. Но прикол в том что такие карты обычно на гарантии , а ДНС не особо обслуживает такие карты за бесплатно , и не признает дефект с выдавливанием термопасты.
А мне вернули в подобном случае деньги, принёс спустя 2 года и сдал на ремонт, мол перегревается. Через 2 недели просто вернули деньги. Не просите обслужить, просите починить, мол пропадает изображение при перегреве, никто проверять не будет
Ну ты бы еще говна купил и ныл, инна 3д ))))
В 5000 серии убрали отображение хотспота вообще -> проблема решена.
Кушайте.
Это и раньше было, на 3080ти дельта по хотспоту со средней была 25-30, как ни охлаждай, прокладку с ФП поставил - дельта порядка 10 градусов. Эффекту pump out многие подвержены.
чего и говорить, моя 4060ti греется до 80, хотспот под сотку 💀 это на 1440р, высокие настройки, длсс на производительность в спейсмарин 2 )))
Ура! Адекватный обзор на новинку без всяких киданий шапками.
12:49 да неужели кто то уже тестирует карты в нативе, чудо, по другому не описать
Я играю только в нативе, и вот уже как 37 лет.
@@x-comufodefense942с кинескопно-8-битных времен?)
@@x-comufodefense942 боже какой бренд
Такое впечатление, что для Нвидиа, основные клиенты сейчас, это разработчики нейросетей, которые обучаются на видеокартах. Отсюда и прекращения роста чистой производительности, и появления генератора кадров. Нужно же как-то продавать геймерам ядра ИИ, на которые и делают основной упор зелёные.
И не просто в нативе, а даже в старой доброй и медленной Виндовс 10, потому что в Вин 11 видеокарты RTX выдают больше кдс, как и потребляют на 20% больше!
Самый мощный обзор на 5080 из десятка тех, которые я посмотрел. Автору респектище!!💪
Шутка с материнкой это 5. Лайк не глядя, спасибо за работу!
0:03 мне точно не мерещится? Видеокарта держит материнку, превышая её в 2 раза по размерам и 4 в толщину?😂😅
О боже ещё с 3090 такое было)
В интернет заходи чаще
@alfahohol откуда такая токсичность? Это все видели ещё на 4090 а комментарий тематический.😝🤪
Деды помнят gtx295
у меня такое было с мини платой нв 1155 и хд7990
Опасно так делать. Особенно с охладом на плате, выломает разъем или хуже, дороги порвёт в плате.
0:06 порвало 🤣👍
Вставить материнку в видеокарту ))?
По версии МК Сталкер 2, Чешская игра. Ну да, ну да, как бы что-то не случилось, ведь в свободной стране живём )
МК прямо так и сказал? Или томные намёки? А всё, услышал. Сразу не расслышал просто.
Про "свободную" - люто посмеялся.
Спасибо.
Свободная РФия - ещё бы Северную Корею такой назвали, так вообще бы "порвало"...
@@Shangreel трудно наверное с деревянным мозгом, и юмор не проходит и сарказм как магия непостежим
@@AlexanderMichelson чехи продолжают полировать сталкер" и "не выдержав чешского кода" он сказал. интересно, что бы это значило? Какая у вас версия?
@ Да сорри, теперь услышал после пересмотра этого момента.
Купил 7900хтх в 2022, очень счастлив. Стабильнее 5 раз чем 3070 прошлая.
Как же актуально наговаривать в 2025 году на драйвера АМД... Может хватит?? Лично пользовался многими картами обоих брендов и скажу, что у АМД драйвера точно не хуже, если не лучше.
Хочешь разгон? Без проблем, разгоняй в драйвере. Хочешь, драйвер сам за тебя разгонит. Хочешь добавить сторонних эффектов в игры? Легко и просто, просто нажми комбинацию, чтобы вызвать оверлей и включи все, что нужно. Не надо заходить в отдельную панель через рабочий стол, где еще найди те функции, которые тебе нужны.
Чтобы даже элементарно пользоваться всем функционалом тебе не надо автоищовываться в драйверах через аккаунт (как у нвидиа) , просто скачал и пользуйся.
Хочешь фрисинк? Да без проблем, нажми две кнопки в драйвере и все. И при этом тебе не нужен специально для этого покупать display port кабель, как у нвидиа.
Мог бы еще кучу всего привести, но не вижу смысла.
Просто кажется тупым аргумент, что драйвера говно, даже без элементарных примеров...
та забей, он годами сине-зеленый др*чер. Видимо в детстве ему папа атлон не купил
"мерцания с dlss вы не заметит" я тот человек который похоронил и возненавидел dlss за мерцающие блики. Я не представляю, насколько нужно быть контуженным, что бы не заметить страбоскопы на крышах машин, хроме и т.д.
Заметь, на 15:51 если обратить внимание на подсвечивающийся указатель, там еще и сетка мерцать будет))) Магия Хуанга)
Благослови бог тех кто придумал дллс. Смог на своей 1050ти поиграть. В тот же гуд оф вор, с хорошей картинкой без мыла
А вообще если поотключать всякую фигню с блюром и прочее, то картинка лучше будет
@@Ggrengo1500и как ты включил длсс на 1050 ти?
@@крутойафриканец магией Хуанга,конечно же!
Большая Благодарность всей редакции МК за проделанную работу❤
Всегда с таким наслаждением смотрю ваши ролики😊
17:40 “в обычном геймплее вы не заметите (генерацию кадров)“ - лол, и показан «геймпадный геймплей» где игрок просто едет по дороге и то даже через видео ощущается эта задержка, как голова поворачивается. Вы попробуйте поиграть за нетраннера или милишника, где вам необходимо каждую секунду головой вертеть и тогда вы узнаете всю прелесть «всего-лишь» 35 милисекундной задержки. Это не резидент или алан вейк, поэтому такая задержка уже считается значительной. Про тех кто играет на билдах завязанных на оружие я вообще молчу, как целится с таким инпутлагом я вообще не представляю
Если играть с генерацией кадров при реальный 30 кадрах, то задержка вырастает кратно, это проверили западные блогеры.
Я как человек который записывает геймплей игр и выкладывает его на ютуб, хочу сказать вам что сравнивать плавность геймплея по ролику на ютубе абсолютно неправильно. В реальности игра выглядит намного плавнее чем на ютубе даже в 60 ФПС.
Чувствуешь по ролику на Ютубе?😂
прошел на 4070ti кибепрпанк на максимальной сложности. Вообще не ощутил никаких проблем с задержкой. Проблема могла бы быть может в каких-то киберспортивных играх вроде контры, но там тебе никакие генераторы кадров и не нужны. Там и в нативе будет 500+ фпс.
сталкер 2 делали чехи? или слово на букву "у" уже под запретом?
чехи делают потому что
Ухилянты?
Не обращай внимание и не слушай их. Игру делает украинская студия, а говорить можно что угодно.
А ещё в Вар Тандер есть невидимве бомбы,исчезающие элементы и танки и глюки,глюки,глюки.
5080 TDP 360
7900 TDP 355
тесты:
5080 TDP 300
7900 TDP БУКВА Ю
😂
Что за буква ю?
@@Игнатурусбиенко по бую
Спасибо за подробный тест
MK: «RTX 5090 для работы».
Я: который смотрит ролик с 4090 и заказал 5090 для того, чтобы просто смотреть сериалы…
Купил 7900XTX неделю назад, доволен как слон)) А эти ваши ДЕгенерации кадров - мыло грустное))))
В какие игры рубишься, если не секрет? 🤔
@@chiptunegalaxy160 а это на что-то влияет?
На самом деле я использую генерацию кадров, но только в играх по типу сталкер 2, где идёт упор в проц…
Полтора года сижу на 7900ХТХ powercolor hellhound. Моник 2К. Играл на максимальных настройках в Plague tale requiem, forza horizon 5, horizon forbidden west, elden ring: shadow of the erdthree. Больше 360 Вт потребления не видел ни разу.
Так у него вообще непонятно из какой помойки ушатанная карта. Тест, мягко говоря, сомнительный.
потому что 9800х3д бустит эту карту.
Жаль вас) посмотрите как фары в киберпанке заставляют откидывать тени от любых объектов в движении с лучами, игнорировать трассировку в наше время, уже глупо, Индиана Джонс привет тоже передаёт красным
@@3DGamer_coolТвоя жалость тут никому не сдалась
@ ну че жаль? Я устанавливаю игру в которую хочу поиграть. Запускаю. Включаю для прикола лучи, если они вообще там есть. И кроме падения фпс не вижу ничего. Выключаю нафек и радуюсь тому что не переплатил в свое время за 4090.
0:52 - "... которую перед тестами пришлось обслужить..." - дома не проговорись подобным.
Краткое резюме: перехайпленный оверпрайс от NV способен конкурировать приблизительно на равных с существенно более дешёвым топом от AMD двухлетней давности только с помощью проприетарных заточек с софтом (мухлёж с нейронкой и генератором кадров) а также только при включении "зелёных лучей" (которые, естественно, оптимизируют игры только под карты от NV). Это, безусловно, успех. Ну, а любители NV, собственно, получили то, чего всегда и добивались. И мантра про "ужасные драйверы AMD" порадовала отдельно. Очень хорошо про RT было: "...которые вы в динамике все равно не увидите"!
P.S. Ах, нет, извините, это было про артефакты фальшивых дорисованных кадров.
Лучи - это технологии NV, DLSS - это мухлеж с нейронкой NV, FrameGen - это мухлеж с нейро-генератором от NV. А можно список новых технологий от AMD?) А то они чет сами делают FSR и AMFM по аналогии с NV, правда, выходит хуже...
А так да, оверпрайс лютый, но через пару месяцев за 120к условные будет отличной покупкой
37:22 Ооооооо! Вот такая табличка ВСЕГДА во всех ВО ВСЕХ тестах должна быть! Огромное вам спасибо) хоть я и не собираюсь их покупать))
на самом деле это видео лучшая реклама амуде😂 7900хтх во всех играх без маркетинговых лучей либо равна, либо мощнее 4080 суперпупер и дешевле ее на 30т
И превращается в тыкву без поддержки фср4, Лиза всех своих покупателей кинула.
и из 3 вариантов карточек это мля единственная, которую себе может обычный работяга позволить) андервольт и вперед
Играю в 4к поэтому брал 7900xtx потому как 4080 в редкой игре в разрешении 4к будет на 3 кадров больше. Сижу полтора года ждал новое поколение карт хуанга. Хорошо что не слил свою чтоб купить 5080. А трассировку можно чутка поубавить. Если сильно просаживает. И генератор кадров у амуде тоже бустит x2 кадров во всех играх FSR тоже работает во всех играх и выглядит так же как DLSS если только в нон стопе не искать отличия. Не знаю как вы а я останусь на амуде. Жалею только о том что на момент покупки не взял сразу 4090 шоб с лучами было не так печально переплатив 35 рублей. Сейчас цены просто космос у куртки.
Говорит, если включить лучи, АМД ловит бледного. Ну так если напоить автора уксусом вместо воды он тоже бледного поймает. Что за бред, использовать технологию, для которой карта не предназначена.
@@salamvaso я сам уже пару лет на 6700хт сижу и не могу понять одного, откуда у фанатов Хуанга постоянные проблемы с драйверами амуде?😂
Короче понятно, буллинг амд тупо из-за того что она дешевле и такая же по параметрам, но красная)))
сделать Рыксе андервольт и наблюдать снижение потребления на треть❌
хаить Рыксу весь ролик за высокое энергопотребление✅
|
|
|
|
|
|
|
P.S. говорю как владелец БУшной 6800ХТ (у которой кристалл ещё кривее). сам думал, что покупаю кипятильник и нужно будет менять термоинтерфейс на топовый, но сделал андервольт и теперь хот спот не доходит даже до 80 градусов при околоминимальных оборотах кулеров, даже разбирать не стал
суть все таки в ФПС а не в потреблении
@@hakyara5528 зачем он тогда в каждой игре говорит об энергопотреблении?
@@hakyara5528 так рекса тротлила в некоторых играх, немного, но всё же
@@hakyara5528 7900XTX гонится как не в себя. И там уже выбор за тобой, разогнать в стоковом лимите или выжать все соки.
4080 тоже андервольтится. Суть то в сравнении. Вчера драйвер обновил и афтебернер выключился. В Space Marine 2 в нативе 1080p потребление 280 ватт на базе. Подрубил пресет с 950мв на 2700 и + 1000 памяти. Фреймрейт тот же, а потребление падает до 200 ватт! Если DLSS качество дать, то 160-180, а если генерацию кадров включить, то вообще за 130 ватт не выходит. Как 1060 блин, магия.
До сих пор на 3080 сижу, пока хватает в 1440р, трассировку естественно не очень тянет, но в целом хватает)))
Потом можно будет на 3080ti перейти. Памяти лишней не помешает.
Спасибо большое за этот обзор. Проделана длительная работа и нам очень приятно посмотреть на результат, сделать выводы.
Чехи- Сталкер 2- нет не знал!
Ну таки да, чешская компания
@@aleksandrshimanov5150 Ну тогда создатели АтомикФарта и последнего Ворика не русские компании, а киприотские. ;)
Русская компания - создатели Смуты. =)))
чехи делают потому что
Ебать открыли офис в чехии и сразу чешская кантора?😂😂
GSC Game World is a Ukrainian video game developer based in Kyiv with a second temporary office in Prague
Мне нравиться как автор регулярно троллит сталкер по поводу "происхождения" разработчиков
Зетник спок
Это просто страх, нельзя назвать тех, кто его делает)
есть нюанс в том, что многие купили хтх этой зимой за 85к с оф. магазина озона, так что в плане цена/фпс вообще любые вопросы отпадают
В плане цена/производительность амд просто ебет зеленых)
Она серьёзно продавалась по иакой цене? Я тоде брал с озона 4070ti за 83k (самая дешёвая была за 70k).
@ ага
«Оф магазина озона», ниче такое заявление. Моментами как русская рулетка хотя бывают и хидден гемы
@@Abnormaliz а сколько 7900хтх электричества сожрала ты не посчитал? электричество бесплатное? а переплата за более мощный блок питания тоже не считается? Амдэшная математика она такая...
ждем новых красных которые поставят на колени 50 серию
Нравится как рассказываешь, с хорошим юмором. Настроение подымает после рабочего дня))
А может пора дать Люлей разработчикам играм и программ, чтобы оптимизацией занимались? Лень, да?
Или договорняк между производителями игр и карт?
Просто игры всё хуже и хуже по качеству, а про смысл игр это вообще НУЛЬ!
ну так не играй в эти игры, тебя же никто не заставляет. Играй в то, что считаешь не "нуль".
А с каких пор Сталкер стал чешским проектом?
Все смеялись над АМД и кто теперь царь? За 100к у вас лучшая видеокарта.
Если разрабы Сталкера чехи, то вы вьетнамцы )))
Не, они татаро-монгольская орда. ;)
чехи делают потому что
Дед, таблетки выпей. В Ведьмаке, говорит, включил RT - мерцание исчезли, смотришь, а там DLSS ещё включен вместо TAA, который "натив" ( Если что DLSS убирает всю темпоральную нестабильность, иногда слишком хорошо из-за чего случается гостинг, а TAA делает это не очень хорошо). А ещё, значится, ты видишь мыло от DLSS, а изменения от RT нет? Ну ок, в зеркало посмотри (только не у редов, у них с зеркалами особое отношение)
Сейчас "натив" это DLAA, и именно его нужно сравнивать с апскейлом.
А че в смысле...
Где сравнение с разогнанной RX7900XTX?
Вот где потенциал💪
Здравствуйте! Жду именно ваших обзоров. Спасибо Михаил!
Пожалуйста
@@кузполь 🤨
@@Niki_Pearce я Михаил, ответил тебе.
раньше играли в игры, а теперь в процессоры и видеокарты
"Чехи продолжают полировать сталкер" Орнул чуточку
Бригаду
@@kostyashkins88 Вспомнилось: "бригада - три гада". =)))
Сегодня купил 4080s, спасибо за обзор!
Где-то потерялся момент про то, что генератор кадров работает нормально только там, где видяха в нативе вывозит нормальный фреймрейт. Пластмассовый мир все еще не победил
Если картинка хуже, то на своей 4070ti я и не включу DLSS. Я только в паре игр заметил улучшение графики от включения DLSS.
@@Dastiel. Тут есть нюанс. "Хуже", чем в нативе без сглаживания). длсс уже была на уровне msaa, теперь вероятно даже лучше, не говоря уже про хреновые TAA и FXAA. А так как без сглаживания с лесенками играть большинство не готово, то даже без учета буста фпс длсс почти единственные вариант. Ну если прям совсем зудит в жопе, то врубаешь DLAA
@@Dastiel.улучшение графики хахахахахахах. Если серьезно длсс конечно может сделать картинку приятнее(не говоря уже про длаа), но изначальная суть в повышении производительности ценой ухудшения картинки
Да просто все в курсе уже, кроме совсем отсталых челов или просто пожилых ребят которым похyй в принципе
а какого фига stalker делают чехи, а не украинцы ?)
Канал боится называть всё своими именами.
Для них происходящее - это "СВО", а не война и "хлопки" вместо взрывов, и НПЗ горят не из-за украинских дронов, а от их "обломков"...
чехи делают потому что
Спасибо что читаете комменты и прислушиваетесь, табличка просто бомба, сразу показывает кто есть кто и кто чего стоит. х1,5 к прайсу, за 12% производительности это прям сильно)
Надо было уронить 5080 в конце ролика, это было бы не забываемо. После ролика, мне как человеку играющему только в КС2 все стало понятно сразу!
Жаль, что в погоне за фэпэсами геймеры стали забывать для чего нужны игры. Ау, в окно посмотрите, вот это настоящий графон, а игры должны развлекать и приносить удовольствие, чего к сожалению в последнее время не наблюдается.
так они и будут приносить удовольствие и развлекать если будут без тормозов в ультра качестве. а окно тут причём?
@@mixture6696и с мыльцом. Раньше делали игры без всех этих апскейлиров и все было красиво и оптимизированно, не то что сейчас, игры делают с расчётом что без мыла в них играть невозможно
Игр очень много на вкус и цвет. Выбирай любую
За окном точно такие же лучи, только генерирует их тебе солнце, а не монитор. А картинка в твоём мозгу точно такая же ненастоящая, а собранная из двух картинок с двух глаз, прошедших через автоинтеллект сетчатки глаза.
@@mixture6696ну внатуре чел фигню написал. Как уж нам насладиться игрой пока она в нативе пас трейсинг не вывозит на 120 Гц…
дурачки из техно -кухни мне доказывали,что 5000 будут в нативе лучше на 30% своих предшественниц))
В видео показано сравнение, где 5080 быстрее 4080 супер в среднем на 15%. Это разница между старой супер и новой, но обычной версией. Между предшественницей (обычной 4080) и новой 5080 разница еще больше. Вот тебе и 25-30%
@@Miwler по-твоему 4080 S быстрее обычной 4080 на 10-15%?
@ Я не замерял точных замеров, как сейчас, но я до этого видел не одно видео, где показан заметный прирост у 4080s после 4080. Я еще тогда подметил, что 4080s по производительности (в среднем) между 4080 и 4090. Получается, что 4080s стоит между 4080 и 4090, а 5080 - между 4080s и 4090
ну так они же дурачки , что с них взять
Ну для 5090 это работает, для остальных правда не очень)
Красные карты только для игр. А может стоит проверять на каком-нибудь более серьезном софте? Блендер - это так поразвлечься, бублик замоделить. Что насчет Maya и 3ds max? Симуляция одежды в marvelous? Почему-то там я не испытывал проблем на своей rx6600m/rx7600
Спасибо за подробный разбор. Собственно, всё как всегда - на старте продаж очень дорого, прирост 10-15%, за десять лет ничего не изменилось
За счёт перехода на GDDR 7.... и всё. Куртка всех наеб...л😅
Ага, 10-15% прирост за 10 лет, скажи это 3080, которая на 70% быстрее 2080, 4080, которая на 60% быстрее 3080 и имеет генерацию
@@treexh пришлось написать лонгрид перед сном.
RTX 3080 действительно быстрее RTX 2080 примерно на 60-70%, но вот RTX 2080 давала прирост над GTX 1080 всего в районе 30-35%. RTX 4080, в свою очередь, не на 60% быстрее 3080, а скорее на 40-45%, если смотреть в среднем по тестам. Более того, новые поколения зачастую растут не только в производительности, но и в энергопотреблении, что тоже не всегда идёт в плюс.
Если же взглянуть на прирост в течение десяти лет, а не между отдельными удачными моделями, картина становится ещё интереснее. Например, GTX 980 вышла в 2014 году, и её производительность в сравнении с RTX 4080 выше примерно в 6 раз. Это чуть больше 20% прироста в год. Но если считать с учётом цен, то RTX 4080 стоит куда дороже, чем флагманы 10 лет назад. А если сравнить с 5080, то её прирост над 4080S как раз те самые 10-15%, которые стабильно повторяются из поколения в поколение.
Так что если взять долгосрочную перспективу, особенно топовых карт, средний прирост за поколение действительно держится в районе 10-20%, а прорывы случаются раз в несколько лет.
Душные факты:
1. RTX 3080 vs RTX 2080
RTX 3080 действительно быстрее RTX 2080 примерно на 60-70% в среднем по тестам.
Однако RTX 2080 превосходила GTX 1080 в 30-35%, что уже значительно ниже.
2. RTX 4080 vs RTX 3080
Прирост RTX 4080 над RTX 3080 в среднем 40-45%, но не 60%.
RTX 4080 в играх на максималках быстрее RTX 3090 на 30-35%, а та, в свою очередь, была быстрее 3080 примерно на 15%.
3. Глобальный прирост за 10 лет
GTX 980 (2014) → RTX 4080 (2022)
Разница в 5,5-6 раз, что даёт в среднем 18-22% в год, но не линейно:
GTX 980 → GTX 1080 (2016) ≈ +70%
GTX 1080 → RTX 2080 (2018) ≈ +30-35%
RTX 2080 → RTX 3080 (2020) ≈ +60-70%
RTX 3080 → RTX 4080 (2022) ≈ +40-45%
RTX 4080 → RTX 5080 (2025) ≈ +15-25%
Таким образом, если брать усреднённый рост по поколениям, действительно выходит 10-20% прироста за каждое новое поколение в среднем. Иногда бывают удачные скачки, иногда - стагнация, но в среднем тренд остаётся таким.
Средний прирост между поколениями за последние 10 лет колеблется в пределах 10-20%, но бывают исключения, когда новые поколения дают до 60-70% роста, как это было с 3080 по сравнению с 2080.
@@PulsePC Ты что-то путаешь, 20% в год это 44% в 2 года или за поколение, карты же выходят раз в 2 года 😁
И проценты по-другому считаются, например ты пишешь 4080 быстрее 3090 на 35%, а 3090 быстрее 3080 на 15%, тут надо не складывать 35+15, а 15% или 1.15 умножать на 35% или 1.35 и получится 1.15*1.35=1.55 или 55%
ну так-то 3060ti в своё время была производительнее 2080, а вот 4060ti еле дотягивает до 3080 (да даже 4070 в ровень с 3080 идут)
я не очень понял про горячих красных, если на 4080S температура в тестах всегда выше чем xtx?
Надо смотреть на потребление в ваттах...
@_bestnick_6835 при чем тут потребление и температура нагрева?
Ну нанесете фазовый переход, будет температура ниже, только гарантия минус
Это самая горячая версия 4080S
@@mka так это все ясно, но факт остаётся фактом :) температура рабочая у 4080s выше
9:00 RTX 5080 и хотспот на 255 градусов, жёсткая заявочка
Хот спот 255 это ошибка датчика,не переживай
@P0p1tGdzтам нету хотспота
так мониторинг хот спота отключен самой nvidia и gpu-z показывает максимальное значение (считай затычка), в бета версии gpu-z этот мониторинг вообще убран
Все просто- там датчика температуры нет, экономия от куртки.
@@VEnZ0ja датчик температуры есть! без него бы не было мониторинга =) (в картах 80+ датчиков температуры, но инвидия просто на уровне прошивки теперь дает только средне значение, максимальное решили спрятать от глаз пользователей чтоб не делать антирекламу 5090)
жду пока протестируете Смуту
О ребят, не знал, что вы из Кёника) Привет вам земляки 😊
Так Кёнигсберг или Калининград?
на оккупантском - калининград
@@roadrunner_86 если бы оккупанты не приперлись к нам в 41-м , глядишь, и Кенигсберга не лишились бы .А тебе голову подлечить не мешало бы , болезный.
Я вот честно не смог и не осилил ) Вы мне скажите, старику под FHD моей 3060Ti на сколько хватит и когда переходить на 10-12 гигабайт видео памяти ))))) ?
Когда устраивать перестанет, тогда и переходи
12:08 - а теперь выключи DLSS и посмотри где твой буст от нового драйвера?
в том то и дело, что буст даёт новая версия DLSS, которая новым драйвером может переопределяется для любой игры
И снова "эра 4k" не настала.
Она давно настала, просто ссаные лучи пытаются натянуть везде
С такими приростами за поколение это наступит не скоро) вот думаю обновлять ли мою 3080 с 10гб до 4080 супер, скорее да чем нет
в смысле не настала? На топовых картах можно поиграть в абсолютно любую современную игру с фпсом 70+ и в 4 к. И то фпс 70+ будет буквально в нескольких самых требовательных играх. Большая часть игр без проблем выдаст 120+.
Вот чисто психологически не могу взять карту, которая в играх будет жрать 400Вт, тем более, в 2к. Что это за промышленный керогаз? С одной стороны, хочется увидеть в будущем маложрущие карты на 1,7нм техпроцессе, но ведь эти капиталисты просто засунут больше транзисторов и сделают жор снова на уровне 400Вт у предфлагмана и хз сколько у 6090
Психологически не можешь? Ну так сходи к психологу, лечись, если тебя цифры так пугают или наоборот возбуждают. Абсолютно нормальное потребление, с андервольтом 7900xtx вообще больше 320 не жрет
Да хоть киловатт жрет, какая разница за исключением работы 24/7? Не, если ты из европейских стран каких-нибудь, тогда ещё ладно, но если ты из СНГ - вообще чхать сколько карта ест, лишь бы была холодной и тихой. Да и в чем проблема тогда взять 4060, она ест мало, вставляешь в ПК и наслаждаешься соткой ватт
ну 400 вт она будет жрать не всегда а только в самых тяжелых режимах. например 4090 имеет тдп 450 но в свежих играх она обычно ест 300-370 а в старых или простых потребление вообще падает до 150 или даже ниже. Только если на ней рендерить или запускать ai задачи то тогда сразу выходит на полные 450.
@@I_SEE_DARKNESS полностью согласен хоть два киловата! или тупые люди или скупердяи
Жаркий гейминг приобретает всё более новое значение.
Всё что выше 4070, это уже не для всех. А для работы и пальцастых.
Вабще не понимаю этих индустриастов , как простой ползователь . Ведь при таких размерах и энергопотреблении оная должна тянуть 3D дисплей с разрешением в 12К и размером 3х4 м а так то что толку платить цену бюджетного авто за портативный обогрреватель?
Если бы брал себе сейчас видеокарту, то купил бы 7900XTX. Им бы уменьшить энергопотребление, и вообще хорошо будет
У нвидии теперь дрова кривые.... Сам вон не всегда всё идёт, то в фоне в сотку грузит. А с такими ценами хз что брать😂
А драйвер 572 сохраните, мужики, в загашник, а то следующий драйвер опять урежет🤣🤣🤣
Я не понимаю чем не угодили дрова амдшные, 2 года на них сижу вообще ни одной проблемы. ПО адреналин на голову выше, а если и проц амдшный тем более. По разгону современное железо лучше андервольтить чем разгонять мое мнение.
плохие АМД дрова это сказка из 2004, с тех пор уже умерли те кто это начал, но их наследие будет жить пока живы мудаки.
Меня удивяет когда ты говоришь. "Если не зочеться мылить картинку 4к/длсс качество" ставим 2к натив. Нет 4к длсс 4 качества смотритьься намного лучше чем 2к натив. Даже не учитывая апскейл внутренее разрешение длсс качество 66% от 4к что составляет 5280000 пикселей что больше чем 2к. И вот жто разрешение скейлииься до 4к велеколепным длсс4. То есть играть в нативные 2к когда ты можешь в 4к с длсс нет никакого смысла, тупа ухудшишь се картинку
В нативе хотя бы не будешь блевать от того, как шакалит dlss мелкие детали и погодные условия
@@VitaliyIvashenko длсс 4 видел? На ранжиме качества он шакалит намного меньше чем нативное таа сглаживание
@@VitaliyIvashenko я в киберпанке и сталкере включил длсс качество не потому что они уменя не идет а потому что я хочу сгладить рябь и мделать картику четче. У меня и в нативе в них 70 фпс но что я могу сделать если с длсс картинка тупа лучше. Бывают ли иногда микро артифакты? Да. Но с обычным таа сглаживанием они тоже есть и низера не меньше
@@VitaliyIvashenko щас длсс дошел то того что лучше его врубить даже не ради фпс а ради более качественного сглаживания в тупую. И очевидно что нативное 2к выглядит сильно зуже чем 4к длсс качество. (Спокйлер 4к длсс производительнлсть тоже выглядит явно лучше чем нативное 2к)
@ хз, не проверял - у меня моник 2к, так что только натив и никаких dlss
Было бы славно, если бы в замерах производительности было бы не три левых части кадра (например 18:59), а как у i2hard, мониторинг для левой сцены слева, для средней посередине, для правой - справа. Это, конечно, добавит больше мороки по тому, что нужно выставлять для каждой карты положение оверлея, но сделает картинку приятнее.
после выхода длсс 4 я решил вновь дать шанс Генератору кадров и был очень удивлён, ощущения от управления никак не изменились, а плавность и отсутствие артефактов очень удивило, теперь я с удовольствием включаю это и радуюсь.
2025 год, а в тестах ласт оф ас, киберпанк и ведьмак. Какой же это всё разод на деньги
У киберпанка такая репутация сложилась + одна из первых игр с поддержкой dlls4 и генератора кадров. Ласт оф ас вышел относительно недавно, ему не так давно занесли оптимизацию. Ведьмак, благодаря CD Red, также получил некст ген обновление
Тем более это одни из ебейших сюжетных игр, поэтому почему нет?
И на какой почве удивления? У Cyberpunk очень эластичный движок, с потенциалом на годы вперёд получился. Мододелы вообще до фотореализма местами картинку довели. Жаль студия на UE5 ушла, это прям печаль
Правильно ,нужен Кризис оригинал эдишн
Мне интересны эти дурачки, которые не слышат от обновлении киберпанка и других игр...
По твоему что, pach traising образовался на релизе игры?) ты тот ещё олух ..
А кузя из дока выходит? Крейсер москва еще надо задействовать!
Люблю такие видосы. Это как смотреть соревнования по боксу- вкачанные мужики месят друг другу кабины, жюри подсчитывает очки и меланхолично резюмирует, что один качок с реакцией пантеры хуже другого такого же на n число баллов. Только нокаутов тут нет. Разве что в трассировке, но будем честны- она все еще не настолько народная, чтоб учитывать ее на серьезных щах. Не, я вполне допускаю, что на свете есть люди, пересевшие с ps3/ps4 и rx6600 на что то более серьезное, типа 4070 или 7700xt, но мужики, относиться к этому серьезнее, чем к шоу, и уж тем более обсуждать в курилке новые разработки куртки я отказываюсь, ну их лесом.
как думаете, в 6000 серии будут дорисовыаться сразу 7 или 15 кадров?
Я знаешь чо думаю дорисовка не плохая штука, но дорисовка должна быть тогда когда реальных кадров за 200, так не будет воспринимать наш глаз количество кадров и мы уйдём от мыла и инпутлага, а приобретём за счёт дорисовки плавность, киношность, и больший размер экрана. Ещёбы сделали дорисовку не полного кадра лучше, тоесть зону персонажа бы не трогали, тогда отзывчивость на управления получилась бы тчётче.
Можно пойти и другим путём, например хорочие геймерские очки, там пикселей разместить 2 тысячи на 2 тысячи и нынешних видеокарт хватит, зато картинку получим внеепическую даже без дорисовки кадров.😊
И тако ощущение, что в вуконге счётчик считает только реальные кадры для рыксы. Слишком плавно для 15 фпс
Мам мама, Ето для учебы)
Такой кирпич для учебы только если ты собираешься стать строителем.
@@Дракончик-и8э Вообще-то, "зелёные" карточки ещё и для работы, а не игрушек берут. ;)
Реклама ТУНДРЫ огоооо улитки решились на пиар невероятно !!!!!!!!!!!!!!
Лучи вместо физики пробития !
Надо сравнивать 5080 с 4080, а 4080 супер с 5080 супер!!! Очень дорогая карта получается на старте продаж, для богатых пк-бояр!!! А так прирост минимальный, но со временем будет лучше (драйвера допилят)!!! Мне всегда нравились карты от нвидия: 1. Потребление ниже, на бп можно сэкономить!!! 2. Производительность тоже выше в сравнении с АМД!!! 3. Ликвидность на б/у рынке, да и живут карты дольше!!! Тем кто сидит на 3000, 4000 серии можно сидеть дальше, а остальные идут покупать 5000 серию, но лучше подождать снижение цены, а так открытая касса!!! Спасибо за тесты!! Всем всего хорошего и удачи в делах и сборках пк!!!
Были карты обоих производителей, всегда в деталях лучше AMD, а мыльный драйвер nvidia увеличивает fps, но калечит картину
байки и выдумки, перешел с 3070 на 7800хт, картинка идентичная
В 2023году на канале Hardware Unboxed чмырили карту RTX3070 с буфером памяти 8Гб с фризам и отставанием от конкурента RX6800 где память16гб.. В этом году тоже самое будет RTX5080 (может это будет на другом канале) с нищенским буфером 16Гбв 2025году, уже сейчас загрузка памяти местами находится у опасной черты, например в Indiana Jones and the Great Circle. Поэтому : нужно дождаться версию 5080TI или 5080Super где добавят видеопамяти а это 100% Будет т.к. 16Гб для 4К в 2025году это не серьезно и нет запаса, плюс улучшат драйвер и карта догонит 4090.
А тут разработчики вообще болт забьют на оптимизацию,и уже инди-игрушкам не хватит 16Гб для средняков...
там же амд новые будут, они тоже по 16 гигов
Это тоже очень плохо что 9070 будут 16гб
Так 9070 будет максимум 600 баксов. 16 гигов еще на 1-2 года хватит на 4к. UE 5 мало памяти потребляет. Претензии к 5080 за 1 к баксов 16 гигов конечно позор.
Только RTX 3070 не конкурент RX6800, она по сырой мощи лучше даже без переполнения буфера. Однако, когда эти карты были популярными, в ДНС RX6800 стоила дороже даже чем 3070Ti (в 2022 году летом цены были 57k 3070ti vs 63k RX6800 в моем городе). Да и память можно сэкономить если с настройками поиграться.