Тест 4090, проверка на одной частоте с 3090, почему горит коннектор, что есть DLSS 3 на самом деле
HTML-код
- Опубликовано: 1 май 2024
- Для Full HD и больше (Реклама. ООО "Ситилинк") www.citilink.ru/product/video...
QHD для не самых требовательных www.citilink.ru/product/video...
3080Ti теперь ниже рекомендованной www.citilink.ru/product/video...
Хорошая альтернатива www.citilink.ru/product/video...
Тест 4090 с некоторым опозданием, но в него я включил все что мне было интересно узнать о 4090. Думаю и для себя вы найдете, что-то что еще не успели узнать.
Видео без рекламы в Бусти boosty.to/prohitec
prohitec - подписывайтесь ✔️
t.me/prohitec телега
rutube.ru/channel/696248
zen.yandex.ru/id/5ca71d0f616b...
/ prohitec - а тут врубайте колокольчик 🔔
00:00 Габариты, куда не влезет 4090
01:58 Разборка, компоненты и система охлаждения
04:00 Почему горят коннекторы и проверка температуры
09:40 Сравнение 4090 и 3090 с одной частотой и TDP
13:00 Blender и удивительные показатели по TDP
14:15 Premier и Davinci - когда нет разницы
16:46 Компас 3D
17:35 Про RT и новое в RT ядрах.
19:00 Watch Dogs Legion - проверка прибавки в RT
20:53 Uncharted: The Lost Legacy
21:29 A Plague Tale: Requiem - проверка прибавки DLSS и DLSS 3
23:40 Cyberpunk 2077
26:05 Итоги - Наука
Для меня этот обзор 4090 был первый среди посмотренных, потому что мне интересен именно ваш разбор. За него большое спасибо, буду ждать выхода массовых линеек
Аналогично. Видел превью кучу обзоров, но специально не смотрел,чтобы бороду глянуть
Самый лучший у I2HARD))
да они не особо шарят, у них только канал называется ПРО, а в основном вода теоретическая
Аналогично! А длсс3 считаю читерством для про геймеров
Согласен с вами )
Спасибо за отличные тесты и Ваши труды👍
Спасибо большое, ребята. Как всегда - все по делу, все самые важные вопросы рассмотрели. Да и сам просмотр в радость)
Ура, ура! С возвращением, Сергей! Спасибо за видео! Будем посмотреть=)
Именно ВАШ обзор я ждал всё это время. Спасибо за конкретику без воды!
Спасибо за детальное сравнение. Мне бы было очень интересно увидеть производительность по кадрам в соотношении с потреблением электроэнергии 30 и 40 в сравнение с rx 60 и 70
Как же я люблю ваши обзоры, за подачу, монтаж, хорошо написанный текст в целом качественный контент 😊✌️
Мега обзор и тест, спасибо вам!
Ждём с нетерпением следующий тест.
Радуете меня своими роликами, интересно смотреть.
Только не понятно, почему инфа про коннекторы устаревшая - расследование Gamers Nexus уже везде обсудили и озвучили. Видимо, это видео снимали раньше.
Спасибо за прекрасный обзор. Как всегда доступно, профессионально, и всё по делу. Благодарю за качественный контент :)
Ждал именно ваши тесты и обзор, спасибо!
Все грамотно изложено, обзор видел до вас только один, интересует мнение именно серьезных основательно подходящих к своему делу блогеров, какими вы и являетесь. Так держать 👍
Дождался! Большое вам спасибо, человеки, за ваши обзоры, всегда жду именно вас) Всех благ! Ждём тесты процов и конечно же 4080 и амд карты.
Кто-то пользуется картами красных? О_о
@@vegetasaiyan2045 крайне любопытно посмотреть что они представят в этом месяце. Правда сомневаюсь что они будут под стать зелёным.
@@vegetasaiyan2045 любопытно же) да и больше конкурентов нам на пользу
@@arhant8 в голой производительности амуде вполне может и уделать зеленых, но вот слабость красных в том, что их фичи типа лучей и длсс - как показывает практика, намного хуже работает нежели технология зеленых, ну и всякие штуки для стрима и захвата...
@@artemshenev7422 даже синие немного пытаются.. но пока им ещё далеко до лидеров гонки, а жаль..
Красным явно есть чем ответить, шпионаж никто не отменял, а значит, они знали, готовились.. и если не производительностью, то ценой откусят часть рынка..
А вообще рад за 4090: 2х прирост производительности сейчас - это очень смело с их стороны, могли же ведь как и раньше по 20-30% за поколение прибавлять
Так что значит только вам интересно ) Не только вам интересно то чем вы занимаетесь ) Не кто так не расскажет или не представит информацию )на столько интересно как делаете это вы )Спасибо за то что вы снами и продолжает нас радовать подобными новостями )
Большое спасибо за интересно видео, очень жду ваши тесты процессоров нового поколения!
Ждал только вашего теста, охват интересующих вопросов наиполнейший!
Спасибо большое! Ждем тесты АМ5 всем селом :)!
@Лагань Калмыкия Это где такие конторы взять, которые ВК на прокат дают
Какой же кайф смотреть такие видео на вашем канале! Спасибо!
Спасибо за такие подробные тесты! Хотелось бы, чтобы в будущем сравнение рендера в блендере было постоянным для всех новых GPU
Очень хороший подход к видео, видно что вложено огромное количество сил и времени.
Получилось отличное видео, спасибо!
Спасибо за качественный разбор и тесты в рабочих программах, ждем обзора новых процессоров)
Спасибо за подробный и как всегда лучший тест! В большей степени доверяю вам при сравнении чего либо. Спасибо за проделанную работу 👍
Как всегда, спасибо Сергею за обзор и честные выводы без лишней воды
Плюсую
Вообще единственный нормальный ведущий на канале )
Спасибо огромное за вашу работу, теперь будем ждать тесты процессоров!
Интересный тест и как всегда отличная подача, спасибо)
Спасибо Борода!)) Как всегда топ-контент! 👍 Единственное, мне кажется, стоило ещё замерить тепловизором температуру на коннекторах 3090...
Спасибо за тесты рендеринга в 3D приложениях! Очень полезно)
Спасибо за труд! Как всегда, просто отлично! 👍
Большое спасибо за большой, подробный и развёрнутый получасовой обзор👍
Спасибо Вам за проделанную работу! Ждем тесты с новыми процессорами! Спасибо Вам огромное! Жаль денег нет на такую технику, как же я о ней мечтаю.
Касательно будущего теста процессоров хотелось бы небольшой блок сравнения встроек intel vs amd, раз уж у amd теперь тоже повсеместные встройки )
За тест 4090 спасибо!
Класс! Никого не смотрел, ждало Ваших тестов. Спасибо!!!
Не зря ждал именно ваш тест! Спасибо!
При такой цене-класс контакты в разъёме можно было сделать позолотой, а вообще сам разъём хиленький,было бы в два раза массивней сделать.
Так уже разобрались с этим, НЕПРАВИЛЬНО спроэктированным, переходником на 4 соединителя!!!
Производитель там ПРИПАЯЛ провода к тоненькой пластинке, там всегда будет греться пайка.
Потом эта пайка отпадывает и нагрузка распределяется на оставшыеся контакты, а затем соединитель плавится.
Никогда раньше никто не припаивал 12 В в соединителях для видеокарт. Там всё везде зажымается усиками. А вот в соединителях, идущих от блоков питания всё зажато и в порядке.
Подрядчик Нвидиа - компания Astron наделала эти переходники.
@@user-nt5ro8vv8z Ага, Хуанга не виноватая, всё производитель переходников.🤣 То что вам там разжевали в каком-то видео, не причина прогара. Все клеммы контактов идёт стандарт, пиковую нагрузку для них давали 5% потребителей, тут сразу все 100% владельцев RTX4090, производитель не причём, что заказали то и сделал.
Ммм с такими токами надо разъёмы делать на винтах, штоб зажымалось нормально
@@v61kz Скоро будут приглашать мастера, чтобы он провода 12в от БП припаивал прямо на плату видеокарты.
Вы и I2HARD очень хорошо и понятно объясняете, молодцы. Желаю тебе больше подписчиков, здоровья и хорошего настроения :)
ждал ваш обзор на 4090, спасибо)
Однозначно лайк! Ждём дальнейших тестов.
Отличный обзор, спасибо! Подумайте над предложением добавить к тестам генерацию картинки в Stable Diffusion (одна большая и\или серия мелких) - конечно пока эта тема нишевая, но во-первых это что-то новое, во вторых - это чертовски интересно. Уже вторую неделю осваиваю нелегкие навыки предсказания поведения нейросетки и результат как минимум не надоедает. Там если настройки выбрать одни и те же и задать seed один и тот же то вроде бы в пределах чекпоинта (версии сетки) результат будет ровно тот же самый.
Игры на помойку! Рассматриваю к приобретению 4090 исключительно из-за нейросетей.
Надоело генерить на своей 2070 шакальные арты в макс разрешении 800х800, в то время, как говорят, 4090 может генерить 8000х8000 ...
@@jessepinkman5833 никто не генерит по ходу работы в высоких разрешениях, да и апскейлеров сейчас много неплохих, а если тебе нужна будет динамическая анимация (видео), то тебе надо будет так или иначе антифликер использовать, поэтому смысла нет генерить в высоких разрешениях.
Но да, много памяти не бывает, но я тебе советую дождаться 5090, там возможно будет 32 гб, но 100% у нее будет разница в реальном производительности, как и у 3090 и по сравнению с 4090 (в районе 80-100 %)
20:08 а я вот помню довольные лица блогеров играющих в 8к и то что 3090 созданна для игр с разрешением аж 8к
Нвидиа тогда прислали рекомендации к тестам с этими вводными ). И договаривались, кому прислать 8К телевизор для тестов, я отказался, потому что это явная хрень.
@@prohitec надо было соглашаться, но играть в героев 3 :D
Спасибо за видео! Вы лучшие! Ждём тесты процов!
Спасибо за обзоры! Самые качественные и четкие)
отдельное спасибо за тесты в приложениях, занимаюсь видеообработкой а игры не интересны. Только на вашем канале не забывают тесты делать для работы а не только игрулик
У меня такой же корпус, только белого цвета, тоже стоит кастомная водянка, но помпу с резервуаром я поставил в отсек вместо DVD-RW привода.
Спасибо за обзор,со своим необычным подходом выходит намного информативнее и интереснее.
Спасибо огромное за проделанный труд.
Мое почтение.
Спасибо за тест парни! Если рендерить экстерьерные сцены (архитектуру), в большинстве случаев очень легко выйти за 24 Гига по памяти. Для лёгкой 3д-ки, предметки и интерьеров - в самый раз, с запасом. Не пробовал правда новую платформу, может потребление памяти будет и меньше за счёт новых тензорок.
В прошлый раз как раз делал интерьеры и пришлось сильно повышать размер текстур, чтобы занять память. По факту это не было нужно, синтетика какая-то. Но про архитектуру ничего не знаю ))
@@prohitec отличие экстерьерки в том, что там много объектов со сложными шейдерами (включая полупрозрачность, дисплейс, сложные отражения и т.п.,), много органики, огромный полигональный бюджет (по сравнению со среднестатистическим интерьером), отсюда и повышенные требования к памяти. А если это ещё и "птичка" (обзорный вид сверху), то добавляем туда ещё и очень большие текстуры. Сама по себе "зеленка" очень много памяти занимает для просчёта. Хотя, я тут месяц назад интерьер делал - ушло где-то под 60 гигов оперативки на просчёт, но там и проект большой. Так что, всякое бывает ;)
А ещё нейросетям нужно много видеопамяти, т.к. иначе она банально не запустится + тензорные ядра там очень даже решают.
На 9м35с хорошо видно, что провода нагреваются не равномерно, так же видно, что сильнее греется в месте соединения разъема с платой. Не профессионально звучит, что уменьшение сечения при повышенной мощности не причем. Еще как причем, а повышение нагрева приведет к ослаблению контактов в месте соединения и 60 градусов достаточно, чтобы припой поплыл и контакт начал ослабляться повышая свое сопротивление, а то и совсем приведя к пожару! При этом не забываем что разъем в переходнике в месте соединения с платой состоит из 4 проводов на контакт, что по сути может привести к проблеме, если соединение из-за нагрева начнет ослабляться!
Спасибо Борода, ты лучший! Лучший тест, всё разложил по полочкам.
спасибо большое за выпуск и за тесты!
Сергей, просто лучший обзор! Вообще не важно, что не быстрый. Денег на топовые карты всё равно нет. Поэтому мы всегда ждём вашего подробного и честного разбора.
*ушёл играть в героев на рыксе 580*
Разница в графике киберпанка может быть из-за TAA сглаживания и разницы а производительности. Чем выше фпс тем меньше изменений на соседних кадрах, тем меньше мыла от TAA
Спасибо за качественный контент, больше всех ждал обзор от вас)))
отличный вторник выдался ) заварил кофеек с печеньками. Приступаю к просмотру ) спасибо за созданное хорошее настроение
Очень актуальный для меня обзор . Т.к. как и вы не хочу менять свой корпус то рассматриваю как раз эту модель Palit 4090 OC . Она одна из самых коротких в серии . В вашем обзоре не хватает андервольта . Сделайте отдельным обзором андервольт и разгон . И еще немного офтоп . где то в нэте читал что на новых материнках (чипсетах) увеличивается сильно время загрузки системы при установке 4 планок ddr5 , а именно долгая инициализация биоса . Считаю что это интересная тема для обзора . И чуть не забыл . поскольку производительность оч. сильно возросла всплыл вопрос недостатка пропускной способности Display port 1.4 . Для вывода большего количества кадров ( более 144 ) используется какая-то компрессия . Как эта компрессия влияет на качество картинки, инпут лаг и тд. .Если у вас есть возможность сделайте обзор и по этому вопросу . спасибо
Проделана большая работа, спасибо за труд!
Спасибо за подробный тест! 👏
Отличное видео, спасибо!
Только одно пожелание, не надо делать такое размытие на общем кадре, смотреть глаз ломается очень!
Вот как хотите, но самый информативный и приятный обзор, это обзор от Сергея. Вне конкуренции. Спасибо.
Спасибо, ждал ваш обзор)
Опа. Как же рад тебя видеть. Соскучился -)
20:56 - В случае в 4090, частоты и потребление у CPU ниже, при большем количестве кадров. Либо в тесте с 3090 что-то фоном пахало, либо какая-то чудодейственная оптимизация драйверов под новое поколение видеокарт произошла.
Ты абсолютно прав, только наоборот , произошла оптимизация драйверов 30 ки). Заметил, как у всех стримеров с выходом новых карт стримы фризить начали? Они ведь все на 30ках сидели.
@@alexanderlobzev4482 ну драйвер реально оч бодрый . возможно просто некоторые моменты на цпу стали перекидывать . а то тольку от этих мелкояред если они не будут задействован . ( так как вроде боковым глазом смотря жер проца возрос , чутка и по моему графика в играх чуть хуже стала(при тех же настройках что были) - но это абсолютно не точно , но отклик реально лучше.)
А может сделать выпуск и сравнить все топы nvidia. ? Этак с 8800. Или, даже , с 7800. Ибо тогда, выход 8800 тоже стал мини революцией. В некоторых играх был прирост почти в 3 раза. Было бы интересно. Кто За, ставьте лайк :)
Только цены тогда ТАК не выросли.
А смысл? Топ год-два, а потом уже просто б/у средняя видеокарта. Цены несоизмеримо выше, чем у прошлых топов потому что был майнинг, поэтому есть голод на видеокарты (как был на процессоры). Этот маразм уляжется, и возможно цены стабилизируются. Не понимаю, как игрок может покупать видеокарту за 1600 долларов, учитывая, что это обычно подростки.
@@MIchaelSybi 8800 gts предтоп стоила как шас помню баксов 300 и считалось что очень дорого. Но они по сравнению с предыдущим поколением были очень хороши и в первые месяцы был дефицит. Но не такой бред как шас. По 2 к зелени за видяху. Проплачивает нвидя разрабам чтоб на максималках тока 4090 тянула . В опу такой прогресс себе засунте. Я всегда через пару лет покупал за 100-120 $ предтоп на БУ или рефаб заводской с гарантией. Но походу буду на своей 970 ещё долго в фулХД пока все запускает, хотя и подумывал о смене на 6600хт или что аналогичное но нафик нафик.
@@alexsandrthegreat3358 4090 только для работы стоит брать. Я думаю на счет 3090, но многие после майнинга, опасно, хоть и цены хорошие.
@@MIchaelSybi Ну вот не стоит брать хх90 серию ЛЮБУЮ если планируется на долгий срок да и потери при продаже в соотношении будут выше. 90е серии по статистике живут недолго ткк. Они и так сделаны на пределе. Лучший выбор 3070ти-3080 с хорошим охладом. И хватит надолго и цена не так кусается и проживут дольше. Да и новые в магазине можно взять с гарантией года на 3 если беспокоит что майнили.
Спасибо за тест, как всегда супер!
Дождался обзора👍
Если будете брать интервью у представителей компании задайте вопрос по поводу нового разъёма. Чем именно обусловлено его внедрение. Ведь по сути несколько разъемов с меньшими токами выглядят более выгодно, так как они в меньшей степени подогревают друг друга.
Компактность, укомплектованность платы возможно стала причиной
4 - ЧЕТЫРЕ кабеля с 8 пин - чтоб подключить видеокарту, это маразм. Им некуда было деваться.
А на 5090 8x8-pin разъëмов устанавливать? В направлении правильном идут, но, чувствую, что это промежуточный стандарт, который долго не продержится. Для таких мощностей нужен разъëм, где контакты будут основательно подпружинены. Возможно, какой-то рычажок приделать, как в АМ-сокетах или WAGO клеммниках.
Поглядим через пару дней что представит АМД, и с каким коннектором питания!
@@artemshenev7422 амд это не помешало, а тут то что?
Кажется разница между 30 и 40 серией будет такой же, как между 12 и 13 поколением у интел - топ получается очень крутой, сильно избыточен для большинства, а вот если рассматривать более простые решения, то такая лихая разница резко пропадает
Топ= производительности дафига но тдп как у 3090
Среднее и ниже= а где моя производительность!?
спасибо за обзор! ждем тесты новеньких процессоров!
Пост в поддержку канала. Удачи!
Наконец-то стали делать испарительную камеру с распаянными на ней теплотрубками, это шикарное решение, жаль, что кроме, как в этой карте такого нигде нет. Таким образом они увеличили площадь с которой можно отводить тепло, жаль, что нет башен для проца такого типа
а вы видели разбор других вариантов? роман (der8auer) разбирал вроде что-то от гигабайта(могу перепутать модель), там тоже всё неплохо
Есть боксовые кулера от AMD с испарилкой
Охлад видеокарт от радеон 6*** передают привет из прошлого года "невероятной находке" нвидиа.
И всё равно рёбра СО алюминиевые, а не медные, отчего суммарная их площадь гораздо больше чем могла бы быть - гонка суперкулеров для ЦП передает привет из 2008-2013х.
@@duckcorpse9933 да, я помню, только я хочу, чтоб сейчас такое можно было купить
@@openphone3130 подскажете модельку?
Жаль, что нельзя сделать 4090, просто приложив к 3090 ещё 3050 ))
Ага) будут внешние размером с холодильник)
Может 1050?..
Это уже будет 7040.
Rtx3060+gtx1030= rgtx4090 😁
Приложите подорожник
Всегда, как выходят Ваши видео - сразу авансом ставлю лайк. Спасибо Вам, Вы лучшие!!!
спасибо огромное! как всегда супер информативно! прям целое исследование
Скоро надо будет иметь ДВА корпуса! Один для видяхи, а второй для всего остального!
Ну а в перспективе видяха будет жрать как ламповый ЭНИАК!!!
Просто охлад сделали с запасом, а так размеры в будущем будут только уменьшаться, при условии нахождения более оптимального способа отведения тепла.
Отдельные копуса для видюх давно уже не новость, особенно в яблочном мире.
Странно, что многими игнорируются реальные причины таких размеров новых карт НВ.
"При проектировании нового поколения игровых видеокарт, основанных на графических процессорах с архитектурой Ada Lovelace, специалисты NVIDIA опирались на необходимость производства GPU на мощностях компании Samsung с задействованием устаревших технологических норм, в результате чего уровень энергопотребления топовых моделей достигал бы значения в 600 Вт, что предъявляло повышенные требования для ряда компонентов видеокарт.
К великой радости специалистов NVIDIA, уже в процессе работы над видеоадаптерами нового поколения на горизонте замаячило «спасение» в лице производственного гиганта TSMC, благодаря мощностям которого GPU стали выпускаться по 4-нм технологическим нормам, что позволило ощутимо снизить уровень энергопотребления без потери быстродействия.
При этом разработка компонентов видеокарт специалистами NVIDIA и партнёрами компании уже находилась на завершающем этапе, поэтому все решения были приняты с учётом уровня энергопотребления в 600 Вт при реальных требованиях в 450 Вт - именно поэтому системы охлаждения GeForce RTX 4090 оказались действительно гигантскими, что, впрочем, позволяет производителям и энтузиастам иметь ощутимый запас для разгона".
Я не скептик, но тут не верю в эти сказки, потому что 450 Вт. это гигантское энергопотребление. Размеры радиатора для такой мощности вполне разумны.
@@agafon27 причем тут твоя вера, если у предыдущих поколений рабочие температуры легко достигали отметки в 90-100 градусов в "самой горячей точке", а здесь наблюдаем 60-70, а вентиляторы вращаются на 50% оборотов.
@@johnpreston8621 а я про что написал? Вентиляторы 50, температура в норме, так и должно быть при адекватном размере радиатора.
@@agafon27 вообще-то такая СО явно не разумна с точки зрения принятых производителями стандартов - СО идет с огромным запасом, процентов 25, не меньше. При этом такие размеры сразу вынуждают многих потенциальных пользователей менять корпус, иначе организовывать кабель-менеджмент и охлаждение в целом. Далеко не каждый готов мириться с размерами кирпича, в условиях, когда системная плата выглядит каким то придатком к огромной штуке, весом 2,5-3 кг.
@@johnpreston8621 невозможно за 5 минут, условно, до выхода перевести карты на совершенно иной техпроцесс. Размеры подложки чипа и платы лишний раз это подтверждают. Без уменьшения техпроцесса такой огромный кремний тупо не влез бы на подложку и контактная площадка на доске была бы явно больше, чем у 3090,, а значит единственное что изменили перед выходом это ужали powerlimit, вот это может быть правдой. От того и новый разъем всего лишь до 60+ прогревается. При 600ваттах он бы горел у каждого 10-го.
Это хоть может и из последних обзоров про 4090,но оно как мне кажется самое лучшее, однозначно лайк)
привет привет. ничего страшного мы ждали :) Спасибо как всегда за подробный и понятный обзор
Я понимаю что это будет не кому не интересно но было бы прикольно посмотреть производительность в нейронках. Что Я помню мою видяху напрягало это распознавание объектов на видео. Понимаю что автору много мороки с установкой среды итд. Но было бы прикольно посмотреть разницу между старыми и новыми тензорными ядрами.
неужто спец бенчмарков под это дело еще нет?
@@segbed сейчас накидываю вижу с этой идеей пару проблем но чисто теоретически можно сделать docker контейнер с видеофайлом и скриптом и запускать одной командой.
@@Snowman8526 а что нельзя узнать какая чать видеокарты за это отвечает и прикинуть разницу? или есть еще какие то лучшие видеокарты чем эта для твоих задач?
К чему вопрос?
@@Vadim_Andr. Вы понимаете чем отличается fp16 от fp32? как отличается avx от avx2 или от avx512? Вам только что продемонстрировали что на одних и тех же частотах производительность разная а вы говорите прикинуть)
Второе есть специализированные видеокарты типа Tesla A100 и V100 славятся низким энергопотреблением. у amd тоже есть специализированные карты.
Короче темо ооочень обширная в которую не кто не хочет лесть. и по сути обычным смертным это и не надо))(просмотров будет мало)
Отличный разбор. На нормальных драйверах, без облизывания и лизоблюдства. Все по факту, вот вам имеющиеся проблемы, вот правда, вот фейк, вот пути их решения.
Рассмотрены различные категории примирения видеокарты.
Спасибо за проделанную работу
Офигенно всё) спасибо за видео..как всегда всё супер)
Спасибо за сравнение. С нетерпением жду реальных обзоров 7950x от Вас, хотя все больше к нему и склоняюсь при апгрейде.
Лучший тест 4090 из тех что я видел, остальные снимают как будто на 3090 - жидко😁
В данном видео ничего и не поменялось, 3090 выглядит жидко.
30я серия честно говоря была очень спорной...выпускалась под бум майнинга..и ощущение, что для майнинга..
Данное видео, как и все остальные "блогерские рекламы palit'ов", жидкое. Открою всем глаза, 3090 во всех этих блогерских тестах урезается по TDP(либо берутся двухразъемные 3090 с TDP 350W), из-за чего бедные 3090, и так с жрущими в два раза больше чипами памяти(т.е. TDP доступный для ядра еще меньше, чем на 3080ti) еле еле вытягивают ядро за 1600 мгц. Единственное, что тут можно полезного взять - это значительно большая эффективность новых карт в сравнении с прошлым поколением. Но 3090/3080ti можно также даунвольтнуть и получить, например 4k 60 Fps в RDR2 на ультрах при потреблении 250-270W.
@@deshmining_club айтухард лимиты 3090 ставили в 420вт и разница в кибере 70-75%, если память не изменяет и частоты 1800-1900 мгц, а не 1500, как тут в тестах
@@sanyacev Даже больше, но у них не Палит. Я именно про палиты написал. А еще прикольно делать сравнение 24gb карт без 8k. Можно было взять любую 3080ti и она показала бы результат лучше во всех представленных в этом видео тестах и играх, просто за счет большего запаса по питанию на GPU и как следствие больших частот GPU.
Купил 3070ti в феврале 2022 года за 109к.
С тех пор запускал WoW водичку с RTX посмотреть и поигрываю в SimCity (2013)
Не понимаю для чего купил.. Наверное надеялся, что выйдет что-то интересное.
Чувствую себя дураком на фоне падения цен и положением дел на рынке игр))) Хотя теперь в классику можно играть без компромиссов 🤔
Да есть такое, тоже купил видеокарту 3070 , и хоть я ещё даже ПК не собрал, но уже чувствую , что как бы а нафиг она нужна мне с такой мощностью ... надо создать клуб солидарности жертв маркетинга, будем первыми членами пхахаха))
@@user-uq1ef2wc5c ахаха, смело вступаю)
Ëпты, 109₽ за 3070Ti...
Хорошо, что сейчас цены стали более адекватными на видеокарты.
Я месяц назад купил Б/У 3070Ti за 31₽. Произведена 07.2022.
@@CH1K1-BR1K1 Да уж, лох не мамонт.
Не умею деньгами распоряжаться. 😀
Прекрасный и подробный тест, спасибо !!!
Ух, очень серьезная и вдумчивая работа. Спасибо.
Для меня ваш тест первый, т.к. знал, что будете тестировать и не смотрел других блогеров.
вот на 4060 и на 4070 будет интересно посмотреть
И на 4050)
Ой боюсь там прирост меньше будет...
Не интересно, там старая архитектура.
@@user-un6yt3np5m Что ты за бред несёшь))))
Просто там не сделали такого большого прироста тензорных
t ядер и прочих характеристик)
Поэтому прирост скорее всего будет процентов 30 , ну максимум 50
Ноутбуки на 4060/80 😊
Лучший детальный разбор, большой лайк 👍
Как всегда отличный выпуск, нужно больше Видео с Сергеем!
Сергей, переключите в Premiere обработку таймлайн (декодирование) на встройку и будет все летать у вас на таймлайне, дискретная карта будет эффекты обрабатывать и кодировать, а встройка декодировать, т.е. два ГПУ активно должно быть в системе. Интеловская встройка декодирует лучше любой видеокарты.
У меня встройки ))) У меня тредриппер.
@@prohitec ну 12900 же в тесте.
Не всегда лучше декодекы интула. Я помню i5 7399hq с 1050
Так у 1050 декодер воротил 8к60фпс на ютубе, а интеловская встройка отказывалась воспринимать 8к вообще, то есть по мониторингу она раза в 2 слабее 1050. Может у топов по-другому, но мне что-то не верится
@@sanyacev Речь не про ютюб, а именно про Премьер. Декодирование на встройке в премьере появилось раньше чем на дискретке. И использование двух ГПу в премьере дает хороший прирост и на таймлайн и в экспорте видео.
@@Alexander_X_ тут речь не то что про ютуб, а про всё декодирование видео. Там разницы нет.
в премьере хрен знает, что там намутили. Может энкодирование лучше, чем у нвидии, но я что-то не уверен. Надо тесты смотреть
Да в инете уже есть разбор ситуации. Там в некоторых переходниках провода и материалы хреновые используются, плюс контакты плохие на крайних жилах. Но хреново, что это корейский рандом, повезет не повезет попасть на говенный переходник. Вроде писали, что чаще всего они попадаются у Зотака.
Короче, лучше присматриваться к 7900ХТХ, что бы не участвовать в "лотерее" :(...
драйвера [видеокарт] AMD для Windows = отдельный вид «лотерей»
У Нвидии тоже не лучше, до сих пор не починили мерцающую всеми цветами радуги карту в Киберпанке, да и других глюков наверно найдется немало... АМД хотя бы старые видюхи свои не бросает в дровах, все соки из них выжимает, а не забивает как Нвидия уже через поколение.
@@indrulid Это зелёные фанбои такой мем придумали? Больше 5 лет с картами AMD и проблем с драйверами не было.
@@Keezuf друг купил 5700 XT, каждые месяца два-три в течение года на что-то жаловался...
То чёрный экран, то BSOD, то ещё какая ересь
@@indrulid пусть переходит на линукс. Увидел баг - пошел и поправил код драйвера, отправил пулл реквест, возможно его даже примут. Уважаемым человеком будет. :D
Спасибо, ждем обзор процов с этими видюхами)
Класс! Как всегда, конструктивно) спасибо.
Не перестаю удивляться энергопотреблению нынешних монстро гпу, вспоминая какое отношение было даже к двухчиповым gtx 690 и titan z, хотя те кушали всего то 300 ватт.
Радеончик R9 290x2 кушала 500 ватт! =))
@@Igoresik и у неё 4 коннектора без всяких переходников
@@user-xyjuser И у Меди Мурка на обзоре RTX 4090 вообще один широкий кабелёк, без всяких там переходников!
Andrey Kor - ты просто не в теме чел.
@@Igoresik Чего врешь то, 275 Вт TDP. Или ты типа две 290х , но в чем смысл удвоеное 2013года, сравнивать с одним 2022го?
Боюсь представить каких размеров будут 7090
Будет иметь ножки для установки сразу на стол, нишы для размещения остальных пк комплектующих и разъемы для периферии 🤓👍
Ходят слухи, что и частоты и тдп в ближайшие годы могут даже снизиться. Правда скорее всего в базовых линейках. Топы будут только горячее.
За окно будет вывешиваться и кабель от подстанции напрямую тащиться)
@@ILexChess та не, просто будем на супермагниты в мрт охлаждать. Просто бочка с азотом, компрессор для сжижения испарившегося азота и чиллер для компрессора. Кароч как в холодильнике
@@kanashiyasai596 проблема всегда не в силе радиатора , а в сьеме тепла.
Серега - лучший, этот обзор был самый ожидаемый!
Спасибо за обзор и тесты Борода
В другом оранжевом магазине 3090 и 6950 намного дешевле стоят и цена как раз отличается уже вдвое, как и производительность и тут уже надо подумать, что брать
Во-во согласен. Сам в субботу взял там 3090ti supreme за 110 тысяч
13:08 как постоянный пользователь видеокарт для рендера 3Д, ответственно заявляю что Вы сильно ошибаетесь насчет того сколько видеопамяти надо (я о Ваших "12Гб с запасом"), и в целом лучше интересоваться такими моментами у специалистов.
может ты плохой юзверь?
Огромное спасибо за труд !!!
Спасибо за контент. Последние версии видюх все больше наталкивают на мысли о том, что они скоро станут отдельным устройством. базирующемся в своем корпусе со всеми вытекающими. 🤔
Чувствую скоро просто опять 3 по 8 пин будут штекера ставить или придумают кулер для разъема, или там водоблок)
"кулер для разъема, или там водоблок" - это не поможет. 3,4 по 8 пин - выглядит тупо , но и этот 12+4 - какой то слишком донный . маловат, а проводов - дохрена , его сила удержания слишком недостаточна.