Для меня этот обзор 4090 был первый среди посмотренных, потому что мне интересен именно ваш разбор. За него большое спасибо, буду ждать выхода массовых линеек
@@arhant8 в голой производительности амуде вполне может и уделать зеленых, но вот слабость красных в том, что их фичи типа лучей и длсс - как показывает практика, намного хуже работает нежели технология зеленых, ну и всякие штуки для стрима и захвата...
@@artemshenev7422 даже синие немного пытаются.. но пока им ещё далеко до лидеров гонки, а жаль.. Красным явно есть чем ответить, шпионаж никто не отменял, а значит, они знали, готовились.. и если не производительностью, то ценой откусят часть рынка.. А вообще рад за 4090: 2х прирост производительности сейчас - это очень смело с их стороны, могли же ведь как и раньше по 20-30% за поколение прибавлять
Спасибо за детальное сравнение. Мне бы было очень интересно увидеть производительность по кадрам в соотношении с потреблением электроэнергии 30 и 40 в сравнение с rx 60 и 70
Так уже разобрались с этим, НЕПРАВИЛЬНО спроэктированным, переходником на 4 соединителя!!! Производитель там ПРИПАЯЛ провода к тоненькой пластинке, там всегда будет греться пайка. Потом эта пайка отпадывает и нагрузка распределяется на оставшыеся контакты, а затем соединитель плавится. Никогда раньше никто не припаивал 12 В в соединителях для видеокарт. Там всё везде зажымается усиками. А вот в соединителях, идущих от блоков питания всё зажато и в порядке. Подрядчик Нвидиа - компания Astron наделала эти переходники.
@@ГрачевВячеславАлександрович Ага, Хуанга не виноватая, всё производитель переходников.🤣 То что вам там разжевали в каком-то видео, не причина прогара. Все клеммы контактов идёт стандарт, пиковую нагрузку для них давали 5% потребителей, тут сразу все 100% владельцев RTX4090, производитель не причём, что заказали то и сделал.
Если будете брать интервью у представителей компании задайте вопрос по поводу нового разъёма. Чем именно обусловлено его внедрение. Ведь по сути несколько разъемов с меньшими токами выглядят более выгодно, так как они в меньшей степени подогревают друг друга.
А на 5090 8x8-pin разъëмов устанавливать? В направлении правильном идут, но, чувствую, что это промежуточный стандарт, который долго не продержится. Для таких мощностей нужен разъëм, где контакты будут основательно подпружинены. Возможно, какой-то рычажок приделать, как в АМ-сокетах или WAGO клеммниках.
Сергей, просто лучший обзор! Вообще не важно, что не быстрый. Денег на топовые карты всё равно нет. Поэтому мы всегда ждём вашего подробного и честного разбора. *ушёл играть в героев на рыксе 580*
Так что значит только вам интересно ) Не только вам интересно то чем вы занимаетесь ) Не кто так не расскажет или не представит информацию )на столько интересно как делаете это вы )Спасибо за то что вы снами и продолжает нас радовать подобными новостями )
Разница в графике киберпанка может быть из-за TAA сглаживания и разницы а производительности. Чем выше фпс тем меньше изменений на соседних кадрах, тем меньше мыла от TAA
Касательно будущего теста процессоров хотелось бы небольшой блок сравнения встроек intel vs amd, раз уж у amd теперь тоже повсеместные встройки ) За тест 4090 спасибо!
Очень актуальный для меня обзор . Т.к. как и вы не хочу менять свой корпус то рассматриваю как раз эту модель Palit 4090 OC . Она одна из самых коротких в серии . В вашем обзоре не хватает андервольта . Сделайте отдельным обзором андервольт и разгон . И еще немного офтоп . где то в нэте читал что на новых материнках (чипсетах) увеличивается сильно время загрузки системы при установке 4 планок ddr5 , а именно долгая инициализация биоса . Считаю что это интересная тема для обзора . И чуть не забыл . поскольку производительность оч. сильно возросла всплыл вопрос недостатка пропускной способности Display port 1.4 . Для вывода большего количества кадров ( более 144 ) используется какая-то компрессия . Как эта компрессия влияет на качество картинки, инпут лаг и тд. .Если у вас есть возможность сделайте обзор и по этому вопросу . спасибо
На 9м35с хорошо видно, что провода нагреваются не равномерно, так же видно, что сильнее греется в месте соединения разъема с платой. Не профессионально звучит, что уменьшение сечения при повышенной мощности не причем. Еще как причем, а повышение нагрева приведет к ослаблению контактов в месте соединения и 60 градусов достаточно, чтобы припой поплыл и контакт начал ослабляться повышая свое сопротивление, а то и совсем приведя к пожару! При этом не забываем что разъем в переходнике в месте соединения с платой состоит из 4 проводов на контакт, что по сути может привести к проблеме, если соединение из-за нагрева начнет ослабляться!
Спасибо за тест парни! Если рендерить экстерьерные сцены (архитектуру), в большинстве случаев очень легко выйти за 24 Гига по памяти. Для лёгкой 3д-ки, предметки и интерьеров - в самый раз, с запасом. Не пробовал правда новую платформу, может потребление памяти будет и меньше за счёт новых тензорок.
В прошлый раз как раз делал интерьеры и пришлось сильно повышать размер текстур, чтобы занять память. По факту это не было нужно, синтетика какая-то. Но про архитектуру ничего не знаю ))
@@prohitec отличие экстерьерки в том, что там много объектов со сложными шейдерами (включая полупрозрачность, дисплейс, сложные отражения и т.п.,), много органики, огромный полигональный бюджет (по сравнению со среднестатистическим интерьером), отсюда и повышенные требования к памяти. А если это ещё и "птичка" (обзорный вид сверху), то добавляем туда ещё и очень большие текстуры. Сама по себе "зеленка" очень много памяти занимает для просчёта. Хотя, я тут месяц назад интерьер делал - ушло где-то под 60 гигов оперативки на просчёт, но там и проект большой. Так что, всякое бывает ;)
Все грамотно изложено, обзор видел до вас только один, интересует мнение именно серьезных основательно подходящих к своему делу блогеров, какими вы и являетесь. Так держать 👍
Отличный обзор, спасибо! Подумайте над предложением добавить к тестам генерацию картинки в Stable Diffusion (одна большая и\или серия мелких) - конечно пока эта тема нишевая, но во-первых это что-то новое, во вторых - это чертовски интересно. Уже вторую неделю осваиваю нелегкие навыки предсказания поведения нейросетки и результат как минимум не надоедает. Там если настройки выбрать одни и те же и задать seed один и тот же то вроде бы в пределах чекпоинта (версии сетки) результат будет ровно тот же самый.
Игры на помойку! Рассматриваю к приобретению 4090 исключительно из-за нейросетей. Надоело генерить на своей 2070 шакальные арты в макс разрешении 800х800, в то время, как говорят, 4090 может генерить 8000х8000 ...
@@jessepinkman5833 никто не генерит по ходу работы в высоких разрешениях, да и апскейлеров сейчас много неплохих, а если тебе нужна будет динамическая анимация (видео), то тебе надо будет так или иначе антифликер использовать, поэтому смысла нет генерить в высоких разрешениях. Но да, много памяти не бывает, но я тебе советую дождаться 5090, там возможно будет 32 гб, но 100% у нее будет разница в реальном производительности, как и у 3090 и по сравнению с 4090 (в районе 80-100 %)
В комментах со времен 2008, как я слежу за железом в инете ниче не изменилось. Зачем мне ваша 1080 в 2016 писали они, она же избыточна , помню комменты "буду и дальше на своей 780 ti сидеть, тянет все и так на максимально-высоких" с 2008 года наблюдаю одни и теже комменты, "избыточна", "ненужна", "че так дорого" "буду и дальше на своей гтх 460/1060 сидеть" UPD: видимо поклонники раньше было лучше забыли историю с оверпрайснутой 8800 ultra, которая стоила 829$,что было сильно дороже той же 8800 гтх и происходило это в 2007 году. Все не понимаю писак "революции не случилось", расскажите плиз когда она случилась?) Когда игры на 3д перешли?) Ну а поновее примеров нет?)
20:56 - В случае в 4090, частоты и потребление у CPU ниже, при большем количестве кадров. Либо в тесте с 3090 что-то фоном пахало, либо какая-то чудодейственная оптимизация драйверов под новое поколение видеокарт произошла.
Ты абсолютно прав, только наоборот , произошла оптимизация драйверов 30 ки). Заметил, как у всех стримеров с выходом новых карт стримы фризить начали? Они ведь все на 30ках сидели.
@@alexanderlobzev4482 ну драйвер реально оч бодрый . возможно просто некоторые моменты на цпу стали перекидывать . а то тольку от этих мелкояред если они не будут задействован . ( так как вроде боковым глазом смотря жер проца возрос , чутка и по моему графика в играх чуть хуже стала(при тех же настройках что были) - но это абсолютно не точно , но отклик реально лучше.)
Тоже конечно же у вас первых обзор 4090 посмотрел и, честно, удивлён и реальностью 50% прироста и более всего температурами, при таком то конском потреблении. 👍
А может сделать выпуск и сравнить все топы nvidia. ? Этак с 8800. Или, даже , с 7800. Ибо тогда, выход 8800 тоже стал мини революцией. В некоторых играх был прирост почти в 3 раза. Было бы интересно. Кто За, ставьте лайк :)
А смысл? Топ год-два, а потом уже просто б/у средняя видеокарта. Цены несоизмеримо выше, чем у прошлых топов потому что был майнинг, поэтому есть голод на видеокарты (как был на процессоры). Этот маразм уляжется, и возможно цены стабилизируются. Не понимаю, как игрок может покупать видеокарту за 1600 долларов, учитывая, что это обычно подростки.
@@MIchaelSybi 8800 gts предтоп стоила как шас помню баксов 300 и считалось что очень дорого. Но они по сравнению с предыдущим поколением были очень хороши и в первые месяцы был дефицит. Но не такой бред как шас. По 2 к зелени за видяху. Проплачивает нвидя разрабам чтоб на максималках тока 4090 тянула . В опу такой прогресс себе засунте. Я всегда через пару лет покупал за 100-120 $ предтоп на БУ или рефаб заводской с гарантией. Но походу буду на своей 970 ещё долго в фулХД пока все запускает, хотя и подумывал о смене на 6600хт или что аналогичное но нафик нафик.
@@MIchaelSybi Ну вот не стоит брать хх90 серию ЛЮБУЮ если планируется на долгий срок да и потери при продаже в соотношении будут выше. 90е серии по статистике живут недолго ткк. Они и так сделаны на пределе. Лучший выбор 3070ти-3080 с хорошим охладом. И хватит надолго и цена не так кусается и проживут дольше. Да и новые в магазине можно взять с гарантией года на 3 если беспокоит что майнили.
@@валера-б7ы8е Что ты за бред несёшь)))) Просто там не сделали такого большого прироста тензорных t ядер и прочих характеристик) Поэтому прирост скорее всего будет процентов 30 , ну максимум 50
Нвидиа тогда прислали рекомендации к тестам с этими вводными ). И договаривались, кому прислать 8К телевизор для тестов, я отказался, потому что это явная хрень.
Отличный разбор. На нормальных драйверах, без облизывания и лизоблюдства. Все по факту, вот вам имеющиеся проблемы, вот правда, вот фейк, вот пути их решения. Рассмотрены различные категории примирения видеокарты. Спасибо за проделанную работу
отдельное спасибо за тесты в приложениях, занимаюсь видеообработкой а игры не интересны. Только на вашем канале не забывают тесты делать для работы а не только игрулик
Данное видео, как и все остальные "блогерские рекламы palit'ов", жидкое. Открою всем глаза, 3090 во всех этих блогерских тестах урезается по TDP(либо берутся двухразъемные 3090 с TDP 350W), из-за чего бедные 3090, и так с жрущими в два раза больше чипами памяти(т.е. TDP доступный для ядра еще меньше, чем на 3080ti) еле еле вытягивают ядро за 1600 мгц. Единственное, что тут можно полезного взять - это значительно большая эффективность новых карт в сравнении с прошлым поколением. Но 3090/3080ti можно также даунвольтнуть и получить, например 4k 60 Fps в RDR2 на ультрах при потреблении 250-270W.
@@deshmining_club айтухард лимиты 3090 ставили в 420вт и разница в кибере 70-75%, если память не изменяет и частоты 1800-1900 мгц, а не 1500, как тут в тестах
@@sanyacev Даже больше, но у них не Палит. Я именно про палиты написал. А еще прикольно делать сравнение 24gb карт без 8k. Можно было взять любую 3080ti и она показала бы результат лучше во всех представленных в этом видео тестах и играх, просто за счет большего запаса по питанию на GPU и как следствие больших частот GPU.
Человек явно разбирается в электрике, четко и по делу объяснил почему разъемы плавятся. Еще как вариант производитель мог сэкономить на сечении (толщине) разъемов-пинов, меньшее сечение проводника = большему нагреву
Наконец-то стали делать испарительную камеру с распаянными на ней теплотрубками, это шикарное решение, жаль, что кроме, как в этой карте такого нигде нет. Таким образом они увеличили площадь с которой можно отводить тепло, жаль, что нет башен для проца такого типа
Охлад видеокарт от радеон 6*** передают привет из прошлого года "невероятной находке" нвидиа. И всё равно рёбра СО алюминиевые, а не медные, отчего суммарная их площадь гораздо больше чем могла бы быть - гонка суперкулеров для ЦП передает привет из 2008-2013х.
У меня был подержанный GTX 460, подключенный к бестолковому ноу-нейм БП через переходники от молексов. И таки сгорел один переходник, при этом, видимо, повредив и БП и видеокарту, которая откинулась чуть позже, хотя непосредственно в момент воспламенения просто вырубился видеодрайвер. Вывод один, никаких переходников по питанию, если только там соединение не буквально на затянутых винтах, как в розетке с электросетью. Фейковые кадры будут фейковыми, и пока огромный fps маскирует это, но в ситуациях, когда надо будет из реальных 20-40 fps делать что-то играбельное, дорисовка бреда не поможет, а скорее создаст фризы, из-за резких перепадов между фейковым кадром и следующим реальным
Странно, что многими игнорируются реальные причины таких размеров новых карт НВ. "При проектировании нового поколения игровых видеокарт, основанных на графических процессорах с архитектурой Ada Lovelace, специалисты NVIDIA опирались на необходимость производства GPU на мощностях компании Samsung с задействованием устаревших технологических норм, в результате чего уровень энергопотребления топовых моделей достигал бы значения в 600 Вт, что предъявляло повышенные требования для ряда компонентов видеокарт. К великой радости специалистов NVIDIA, уже в процессе работы над видеоадаптерами нового поколения на горизонте замаячило «спасение» в лице производственного гиганта TSMC, благодаря мощностям которого GPU стали выпускаться по 4-нм технологическим нормам, что позволило ощутимо снизить уровень энергопотребления без потери быстродействия. При этом разработка компонентов видеокарт специалистами NVIDIA и партнёрами компании уже находилась на завершающем этапе, поэтому все решения были приняты с учётом уровня энергопотребления в 600 Вт при реальных требованиях в 450 Вт - именно поэтому системы охлаждения GeForce RTX 4090 оказались действительно гигантскими, что, впрочем, позволяет производителям и энтузиастам иметь ощутимый запас для разгона".
@@agafon27 причем тут твоя вера, если у предыдущих поколений рабочие температуры легко достигали отметки в 90-100 градусов в "самой горячей точке", а здесь наблюдаем 60-70, а вентиляторы вращаются на 50% оборотов.
@@agafon27 вообще-то такая СО явно не разумна с точки зрения принятых производителями стандартов - СО идет с огромным запасом, процентов 25, не меньше. При этом такие размеры сразу вынуждают многих потенциальных пользователей менять корпус, иначе организовывать кабель-менеджмент и охлаждение в целом. Далеко не каждый готов мириться с размерами кирпича, в условиях, когда системная плата выглядит каким то придатком к огромной штуке, весом 2,5-3 кг.
@@johnpreston8621 невозможно за 5 минут, условно, до выхода перевести карты на совершенно иной техпроцесс. Размеры подложки чипа и платы лишний раз это подтверждают. Без уменьшения техпроцесса такой огромный кремний тупо не влез бы на подложку и контактная площадка на доске была бы явно больше, чем у 3090,, а значит единственное что изменили перед выходом это ужали powerlimit, вот это может быть правдой. От того и новый разъем всего лишь до 60+ прогревается. При 600ваттах он бы горел у каждого 10-го.
13:08 как постоянный пользователь видеокарт для рендера 3Д, ответственно заявляю что Вы сильно ошибаетесь насчет того сколько видеопамяти надо (я о Ваших "12Гб с запасом"), и в целом лучше интересоваться такими моментами у специалистов.
Я понимаю что это будет не кому не интересно но было бы прикольно посмотреть производительность в нейронках. Что Я помню мою видяху напрягало это распознавание объектов на видео. Понимаю что автору много мороки с установкой среды итд. Но было бы прикольно посмотреть разницу между старыми и новыми тензорными ядрами.
@@segbed сейчас накидываю вижу с этой идеей пару проблем но чисто теоретически можно сделать docker контейнер с видеофайлом и скриптом и запускать одной командой.
@@Snowman8526 а что нельзя узнать какая чать видеокарты за это отвечает и прикинуть разницу? или есть еще какие то лучшие видеокарты чем эта для твоих задач? К чему вопрос?
@@Vadim_Andr. Вы понимаете чем отличается fp16 от fp32? как отличается avx от avx2 или от avx512? Вам только что продемонстрировали что на одних и тех же частотах производительность разная а вы говорите прикинуть) Второе есть специализированные видеокарты типа Tesla A100 и V100 славятся низким энергопотреблением. у amd тоже есть специализированные карты. Короче темо ооочень обширная в которую не кто не хочет лесть. и по сути обычным смертным это и не надо))(просмотров будет мало)
6:23 Изгиб кабеля на сопротивление не влияет, это какая-то отмазка для тех, кто не шарит. Скорее всего дело в хреновых контактах, малая площадь контакта при таких высоких нагрузках способна и пожар вызвать. У меня там вилка от пылесоса отгорела и удлинитель насквозь проплавился когда воткнул в гнездо со слабым зажимом.
Не знаю на счет сопротивления, но укладка кабеля тоже влияет. Если связку кабелей нагрузить по максимуму, чтобы они начал греться, и загнуть их, то температура в месте сгиба возрастёт.
@@prohitec Ну это понятно, тем более если коннектор так же как на видео нагревается. Младших моделей эта болезнь не коснется, так что нам ( не богатым) ждущим 4060 можно не переживать.
1:28 Йолы палы! Мой малыш в кадре 🥰 У меня версия с не стеклянной левой створкой CM Storm Trooper (SGC-5000-KWN1). А корзины под HDD можно снять, дабы хватило места под этого монстра. Правда я все равно хочу обновиться на CoolerMaster Cosmos C700P Black Edition 🙂
Сергей, переключите в Premiere обработку таймлайн (декодирование) на встройку и будет все летать у вас на таймлайне, дискретная карта будет эффекты обрабатывать и кодировать, а встройка декодировать, т.е. два ГПУ активно должно быть в системе. Интеловская встройка декодирует лучше любой видеокарты.
Не всегда лучше декодекы интула. Я помню i5 7399hq с 1050 Так у 1050 декодер воротил 8к60фпс на ютубе, а интеловская встройка отказывалась воспринимать 8к вообще, то есть по мониторингу она раза в 2 слабее 1050. Может у топов по-другому, но мне что-то не верится
@@sanyacev Речь не про ютюб, а именно про Премьер. Декодирование на встройке в премьере появилось раньше чем на дискретке. И использование двух ГПу в премьере дает хороший прирост и на таймлайн и в экспорте видео.
@@Anderson_LS тут речь не то что про ютуб, а про всё декодирование видео. Там разницы нет. в премьере хрен знает, что там намутили. Может энкодирование лучше, чем у нвидии, но я что-то не уверен. Надо тесты смотреть
Купил 3070ti в феврале 2022 года за 109к. С тех пор запускал WoW водичку с RTX посмотреть и поигрываю в SimCity (2013) Не понимаю для чего купил.. Наверное надеялся, что выйдет что-то интересное. Чувствую себя дураком на фоне падения цен и положением дел на рынке игр))) Хотя теперь в классику можно играть без компромиссов 🤔
Да есть такое, тоже купил видеокарту 3070 , и хоть я ещё даже ПК не собрал, но уже чувствую , что как бы а нафиг она нужна мне с такой мощностью ... надо создать клуб солидарности жертв маркетинга, будем первыми членами пхахаха))
"кулер для разъема, или там водоблок" - это не поможет. 3,4 по 8 пин - выглядит тупо , но и этот 12+4 - какой то слишком донный . маловат, а проводов - дохрена , его сила удержания слишком недостаточна.
Не перестаю удивляться энергопотреблению нынешних монстро гпу, вспоминая какое отношение было даже к двухчиповым gtx 690 и titan z, хотя те кушали всего то 300 ватт.
Очень жду видяху от амд 7.000 серии (7900хт) вот её надо сравнивать с 4090. Может хоть в след. году амд смагет... В видяхи. 6950хт, хороша хоть и не ровня 3090 ti. Но менять свою 6800 не планирую раньше след года. Да и менять на что? 4090 или 7900хт самый ожидаемый вопрос 23года!
А что с 6000 поколением AMD ни так? , если брать только для игр, и не дрочить на лучи, то они выходят выгоднее по соотношению цена\производительность во многих ценовых категориях. Чего ты ждёшь от них хз .
Кажется разница между 30 и 40 серией будет такой же, как между 12 и 13 поколением у интел - топ получается очень крутой, сильно избыточен для большинства, а вот если рассматривать более простые решения, то такая лихая разница резко пропадает
@@ILexChess та не, просто будем на супермагниты в мрт охлаждать. Просто бочка с азотом, компрессор для сжижения испарившегося азота и чиллер для компрессора. Кароч как в холодильнике
единственное что я понял из этого видео, что 4090 офигенные, всё холодное, всё производительное, всё супер и надо бежать брать за 150 тысяч!! больше похоже на завезенную рекламку, ну да ладно. Смысла сейчас брать новое поколение не вижу, слишком мало времени прошло, но уже вылезли проблемы с коннектором, дальше возможно, полезет что то ещё. Лучше подождать и посмотреть как себя покажет этот продукт со временем, а уже потом делая выводы покупать
В другом оранжевом магазине 3090 и 6950 намного дешевле стоят и цена как раз отличается уже вдвое, как и производительность и тут уже надо подумать, что брать
Да в инете уже есть разбор ситуации. Там в некоторых переходниках провода и материалы хреновые используются, плюс контакты плохие на крайних жилах. Но хреново, что это корейский рандом, повезет не повезет попасть на говенный переходник. Вроде писали, что чаще всего они попадаются у Зотака. Короче, лучше присматриваться к 7900ХТХ, что бы не участвовать в "лотерее" :(...
У Нвидии тоже не лучше, до сих пор не починили мерцающую всеми цветами радуги карту в Киберпанке, да и других глюков наверно найдется немало... АМД хотя бы старые видюхи свои не бросает в дровах, все соки из них выжимает, а не забивает как Нвидия уже через поколение.
@@indrulid пусть переходит на линукс. Увидел баг - пошел и поправил код драйвера, отправил пулл реквест, возможно его даже примут. Уважаемым человеком будет. :D
С видеокартами происходит какой-то ужас, в положительном смысле. Каждое поколение стало уходить все на бОльшее расстояние от предшественника по производительности. да и охлад, охлад, господа! При потреблении под 500 вт, карта легко работает в пределах 70 градусов не используя и половины своей СО
@@валера-б7ы8е ценник в бОльшей степени вырос из-за внешних факторов. Это уже общемировые проблемы, а не жадность компаний. Глупо ожидать дешевых карт на новых архитектурах, когда в мире проблемы с полупроводниками, войны и хрен знает что еще(
Для меня этот обзор 4090 был первый среди посмотренных, потому что мне интересен именно ваш разбор. За него большое спасибо, буду ждать выхода массовых линеек
Аналогично. Видел превью кучу обзоров, но специально не смотрел,чтобы бороду глянуть
Самый лучший у I2HARD))
да они не особо шарят, у них только канал называется ПРО, а в основном вода теоретическая
Аналогично! А длсс3 считаю читерством для про геймеров
Согласен с вами )
Радуете меня своими роликами, интересно смотреть.
Только не понятно, почему инфа про коннекторы устаревшая - расследование Gamers Nexus уже везде обсудили и озвучили. Видимо, это видео снимали раньше.
Как всегда, спасибо Сергею за обзор и честные выводы без лишней воды
Плюсую
Вообще единственный нормальный ведущий на канале )
Дождался! Большое вам спасибо, человеки, за ваши обзоры, всегда жду именно вас) Всех благ! Ждём тесты процов и конечно же 4080 и амд карты.
Кто-то пользуется картами красных? О_о
@@vegetasaiyan2045 крайне любопытно посмотреть что они представят в этом месяце. Правда сомневаюсь что они будут под стать зелёным.
@@vegetasaiyan2045 любопытно же) да и больше конкурентов нам на пользу
@@arhant8 в голой производительности амуде вполне может и уделать зеленых, но вот слабость красных в том, что их фичи типа лучей и длсс - как показывает практика, намного хуже работает нежели технология зеленых, ну и всякие штуки для стрима и захвата...
@@artemshenev7422 даже синие немного пытаются.. но пока им ещё далеко до лидеров гонки, а жаль..
Красным явно есть чем ответить, шпионаж никто не отменял, а значит, они знали, готовились.. и если не производительностью, то ценой откусят часть рынка..
А вообще рад за 4090: 2х прирост производительности сейчас - это очень смело с их стороны, могли же ведь как и раньше по 20-30% за поколение прибавлять
Спасибо за отличные тесты и Ваши труды👍
Спасибо за детальное сравнение. Мне бы было очень интересно увидеть производительность по кадрам в соотношении с потреблением электроэнергии 30 и 40 в сравнение с rx 60 и 70
Ждал только вашего теста, охват интересующих вопросов наиполнейший!
Спасибо большое! Ждем тесты АМ5 всем селом :)!
@Лагань Калмыкия Это где такие конторы взять, которые ВК на прокат дают
При такой цене-класс контакты в разъёме можно было сделать позолотой, а вообще сам разъём хиленький,было бы в два раза массивней сделать.
Так уже разобрались с этим, НЕПРАВИЛЬНО спроэктированным, переходником на 4 соединителя!!!
Производитель там ПРИПАЯЛ провода к тоненькой пластинке, там всегда будет греться пайка.
Потом эта пайка отпадывает и нагрузка распределяется на оставшыеся контакты, а затем соединитель плавится.
Никогда раньше никто не припаивал 12 В в соединителях для видеокарт. Там всё везде зажымается усиками. А вот в соединителях, идущих от блоков питания всё зажато и в порядке.
Подрядчик Нвидиа - компания Astron наделала эти переходники.
@@ГрачевВячеславАлександрович Ага, Хуанга не виноватая, всё производитель переходников.🤣 То что вам там разжевали в каком-то видео, не причина прогара. Все клеммы контактов идёт стандарт, пиковую нагрузку для них давали 5% потребителей, тут сразу все 100% владельцев RTX4090, производитель не причём, что заказали то и сделал.
Ммм с такими токами надо разъёмы делать на винтах, штоб зажымалось нормально
@@v61kz Скоро будут приглашать мастера, чтобы он провода 12в от БП припаивал прямо на плату видеокарты.
Спасибо за подробный и как всегда лучший тест! В большей степени доверяю вам при сравнении чего либо. Спасибо за проделанную работу 👍
Именно ВАШ обзор я ждал всё это время. Спасибо за конкретику без воды!
Ура, ура! С возвращением, Сергей! Спасибо за видео! Будем посмотреть=)
Спасибо за такие подробные тесты! Хотелось бы, чтобы в будущем сравнение рендера в блендере было постоянным для всех новых GPU
Если будете брать интервью у представителей компании задайте вопрос по поводу нового разъёма. Чем именно обусловлено его внедрение. Ведь по сути несколько разъемов с меньшими токами выглядят более выгодно, так как они в меньшей степени подогревают друг друга.
Компактность, укомплектованность платы возможно стала причиной
4 - ЧЕТЫРЕ кабеля с 8 пин - чтоб подключить видеокарту, это маразм. Им некуда было деваться.
А на 5090 8x8-pin разъëмов устанавливать? В направлении правильном идут, но, чувствую, что это промежуточный стандарт, который долго не продержится. Для таких мощностей нужен разъëм, где контакты будут основательно подпружинены. Возможно, какой-то рычажок приделать, как в АМ-сокетах или WAGO клеммниках.
Поглядим через пару дней что представит АМД, и с каким коннектором питания!
@@artemshenev7422 амд это не помешало, а тут то что?
Какой же кайф смотреть такие видео на вашем канале! Спасибо!
Сергей, просто лучший обзор! Вообще не важно, что не быстрый. Денег на топовые карты всё равно нет. Поэтому мы всегда ждём вашего подробного и честного разбора.
*ушёл играть в героев на рыксе 580*
Так что значит только вам интересно ) Не только вам интересно то чем вы занимаетесь ) Не кто так не расскажет или не представит информацию )на столько интересно как делаете это вы )Спасибо за то что вы снами и продолжает нас радовать подобными новостями )
Разница в графике киберпанка может быть из-за TAA сглаживания и разницы а производительности. Чем выше фпс тем меньше изменений на соседних кадрах, тем меньше мыла от TAA
Касательно будущего теста процессоров хотелось бы небольшой блок сравнения встроек intel vs amd, раз уж у amd теперь тоже повсеместные встройки )
За тест 4090 спасибо!
Очень актуальный для меня обзор . Т.к. как и вы не хочу менять свой корпус то рассматриваю как раз эту модель Palit 4090 OC . Она одна из самых коротких в серии . В вашем обзоре не хватает андервольта . Сделайте отдельным обзором андервольт и разгон . И еще немного офтоп . где то в нэте читал что на новых материнках (чипсетах) увеличивается сильно время загрузки системы при установке 4 планок ddr5 , а именно долгая инициализация биоса . Считаю что это интересная тема для обзора . И чуть не забыл . поскольку производительность оч. сильно возросла всплыл вопрос недостатка пропускной способности Display port 1.4 . Для вывода большего количества кадров ( более 144 ) используется какая-то компрессия . Как эта компрессия влияет на качество картинки, инпут лаг и тд. .Если у вас есть возможность сделайте обзор и по этому вопросу . спасибо
Мега обзор и тест, спасибо вам!
Ждём с нетерпением следующий тест.
Вы и I2HARD очень хорошо и понятно объясняете, молодцы. Желаю тебе больше подписчиков, здоровья и хорошего настроения :)
На 9м35с хорошо видно, что провода нагреваются не равномерно, так же видно, что сильнее греется в месте соединения разъема с платой. Не профессионально звучит, что уменьшение сечения при повышенной мощности не причем. Еще как причем, а повышение нагрева приведет к ослаблению контактов в месте соединения и 60 градусов достаточно, чтобы припой поплыл и контакт начал ослабляться повышая свое сопротивление, а то и совсем приведя к пожару! При этом не забываем что разъем в переходнике в месте соединения с платой состоит из 4 проводов на контакт, что по сути может привести к проблеме, если соединение из-за нагрева начнет ослабляться!
Спасибо за тест парни! Если рендерить экстерьерные сцены (архитектуру), в большинстве случаев очень легко выйти за 24 Гига по памяти. Для лёгкой 3д-ки, предметки и интерьеров - в самый раз, с запасом. Не пробовал правда новую платформу, может потребление памяти будет и меньше за счёт новых тензорок.
В прошлый раз как раз делал интерьеры и пришлось сильно повышать размер текстур, чтобы занять память. По факту это не было нужно, синтетика какая-то. Но про архитектуру ничего не знаю ))
@@prohitec отличие экстерьерки в том, что там много объектов со сложными шейдерами (включая полупрозрачность, дисплейс, сложные отражения и т.п.,), много органики, огромный полигональный бюджет (по сравнению со среднестатистическим интерьером), отсюда и повышенные требования к памяти. А если это ещё и "птичка" (обзорный вид сверху), то добавляем туда ещё и очень большие текстуры. Сама по себе "зеленка" очень много памяти занимает для просчёта. Хотя, я тут месяц назад интерьер делал - ушло где-то под 60 гигов оперативки на просчёт, но там и проект большой. Так что, всякое бывает ;)
А ещё нейросетям нужно много видеопамяти, т.к. иначе она банально не запустится + тензорные ядра там очень даже решают.
Спасибо за прекрасный обзор. Как всегда доступно, профессионально, и всё по делу. Благодарю за качественный контент :)
Спасибо большое, ребята. Как всегда - все по делу, все самые важные вопросы рассмотрели. Да и сам просмотр в радость)
Пост в поддержку канала. Удачи!
Как же я люблю ваши обзоры, за подачу, монтаж, хорошо написанный текст в целом качественный контент 😊✌️
Все грамотно изложено, обзор видел до вас только один, интересует мнение именно серьезных основательно подходящих к своему делу блогеров, какими вы и являетесь. Так держать 👍
Вот как хотите, но самый информативный и приятный обзор, это обзор от Сергея. Вне конкуренции. Спасибо.
Опа. Как же рад тебя видеть. Соскучился -)
Отличный обзор, спасибо! Подумайте над предложением добавить к тестам генерацию картинки в Stable Diffusion (одна большая и\или серия мелких) - конечно пока эта тема нишевая, но во-первых это что-то новое, во вторых - это чертовски интересно. Уже вторую неделю осваиваю нелегкие навыки предсказания поведения нейросетки и результат как минимум не надоедает. Там если настройки выбрать одни и те же и задать seed один и тот же то вроде бы в пределах чекпоинта (версии сетки) результат будет ровно тот же самый.
Игры на помойку! Рассматриваю к приобретению 4090 исключительно из-за нейросетей.
Надоело генерить на своей 2070 шакальные арты в макс разрешении 800х800, в то время, как говорят, 4090 может генерить 8000х8000 ...
@@jessepinkman5833 никто не генерит по ходу работы в высоких разрешениях, да и апскейлеров сейчас много неплохих, а если тебе нужна будет динамическая анимация (видео), то тебе надо будет так или иначе антифликер использовать, поэтому смысла нет генерить в высоких разрешениях.
Но да, много памяти не бывает, но я тебе советую дождаться 5090, там возможно будет 32 гб, но 100% у нее будет разница в реальном производительности, как и у 3090 и по сравнению с 4090 (в районе 80-100 %)
Здравствуйте 👋 скажите пожалуйста так в каком магазине заказывать через вашего друга из Китая процессор?
В комментах со времен 2008, как я слежу за железом в инете ниче не изменилось. Зачем мне ваша 1080 в 2016 писали они, она же избыточна , помню комменты "буду и дальше на своей 780 ti сидеть, тянет все и так на максимально-высоких" с 2008 года наблюдаю одни и теже комменты, "избыточна", "ненужна", "че так дорого" "буду и дальше на своей гтх 460/1060 сидеть"
UPD: видимо поклонники раньше было лучше забыли историю с оверпрайснутой 8800 ultra, которая стоила 829$,что было сильно дороже той же 8800 гтх и происходило это в 2007 году. Все не понимаю писак "революции не случилось", расскажите плиз когда она случилась?) Когда игры на 3д перешли?) Ну а поновее примеров нет?)
Очень хороший подход к видео, видно что вложено огромное количество сил и времени.
Получилось отличное видео, спасибо!
Спасибо Вам за проделанную работу! Ждем тесты с новыми процессорами! Спасибо Вам огромное! Жаль денег нет на такую технику, как же я о ней мечтаю.
Спасибо за сравнение. С нетерпением жду реальных обзоров 7950x от Вас, хотя все больше к нему и склоняюсь при апгрейде.
20:56 - В случае в 4090, частоты и потребление у CPU ниже, при большем количестве кадров. Либо в тесте с 3090 что-то фоном пахало, либо какая-то чудодейственная оптимизация драйверов под новое поколение видеокарт произошла.
Ты абсолютно прав, только наоборот , произошла оптимизация драйверов 30 ки). Заметил, как у всех стримеров с выходом новых карт стримы фризить начали? Они ведь все на 30ках сидели.
@@alexanderlobzev4482 ну драйвер реально оч бодрый . возможно просто некоторые моменты на цпу стали перекидывать . а то тольку от этих мелкояред если они не будут задействован . ( так как вроде боковым глазом смотря жер проца возрос , чутка и по моему графика в играх чуть хуже стала(при тех же настройках что были) - но это абсолютно не точно , но отклик реально лучше.)
Ты лучший, адекватный, грамотный, честный. Спасибо
отличный вторник выдался ) заварил кофеек с печеньками. Приступаю к просмотру ) спасибо за созданное хорошее настроение
Спасибо за труд! Как всегда, просто отлично! 👍
Спасибо Борода!)) Как всегда топ-контент! 👍 Единственное, мне кажется, стоило ещё замерить тепловизором температуру на коннекторах 3090...
Тоже конечно же у вас первых обзор 4090 посмотрел и, честно, удивлён и реальностью 50% прироста и более всего температурами, при таком то конском потреблении. 👍
А может сделать выпуск и сравнить все топы nvidia. ? Этак с 8800. Или, даже , с 7800. Ибо тогда, выход 8800 тоже стал мини революцией. В некоторых играх был прирост почти в 3 раза. Было бы интересно. Кто За, ставьте лайк :)
Только цены тогда ТАК не выросли.
А смысл? Топ год-два, а потом уже просто б/у средняя видеокарта. Цены несоизмеримо выше, чем у прошлых топов потому что был майнинг, поэтому есть голод на видеокарты (как был на процессоры). Этот маразм уляжется, и возможно цены стабилизируются. Не понимаю, как игрок может покупать видеокарту за 1600 долларов, учитывая, что это обычно подростки.
@@MIchaelSybi 8800 gts предтоп стоила как шас помню баксов 300 и считалось что очень дорого. Но они по сравнению с предыдущим поколением были очень хороши и в первые месяцы был дефицит. Но не такой бред как шас. По 2 к зелени за видяху. Проплачивает нвидя разрабам чтоб на максималках тока 4090 тянула . В опу такой прогресс себе засунте. Я всегда через пару лет покупал за 100-120 $ предтоп на БУ или рефаб заводской с гарантией. Но походу буду на своей 970 ещё долго в фулХД пока все запускает, хотя и подумывал о смене на 6600хт или что аналогичное но нафик нафик.
@@alexsandrthegreat3358 4090 только для работы стоит брать. Я думаю на счет 3090, но многие после майнинга, опасно, хоть и цены хорошие.
@@MIchaelSybi Ну вот не стоит брать хх90 серию ЛЮБУЮ если планируется на долгий срок да и потери при продаже в соотношении будут выше. 90е серии по статистике живут недолго ткк. Они и так сделаны на пределе. Лучший выбор 3070ти-3080 с хорошим охладом. И хватит надолго и цена не так кусается и проживут дольше. Да и новые в магазине можно взять с гарантией года на 3 если беспокоит что майнили.
Ждал именно ваши тесты и обзор, спасибо!
Спасибо за тесты рендеринга в 3D приложениях! Очень полезно)
Класс! Никого не смотрел, ждало Ваших тестов. Спасибо!!!
У меня такой же корпус, только белого цвета, тоже стоит кастомная водянка, но помпу с резервуаром я поставил в отсек вместо DVD-RW привода.
21:31
-Милый, тебе понравилось.
-Да. Сосны особенно удались! 😁
Отличное видео, спасибо!
Только одно пожелание, не надо делать такое размытие на общем кадре, смотреть глаз ломается очень!
Блин, никогда бы не подумал, что сам Коннор МакГрегор расскажет про 4090, да ещё и на русском))
вот на 4060 и на 4070 будет интересно посмотреть
И на 4050)
Ой боюсь там прирост меньше будет...
Не интересно, там старая архитектура.
@@валера-б7ы8е Что ты за бред несёшь))))
Просто там не сделали такого большого прироста тензорных
t ядер и прочих характеристик)
Поэтому прирост скорее всего будет процентов 30 , ну максимум 50
Ноутбуки на 4060/80 😊
Познавательно и наглядно, спасибо. 4090 такие, как на тесте, лежат свободно в Регарде. Цена вопроса 160к
20:08 а я вот помню довольные лица блогеров играющих в 8к и то что 3090 созданна для игр с разрешением аж 8к
Нвидиа тогда прислали рекомендации к тестам с этими вводными ). И договаривались, кому прислать 8К телевизор для тестов, я отказался, потому что это явная хрень.
@@prohitec надо было соглашаться, но играть в героев 3 :D
Серега - лучший, этот обзор был самый ожидаемый!
Отличный разбор. На нормальных драйверах, без облизывания и лизоблюдства. Все по факту, вот вам имеющиеся проблемы, вот правда, вот фейк, вот пути их решения.
Рассмотрены различные категории примирения видеокарты.
Спасибо за проделанную работу
Спасибо за обзор,со своим необычным подходом выходит намного информативнее и интереснее.
отдельное спасибо за тесты в приложениях, занимаюсь видеообработкой а игры не интересны. Только на вашем канале не забывают тесты делать для работы а не только игрулик
ждал ваш обзор на 4090, спасибо)
Лучший тест 4090 из тех что я видел, остальные снимают как будто на 3090 - жидко😁
В данном видео ничего и не поменялось, 3090 выглядит жидко.
30я серия честно говоря была очень спорной...выпускалась под бум майнинга..и ощущение, что для майнинга..
Данное видео, как и все остальные "блогерские рекламы palit'ов", жидкое. Открою всем глаза, 3090 во всех этих блогерских тестах урезается по TDP(либо берутся двухразъемные 3090 с TDP 350W), из-за чего бедные 3090, и так с жрущими в два раза больше чипами памяти(т.е. TDP доступный для ядра еще меньше, чем на 3080ti) еле еле вытягивают ядро за 1600 мгц. Единственное, что тут можно полезного взять - это значительно большая эффективность новых карт в сравнении с прошлым поколением. Но 3090/3080ti можно также даунвольтнуть и получить, например 4k 60 Fps в RDR2 на ультрах при потреблении 250-270W.
@@deshmining_club айтухард лимиты 3090 ставили в 420вт и разница в кибере 70-75%, если память не изменяет и частоты 1800-1900 мгц, а не 1500, как тут в тестах
@@sanyacev Даже больше, но у них не Палит. Я именно про палиты написал. А еще прикольно делать сравнение 24gb карт без 8k. Можно было взять любую 3080ti и она показала бы результат лучше во всех представленных в этом видео тестах и играх, просто за счет большего запаса по питанию на GPU и как следствие больших частот GPU.
Человек явно разбирается в электрике, четко и по делу объяснил почему разъемы плавятся. Еще как вариант производитель мог сэкономить на сечении (толщине) разъемов-пинов, меньшее сечение проводника = большему нагреву
более менее адекватный человек это понимает и без разьяснения.
Наконец-то стали делать испарительную камеру с распаянными на ней теплотрубками, это шикарное решение, жаль, что кроме, как в этой карте такого нигде нет. Таким образом они увеличили площадь с которой можно отводить тепло, жаль, что нет башен для проца такого типа
а вы видели разбор других вариантов? роман (der8auer) разбирал вроде что-то от гигабайта(могу перепутать модель), там тоже всё неплохо
Есть боксовые кулера от AMD с испарилкой
Охлад видеокарт от радеон 6*** передают привет из прошлого года "невероятной находке" нвидиа.
И всё равно рёбра СО алюминиевые, а не медные, отчего суммарная их площадь гораздо больше чем могла бы быть - гонка суперкулеров для ЦП передает привет из 2008-2013х.
@@duckcorpse9933 да, я помню, только я хочу, чтоб сейчас такое можно было купить
@@openphone3130 подскажете модельку?
У меня был подержанный GTX 460, подключенный к бестолковому ноу-нейм БП через переходники от молексов. И таки сгорел один переходник, при этом, видимо, повредив и БП и видеокарту, которая откинулась чуть позже, хотя непосредственно в момент воспламенения просто вырубился видеодрайвер. Вывод один, никаких переходников по питанию, если только там соединение не буквально на затянутых винтах, как в розетке с электросетью.
Фейковые кадры будут фейковыми, и пока огромный fps маскирует это, но в ситуациях, когда надо будет из реальных 20-40 fps делать что-то играбельное, дорисовка бреда не поможет, а скорее создаст фризы, из-за резких перепадов между фейковым кадром и следующим реальным
Странно, что многими игнорируются реальные причины таких размеров новых карт НВ.
"При проектировании нового поколения игровых видеокарт, основанных на графических процессорах с архитектурой Ada Lovelace, специалисты NVIDIA опирались на необходимость производства GPU на мощностях компании Samsung с задействованием устаревших технологических норм, в результате чего уровень энергопотребления топовых моделей достигал бы значения в 600 Вт, что предъявляло повышенные требования для ряда компонентов видеокарт.
К великой радости специалистов NVIDIA, уже в процессе работы над видеоадаптерами нового поколения на горизонте замаячило «спасение» в лице производственного гиганта TSMC, благодаря мощностям которого GPU стали выпускаться по 4-нм технологическим нормам, что позволило ощутимо снизить уровень энергопотребления без потери быстродействия.
При этом разработка компонентов видеокарт специалистами NVIDIA и партнёрами компании уже находилась на завершающем этапе, поэтому все решения были приняты с учётом уровня энергопотребления в 600 Вт при реальных требованиях в 450 Вт - именно поэтому системы охлаждения GeForce RTX 4090 оказались действительно гигантскими, что, впрочем, позволяет производителям и энтузиастам иметь ощутимый запас для разгона".
Я не скептик, но тут не верю в эти сказки, потому что 450 Вт. это гигантское энергопотребление. Размеры радиатора для такой мощности вполне разумны.
@@agafon27 причем тут твоя вера, если у предыдущих поколений рабочие температуры легко достигали отметки в 90-100 градусов в "самой горячей точке", а здесь наблюдаем 60-70, а вентиляторы вращаются на 50% оборотов.
@@johnpreston8621 а я про что написал? Вентиляторы 50, температура в норме, так и должно быть при адекватном размере радиатора.
@@agafon27 вообще-то такая СО явно не разумна с точки зрения принятых производителями стандартов - СО идет с огромным запасом, процентов 25, не меньше. При этом такие размеры сразу вынуждают многих потенциальных пользователей менять корпус, иначе организовывать кабель-менеджмент и охлаждение в целом. Далеко не каждый готов мириться с размерами кирпича, в условиях, когда системная плата выглядит каким то придатком к огромной штуке, весом 2,5-3 кг.
@@johnpreston8621 невозможно за 5 минут, условно, до выхода перевести карты на совершенно иной техпроцесс. Размеры подложки чипа и платы лишний раз это подтверждают. Без уменьшения техпроцесса такой огромный кремний тупо не влез бы на подложку и контактная площадка на доске была бы явно больше, чем у 3090,, а значит единственное что изменили перед выходом это ужали powerlimit, вот это может быть правдой. От того и новый разъем всего лишь до 60+ прогревается. При 600ваттах он бы горел у каждого 10-го.
ничего страшного что последним делаешь обзор я только от тебя и смотрю. дождался)
добавлю - посмотрел - спасибо! молодец!
13:08 как постоянный пользователь видеокарт для рендера 3Д, ответственно заявляю что Вы сильно ошибаетесь насчет того сколько видеопамяти надо (я о Ваших "12Гб с запасом"), и в целом лучше интересоваться такими моментами у специалистов.
может ты плохой юзверь?
Спасибо. Якутск тоже смотрит вас.
Из-за особенностей цен становится плевать на особенности технологий, берешь на что хватает денег
ну 4090 топ из топов) что ж. поздравляю тех кто купил их)) хочется тестов процессоров особенно 13 поколения!)
Я понимаю что это будет не кому не интересно но было бы прикольно посмотреть производительность в нейронках. Что Я помню мою видяху напрягало это распознавание объектов на видео. Понимаю что автору много мороки с установкой среды итд. Но было бы прикольно посмотреть разницу между старыми и новыми тензорными ядрами.
неужто спец бенчмарков под это дело еще нет?
@@segbed сейчас накидываю вижу с этой идеей пару проблем но чисто теоретически можно сделать docker контейнер с видеофайлом и скриптом и запускать одной командой.
@@Snowman8526 а что нельзя узнать какая чать видеокарты за это отвечает и прикинуть разницу? или есть еще какие то лучшие видеокарты чем эта для твоих задач?
К чему вопрос?
@@Vadim_Andr. Вы понимаете чем отличается fp16 от fp32? как отличается avx от avx2 или от avx512? Вам только что продемонстрировали что на одних и тех же частотах производительность разная а вы говорите прикинуть)
Второе есть специализированные видеокарты типа Tesla A100 и V100 славятся низким энергопотреблением. у amd тоже есть специализированные карты.
Короче темо ооочень обширная в которую не кто не хочет лесть. и по сути обычным смертным это и не надо))(просмотров будет мало)
Спасибо Борода, ты лучший! Лучший тест, всё разложил по полочкам.
Жаль, что нельзя сделать 4090, просто приложив к 3090 ещё 3050 ))
Ага) будут внешние размером с холодильник)
Может 1050?..
Это уже будет 7040.
Rtx3060+gtx1030= rgtx4090 😁
Приложите подорожник
ребята, спасибо. вы лучшие
Для меня ваш тест первый, т.к. знал, что будете тестировать и не смотрел других блогеров.
Спасибо за качественный разбор и тесты в рабочих программах, ждем обзора новых процессоров)
6:23 Изгиб кабеля на сопротивление не влияет, это какая-то отмазка для тех, кто не шарит. Скорее всего дело в хреновых контактах, малая площадь контакта при таких высоких нагрузках способна и пожар вызвать. У меня там вилка от пылесоса отгорела и удлинитель насквозь проплавился когда воткнул в гнездо со слабым зажимом.
Не знаю на счет сопротивления, но укладка кабеля тоже влияет. Если связку кабелей нагрузить по максимуму, чтобы они начал греться, и загнуть их, то температура в месте сгиба возрастёт.
Они хотят сказать, что изгиб может повлиять на целостность соединения или самого кабеля.
@@prohitec Ну это понятно, тем более если коннектор так же как на видео нагревается. Младших моделей эта болезнь не коснется, так что нам ( не богатым) ждущим 4060 можно не переживать.
1:28 Йолы палы! Мой малыш в кадре 🥰 У меня версия с не стеклянной левой створкой CM Storm Trooper (SGC-5000-KWN1).
А корзины под HDD можно снять, дабы хватило места под этого монстра. Правда я все равно хочу обновиться на CoolerMaster Cosmos C700P Black Edition 🙂
А жесткие диски куда? У меня все места заняты.
@@prohitec Ого!)) Ну, если не снимать корзины, то, наверное, ни в какой и FullTower она не влезет. В Cosmos в том числе))
Сергей, переключите в Premiere обработку таймлайн (декодирование) на встройку и будет все летать у вас на таймлайне, дискретная карта будет эффекты обрабатывать и кодировать, а встройка декодировать, т.е. два ГПУ активно должно быть в системе. Интеловская встройка декодирует лучше любой видеокарты.
У меня встройки ))) У меня тредриппер.
@@prohitec ну 12900 же в тесте.
Не всегда лучше декодекы интула. Я помню i5 7399hq с 1050
Так у 1050 декодер воротил 8к60фпс на ютубе, а интеловская встройка отказывалась воспринимать 8к вообще, то есть по мониторингу она раза в 2 слабее 1050. Может у топов по-другому, но мне что-то не верится
@@sanyacev Речь не про ютюб, а именно про Премьер. Декодирование на встройке в премьере появилось раньше чем на дискретке. И использование двух ГПу в премьере дает хороший прирост и на таймлайн и в экспорте видео.
@@Anderson_LS тут речь не то что про ютуб, а про всё декодирование видео. Там разницы нет.
в премьере хрен знает, что там намутили. Может энкодирование лучше, чем у нвидии, но я что-то не уверен. Надо тесты смотреть
Купил 3070ti в феврале 2022 года за 109к.
С тех пор запускал WoW водичку с RTX посмотреть и поигрываю в SimCity (2013)
Не понимаю для чего купил.. Наверное надеялся, что выйдет что-то интересное.
Чувствую себя дураком на фоне падения цен и положением дел на рынке игр))) Хотя теперь в классику можно играть без компромиссов 🤔
Да есть такое, тоже купил видеокарту 3070 , и хоть я ещё даже ПК не собрал, но уже чувствую , что как бы а нафиг она нужна мне с такой мощностью ... надо создать клуб солидарности жертв маркетинга, будем первыми членами пхахаха))
@@ТвояСмерть-ъ3о ахаха, смело вступаю)
Ëпты, 109₽ за 3070Ti...
Хорошо, что сейчас цены стали более адекватными на видеокарты.
Я месяц назад купил Б/У 3070Ti за 31₽. Произведена 07.2022.
@@CH1K1-BR1K1 Да уж, лох не мамонт.
Не умею деньгами распоряжаться. 😀
1:00 4090 наконец стала аккурат по форме как кирпич))))
Чувствую скоро просто опять 3 по 8 пин будут штекера ставить или придумают кулер для разъема, или там водоблок)
"кулер для разъема, или там водоблок" - это не поможет. 3,4 по 8 пин - выглядит тупо , но и этот 12+4 - какой то слишком донный . маловат, а проводов - дохрена , его сила удержания слишком недостаточна.
Дождался обзора👍
Скоро надо будет иметь ДВА корпуса! Один для видяхи, а второй для всего остального!
Ну а в перспективе видяха будет жрать как ламповый ЭНИАК!!!
Просто охлад сделали с запасом, а так размеры в будущем будут только уменьшаться, при условии нахождения более оптимального способа отведения тепла.
Отдельные копуса для видюх давно уже не новость, особенно в яблочном мире.
Однозначно лайк! Ждём дальнейших тестов.
Не перестаю удивляться энергопотреблению нынешних монстро гпу, вспоминая какое отношение было даже к двухчиповым gtx 690 и titan z, хотя те кушали всего то 300 ватт.
Радеончик R9 290x2 кушала 500 ватт! =))
@@Igoresik и у неё 4 коннектора без всяких переходников
@@user-xyjuser И у Меди Мурка на обзоре RTX 4090 вообще один широкий кабелёк, без всяких там переходников!
Andrey Kor - ты просто не в теме чел.
@@Igoresik Чего врешь то, 275 Вт TDP. Или ты типа две 290х , но в чем смысл удвоеное 2013года, сравнивать с одним 2022го?
Большое спасибо за большой, подробный и развёрнутый получасовой обзор👍
Очень жду видяху от амд 7.000 серии (7900хт) вот её надо сравнивать с 4090. Может хоть в след. году амд смагет... В видяхи. 6950хт, хороша хоть и не ровня 3090 ti. Но менять свою 6800 не планирую раньше след года. Да и менять на что? 4090 или 7900хт самый ожидаемый вопрос 23года!
Точно!
А что с 6000 поколением AMD ни так? , если брать только для игр, и не дрочить на лучи, то они выходят выгоднее по соотношению цена\производительность во многих ценовых категориях.
Чего ты ждёшь от них хз .
Большое спасибо за интересно видео, очень жду ваши тесты процессоров нового поколения!
Кажется разница между 30 и 40 серией будет такой же, как между 12 и 13 поколением у интел - топ получается очень крутой, сильно избыточен для большинства, а вот если рассматривать более простые решения, то такая лихая разница резко пропадает
Топ= производительности дафига но тдп как у 3090
Среднее и ниже= а где моя производительность!?
Спасибо борода, видео мне понравилось!
Боюсь представить каких размеров будут 7090
Будет иметь ножки для установки сразу на стол, нишы для размещения остальных пк комплектующих и разъемы для периферии 🤓👍
Ходят слухи, что и частоты и тдп в ближайшие годы могут даже снизиться. Правда скорее всего в базовых линейках. Топы будут только горячее.
За окно будет вывешиваться и кабель от подстанции напрямую тащиться)
@@ILexChess та не, просто будем на супермагниты в мрт охлаждать. Просто бочка с азотом, компрессор для сжижения испарившегося азота и чиллер для компрессора. Кароч как в холодильнике
@@kanashiyasai596 проблема всегда не в силе радиатора , а в сьеме тепла.
единственное что я понял из этого видео, что 4090 офигенные, всё холодное, всё производительное, всё супер и надо бежать брать за 150 тысяч!! больше похоже на завезенную рекламку, ну да ладно. Смысла сейчас брать новое поколение не вижу, слишком мало времени прошло, но уже вылезли проблемы с коннектором, дальше возможно, полезет что то ещё. Лучше подождать и посмотреть как себя покажет этот продукт со временем, а уже потом делая выводы покупать
В другом оранжевом магазине 3090 и 6950 намного дешевле стоят и цена как раз отличается уже вдвое, как и производительность и тут уже надо подумать, что брать
Во-во согласен. Сам в субботу взял там 3090ti supreme за 110 тысяч
Интересный тест и как всегда отличная подача, спасибо)
Да в инете уже есть разбор ситуации. Там в некоторых переходниках провода и материалы хреновые используются, плюс контакты плохие на крайних жилах. Но хреново, что это корейский рандом, повезет не повезет попасть на говенный переходник. Вроде писали, что чаще всего они попадаются у Зотака.
Короче, лучше присматриваться к 7900ХТХ, что бы не участвовать в "лотерее" :(...
драйвера [видеокарт] AMD для Windows = отдельный вид «лотерей»
У Нвидии тоже не лучше, до сих пор не починили мерцающую всеми цветами радуги карту в Киберпанке, да и других глюков наверно найдется немало... АМД хотя бы старые видюхи свои не бросает в дровах, все соки из них выжимает, а не забивает как Нвидия уже через поколение.
@@indrulid Это зелёные фанбои такой мем придумали? Больше 5 лет с картами AMD и проблем с драйверами не было.
@@Keezuf друг купил 5700 XT, каждые месяца два-три в течение года на что-то жаловался...
То чёрный экран, то BSOD, то ещё какая ересь
@@indrulid пусть переходит на линукс. Увидел баг - пошел и поправил код драйвера, отправил пулл реквест, возможно его даже примут. Уважаемым человеком будет. :D
Ждал только ваш обзор, думал что всё таки в играх будет разница в полтора раза) Смог таки Хуанг)
Интересно увидеть сравнение 4080 (16 ГБ) с 3090. Все-таки 4090 мало кто будет покупать в здравом уме.
а кто 3090 покупал в здравом уме если 3080 была не сильно слабее
у 4090 и 4080 хотя бы значимый разрыв в производительности есть
Не зря ждал именно ваш тест! Спасибо!
Надо было сделать кабель как на старых VGA разъёмах - на шурупах и был бы контакт хороший и мощи больше передать можно, а лучше сам VGA использывать))
кстати да . идейно верно. ато наклипают говна ,а потом думай как эту проблему решать.
PS на DVI тоже ,ток не шуруп а - винт или болт.
С видеокартами происходит какой-то ужас, в положительном смысле. Каждое поколение стало уходить все на бОльшее расстояние от предшественника по производительности. да и охлад, охлад, господа! При потреблении под 500 вт, карта легко работает в пределах 70 градусов не используя и половины своей СО
А самое важное, что можно спокойно играть на 1070, потому что игры не поменялись.... 😐
Ну ну и ценник всего с 700 - до 1200 долларов. Если раньше можно было прикинуть покупку топа, сейчас это как на бентли ездить.
@@валера-б7ы8е ценник в бОльшей степени вырос из-за внешних факторов. Это уже общемировые проблемы, а не жадность компаний. Глупо ожидать дешевых карт на новых архитектурах, когда в мире проблемы с полупроводниками, войны и хрен знает что еще(
@@RealKatastrofa жди времён с обменом мешка пшеницы на компудахтер, и прочих неприятных штук
@@Ostap..Bender погоди, сейчас появится зараза, которая будет бить по урожаю. а не по людям, и тогда за мешок пшеницы и хату можно будет взятьXD
Это хоть может и из последних обзоров про 4090,но оно как мне кажется самое лучшее, однозначно лайк)