RTX 3090: минимальные пороги блока питания и небольшой тест с новым драйвером против старого.
HTML-код
- Опубликовано: 29 сен 2020
- Это видео экспромт - скорее ответ на вопросы.
Тестовый стенд:
CPU - 10900K@5.1GHz
RAM - G.Skill TridentZ Royal ОС 4GHz
SSD - Optane 900p
MB - Maximus XII Asus Extreme
БП - Seasonic 850w, Seasonic 1300w
Присоединяйся к нам
t.me/prohitec
prohitec - Наука
В этот момент рендера нужно было показать потребление из розетки!
Зачем?)У меня SF 2000,хватит на все!)
Пики потребления ваттметр не покажет, а защита бп может сработать. Да и смысл, уже все в тестах показали, сколько жрет 3090
@@Zh1zh1n Смотря что считать под пиками, если пики AC - то может и показать, тут от навороченности ваттметра зависит. А если DC - то разумеется не покажет, для их наблюдения нужно приборы цеплять в разрез линии 12В.
@@2kgamingchannel ты хоть что-то купил, тут в чате большая часть с ноутом и встроенной графикой сидит)
@@2kgamingchannel что стоит в рублях можешь отписать ?
Что мы узнали из видео.
Адобе не обманули, когда сказали, что увеличили роль ГПУ в работе Премьера.
Меньше глючит он правда не стал
@@2kgamingchannel где ты ее новую нашел то? ) В музее неолита?
@@2kgamingchannel Там походу работает принцип "Всё новое просто давно забытое старое"
@@2kgamingchannel, 3070 пока по рукам вышла погулять. Я пока забил на НекстГен. Купил 2080 Супер. Пока хватает с запасом, благодаря DLSS.
@@2kgamingchannel ты сам в это веришь, что она новая ? болты посчитай, небось как обычно, парочки нету 😂
Нвидиа в теме с энергетиками, не зря Хуанг достал 3090 из печи это был прямой намек
Орнул в голосину
таки да! опять же не слышу криков о печке на рождество
Походу у него печка нагревается картой 3090 )
Следующую карту наверно сразу из атомного реактора будут анонсировать.
Хунг в печке карту прогревал, как оказалось, плохо работает: много энергии потребялет, софт кривой как у амд в старые добрые, да и цена запредельная за подобные недоработки. Поздравляю!
Ждем подобные видео на "Прожженных". Пожалуйста, не забрасывайте 2й канал.
@@hon3ythief Но временные затраты на создание такого ролика гораздо меньше. И иногда и нам, зрителям, хочется такой простоты
Требуем замеры ваттметром потребления обоих блоков с обоими картами если возможно. Спасибо.
+
Самый бесполезный замер, на который не стоит тратить не время не силы.
@@YaSuperBot На этот замер в принципе не надо время и силы тратить, включил в розетку прибор, в прибор кабель от БП, секунд 30 максимум займет.
@@PlayGameToday Уважаемый, на этом самом ютубе глянь как это делается, прибор в любом крупном строительном маркете продается, а по поводу точности, нам не надо точно на 100% знать каково потребление, 899-930 ватт особо не важно, вряд ли и такой разброс будет.
@@sp44rrow Только если у тебе есть готовые собранный стенд, и ты не собираешься в нем нечего менять, а хочешь просто снять показания ваттметра, а так придётся, собрать, запустить, замерить, заменить, и повторить все это три раза, так что это дело не пяти секунд, да и вся это возня не стоит того чтоб ее затевать.
Сделайте замеры мощности всей системы с 3080 и 3090, очень интересно сколько же все таки жрет сама система
Поддерживаю!
А ещё можно видеокарту отдельным блоком запитать и тоже замерить
Мне кажется блок питания уже дохлый, на 3080 он на грани тянет, там ватт 550 может, а на 3090 не хватило чуток. Но на 750W (!!) он явно не тянет уже давно.
@@erihon3396 ты как раз мои мысли прочитал 😅👍 поддерживаю
@@EoveinKatushkin Там наверняка изо времени начинка подсела, нужно замерить мультиметром все токи и просадки
Почему без ваттметра такой тест выкладываете?! ну это как то даже странно..
А в чем проблема запустить параллельно cpu и gpu тест
Тот же occt в режиме power supply
И проверить под длительной нагрузкой с ваттметром, что там по потреблению
Так этож работать надо, а не просто видосы клепать) Ну серьезно, от этого канала ожидаешь более профессионального подхода.
Дельное замечание! Надеюсь, Сергей и Илья увидят.
Присоединяюсь!
С нетерпением жду ваших роликов на любые темы.
Хоть раз RUclips вовремя оповещение прислал
Ваттметр надо было подключить. Может блок плохой.
Согласен на все 100%
Ребята купите ваттметр и все увидите сколько жрет система, заодно узнаете помер сисоник или еще живет ;)
У них есть ваттметр
@@BFG13K а толку?
ваттметр в кадр
не ваттметр а осциллограф, там пики до 700вт в несколько мс, блок их не вытягивает и падает в защиту
Ахах
Прекрасно!
давно не было столь лаконичных роликов! Но всегда хочется побольше, да посытнее.
0:00 Radeon VII под монитором нам выглядывает)
согласен амд спасет мир обратный отсчет пошел
@Ярослав видимо по этому по отчетам всех игровых площадок 1060 занимает 80% сборок, так что продолжай про влажные мечты амд. Да когда был майнинговый бум продажи у амд скакнули, потому что больше не было предложения на рынке.
@dicku kickstarter А если не 2060 а 2060s то она лучше 5600xt а разница мизерная
@@dukenukem5752 нвидия в среднем ценовом сегменте как была фуфломицин, так им и осталась
скоро зима, БП На киловат, 3090 + 10900 в разгоне, хороший электрообогрев xD
Два в одном за одну цену 😂😂😂👍👍👍
@@riolonbordgi6225 не у всех они тёплые
@@riolonbordgi6225 эм, всё же логично, ставим помпу помощнее, и разводим теплый пол с подогревом от БП, ЦП и ГПУ, можно ещё и водоблок на НВМЕ и ОЗУ приколхозить)), а если Видяхи в слае, то вот вам замена Бойлера))
Хех у амд было 390 печка, у нвидии 3090 совпадение? Не думаю)
@@user-oy1uf8dv5s просто мы не правильно пользуемся)) Печь пиццу на видеокарте, а плов в казаночке на проце... к этому всё идёт, ну и водянка совмещённая со стиралкой \ посудомойкой или холодильником. ну а вайфай модуль уже и сейчас способен заменить свч печь))
Спасибо за ролик! Уточнили в каких ситуациях стоит ждать проблем.
Я так понимаю ролик возник из-за довольно длинного комментария с многими ответами))
Реально классный контент и всегда в тему. Интересно смотреть, узнаю много нового. Спасибо авторам канала!
а стресс-тест аидовский?
просто интересно, такую же нагрузку он даёт или меньшую
Простите за глупый вопрос, а почему просто не измерить сколько ваш компьютер потребляет?
@@user-pb9pv2vp7h Сергей ещё мягко не гений.. Набирается опыта по малеху
@@MST83 тпк они единственные на нашем ютьюбе и делали такие тесты с замером, атут нет
Мерят, не мерят. Смешно. Это может сделать любой. Я например замеряю свои системы в разных режимах работы. 3080 и 3090 у меня нет, а так бы поделился этой тайной информацией ))
Спасибо Сергей! Очень полезный ролик. Снимайте побольше такого материала😉
Больше экспромта , не останавливайся, интересные тесты, спс.
Интересует тема с матрицами современных телевизоров и их сравнение, думаю никто кроме вас не сделает нормального разбора этого материала. А также их функций вроде моушен рейт и амбилайтом, и сравнение форматов hdr10+ и Dolby vision.
Технология будет больше зависеть от качества подсветки и прочего, вроде вижн и 10+ похожие технологии
Поддерживаю, очень нужная и интересная тема, никем не освещенная на должном уровне !
Dolbit normalno tak
Lieliska informacija! Paldies
Ludzu)
Бородачи, столько видео выпускаете! Я не успеваю все посмотреть, только лайки ставлю.)
Большое спасибо Илья за видео пояснение Интересно сколько потребляется инергии из розетки когда идёт рендеринг
Что потребление системы больше 850 ватт ? Почему общее потребление не меряете ??.???
Ваттметр стоит 10$
тоже не понял почему не показали потребление из розетки! Интересно же ) тем более ваттметр у них есть!!!
Нет, потребление системы от розетки чуть больше шестьсот должно быть сколько в пике не знаю, ватт метр сейчас у Олега, не у меня.
Суть не лиш у ватах, а й в силі струму. Ампераж на ЦП і ГПУ максимальний, от і БП йде в захист, якби в Сісоніка не було купи контроллерів, то він не вирубався, лиш через якийсь проміжок часу здулись конденсатори, бахнули діоди (в самого так 550 ватний пауер люкс бахнув від GTX 970 після 15 хвилин фулмарту), прогар конектора. Я думаю, що якби 3090 підключалась ТРЬОМА 8 піновими конекторами, то таких проблем не було б. Сила струму на один вихід конекора підходит до максимуму і все вирубається. розрахунок навантаження був зроблений десь з на 18 ампер 12 вольт (орієнтовно 216 Ват) і схоже, що в пікові 3090 жере близького того. Здається в Стаса був замір інфрачервоним пірометром конекторів чи в Мурка, що один з конекторів грівся більше. Надіюсь, що цю інформацію хтось візьме до відома глибше. Дякую про хай тек за скурпульозність.
@@user-po3ep5lx4e сложно было на русском написать ?
@@Adr_-uz6vn а отсутсвие русской раскладки у человека ?
Так он может вырубается не из - за перегруза, что б ты понимал, этот блок выдает 1000ватт коротковременно на изи. У меня такая же история была с 2080Ti и таким же блоком, только platinum, вырубалась пока не заэкранировал провода.
ти малышь малалетниц. я кароль
А как экранировали? Фальгой?
Действительно, расскажи о том как экранировал по подробнее. Или уже есть фрагмент в каком-то видео?
Вырубается, чтобы беречь себя и своих близких(остальное железо)
@@al_exsystem2914 Он обмотал фольгой и выпрямил провода.
Уже многие высказались выше, поддержу. Очень интересно увидеть показания ваттметра при вылете адобе и желательно ещё ОССТ прогнать на вылетающей конфигурации
Спасибо за годный контент с пруфами!
Самое главное не показал, СКОЛЬКО ОН ПОТРЕБЛЯЕТ из розетки когда идёт рендеринг. Что скрывает автор? Вот на этом месте мы бы и оценили мощь сисоника
вот тут было бы интересно увидеть, что сисоник дутый) Хотя себе тоже взял его, не выдержал напора рекламы из каждого утюга.
@@truewormster да сисоник видно фингя дорогая. У меня чифтек sfx 350w для mini ITX моего. По тестам держит спокойно нагрузку в 420W. Работает у меня правда всего лишь с gtx 1066 и core i7. А сколько система с rtx 3090 тратит на выходе? 600-700ватт? Думаю в Seasonic не думали что скоро многим людям реально понадобится такая мощность. У них проблема с честностью.
@@andriiyefymenko2395 Сначала посмотри таких как Нитроксенус, а потом делай выводы. Чифтек - дешман, знаю от польських блогеров
@@andriiyefymenko2395 А в системе потребляет только видеокарта? Ты сам-то понял что написал?
[Sansey] какая видеокарта rtx 3090 600-700 ватт потребляет? Сам то понял что написал?
Только обновил ютуб и тут же видос от Pro Hi-Tech ))) Лайкосик !
Спасибо за вашу работу!)
@PRO Hi-Tech
черт, парни, не зря ваш канал так называется) спасибо)
проблема в БП, вернее не проблема, просто отрабатывает защита, как ей и положено, идет дичайший скачек по току, который воспринимается защитой, как короткое замыкание.
нет просто конденсаторы в фильтрах потеряли емкости, и защита реагирует на превышение искажений. Все это подробно описано в стандарте ATX.
у меня была такая же проблема(cougar 700W), разрешил её увеличив ёмкости конденсаторов. сегодня даже в хороших бп стоят по 2000uF на канал, этого может не хватать чтоб сгладить пики потребления.
@@dukenukem5752 этот блок физически более 1.1КВт, а не 850Вт. Даже если что-то потерялось(вряд ли), то он все-равно больше 850Вт.
Не перекидывайте так модульные шнуры даже для блоков одной фирмы. Бывает даже различие между разными ревизиями. Для подключения к БП нет стандартов распиновки.
Это точно, сам удивился при смене термалтэйк 650 ВТ на залман 850 ВТ.
@@MrDallakant проверить распиновку перед перекидыванием.
У сисоников одинаковые кабели для Focus, Prime и Core GM.
@@Dan-ed5en Seasonic меняют иногда кабели, да. Но распиновка всегда одна для блоков из-за того, что Seasonic высылает новые кабели для блоков, если таковые требуются и они должны подходить для всех линеек, иначе просто невыгодно получается.
Вот это я понимаю! С толком и конкретно по делу! Однозначно лайк) По больше подобных видосов)
Спасибо за вашу работу!
Спасибо за столь важные тесты!
ООО... Какие люди
2020 перевернул всё с ног на голову!!! Intel и nVidia - печки, с рекордными показателями тепловыделения, за всю историю; AMD - делает энергоэффективные и прогрессивные решения о_0
@@user-yb3zr3zz3w ну 5700хт я бы не назвал энергоэффективной))
@@true_dark как и прогрессивной.
хомиш и ремонтяш и я так решил...все смотрят этот канал..прикольно
PRO Hi-Tech
было бы ещё лучше если бы были использованы для измерения потребляемой энергии токовые клещи и ваттметр.
Спасибо за труды!
Отличный выпуск! Всё полезно!
Сергей, замерить реальную потребляемую мощность дело 5 минут. Без этих данных видео не информативно абсолютно. Имхо
У всех новых бп на выходе стоят шунты, и выход делиться на линии. И тут очевидно перегруз по одной какой то линии. Ибо бп должно хватать с запасом .
Не факт, кроме видеокарты еще помпа а это 50-70Вт на сколько я помнб, а главное - разогнанный интел а там жор начинается огого.
Зачётные видосы!!! Болошое СПАСИБО!!!!!!!!
Спасибо за данный ролик очень помог мне разобраться с моей проблемой у меня при полной нагрузке с 3090 комп уходил в перезагрузку с блоком питания кулер мастер 750 голдовый, теперь буду искать замену на киловатник
Мне кажется проблема в супервизорах блоков питания. Блоки не рассчитаны на такую резкую смену мощности и угодят в защиту. Надо было ваттметр подключить! Куда наглядней было бы!)
А может быть упор в 2 по 8 Pin? Если вдруг к Вам попадёт что-то с 3 по 8 Pin повторите эксперимент пожалуйста
каждый 8 pin может провести примерно до 350w, так что упора в 2 8 pin тут нету, а если бы был то и на блоке питания в 1300w карточка бы тоже не работала
А может и правда ограничение в самом блоке питания на линию, которое отрубает автоматом. Требуем перетест с ваттметром!!
@@ivanhordiienko4083 тоже об этом подумал, есть блоки питания с 2мя линиями 12V. Надо следить за тем, что бы один 8 пин был с первой линии и второй 8 пин со второй линии. Я в этом профан, но может есть логика.
@@andriiyefymenko2395 большинство нормальных блоков сейчас мультирейл. Думаю если брать с 60-70А на линию проблем не будет.
Вообще-то каждый 8пин может всего 150 ватт передавать
Респект, было очень полезно! но не у всех такие жористые процы)))
хотя это надо будет учесть при сборке пекарни) да и лишний киловатт в коробке не помеха...
Благодарю! Всех благ каналу!
Именно так выглядит на столе мой компьютер))))) Лайк
"Топовые" карты нвидиа в своих поколениях всегда ассоциируются у меня с насилием над железом компа и перегревом.
Топовых видеокарт для игр зеленая компания не выпускала уже много лет. 3090 - это первый игровой предтоп за долгое время. Топовые чипы ампер Ga100 используют только в серверных рабочих вычислениях. Rtx3080/90 используют огрызок - GA102
Что там у амд? R9 290X? Шумная и громкая, а может вега 64 которая не держит частоты и разгоняется от андервольта? Или Vega VII которая побила рекорды громкости системы охлаждения? (64 Дб!)
У 3080 при температуре чипа 75 градусов вентили крутятся на 1500 об/мин.
@@retrospective32 кондер тоже тихо работает
Точность, педантичность, скорострельность и доказательность - все касается про хай теч )
Ну да, без ваттметра делать выводы что проблема в чрезмерном потреблении - это верх профессионализма..
@@user-cc9lq4jg6j это скорострельность) но если серьезно авторы молодцы, интересную тему подняли, придётся на днях прайм95 и фурмарком прогнать, посмотреть, бп тоже на 850ватт
@@user-cc9lq4jg6j это было в тесте карт основном
Вася Правдин И что, там было привышение 850 Вт?))
@@user-cc9lq4jg6j да, он сказал, что пришлось переехать на 1300.
А на ватт метре 600 примерно.
У я так решил тоже. Думаете все обманывают?) Посмотрите на иностранных каналах . Без разгона все номально
спасибо за ролик. я так понимаю для 3080 850w от EVGA хватит и вылетов не будет в том же премьере?
Вот такие люди мне приятны, посмотреть и послушать. Спасибо большое.
Надо проверить с БП другой фирмы, т.к. у сисоника может рано срабатывать защита от скачка в потребителе
Возможно просадка около 11v при макс нагрузке, и срабатывает защита
Тогда зачем такие БП вообще нужны? У меня вот при попытке разгона RX 5500 XT, любого разгона, вообще любой смены параметров в сторону увеличения рано или поздно комп зависает. БП 750 Corsair, специально взял дорогой, вот теперь думаю может тоже БП дёргается...
@@Afit4.5.0 да, и этот вариант возможен.
Спасибо за контент.
Ппц, половина комментов про ваттметр от людей, не понимающих ни в электронике, ни в энергетике. Пошли бы на медканал и там при обсуждении любых спорных моментов про здоровье рассказали бы про градусник, с которым сразу всё встанет на свои места
Самое пугающее что особых знаний в данном случае и не надо - хватило бы чутка мозгов. Ужас.
Окей, пусть они не правы. А подход авторов конкретно в этом видео ты одобряешь? "Ыы 850вт БП вырубается подключим 1квт. Ыы а на этом работает, ну значит 850вт не хватает" Скорые выводы и ни малейшей попытки разобраться в вопросе, зато видео зальем.
@@comradekolyma1362 подход может и без детального разбора но результат в общем-то верный. На большинстве нормальных современных БП можно с этими картами поймать уход в защиту. В том числе и на платине 1.2кВт. Как и с 2080ти с биосами под 400Вт. БП желательно >50А на 12в линию чтобы этого избежать. Если синглрейл то и все 70А+ но это уже по ряду причин чревато неприятностями если "не фартанёт".
Притом кто-то писал что осцилоскоп у них есть. Что в свою очередь вызывает вопрос - они им не пользуются или результаты не " по фэншую"?
@@comradekolyma1362 полностью одобряю. В смысле что меня, как потребителя, который не будет неделю плясать вокруг бп с измериительными приборами, паяльником и кучей радиоэлементов на замену, не слишком интересует, что конкретно в БП не позволяет обеспечить стабильную работу. Да, система с видяхой не жрет больше, чем может выдать бп, но если с ним она вырубается, а с более мощным - нет, то лично мне этого ответа, совета и заключения будет более чем достаточно. Вполне возможно, что можно перебрать все бп на 800Вт и найти среди них те, с которыми все будет стабильно работать без отключений, но, опять же, мне было бы проще пойти и купить бп большей мощности и не колупать себе мозги, никакой пропасти по деньгам или другим причинам, почему этого не нужно делать, нет (собсна я и так себе киловаттный энермакс 85+ поставил еще какое-то время назад просто для надежности, и без всяких 3090)
@@deaconfrost4643 Revolution я так понимаю? Интересно бы посмотреть что получится если подключить к нему 3080 и дать ей жару.
Красота, наглядно и понятно!
Хороший формат. Очень живой!
на блоке или видяхе защита может срабатывать
Да, тоже так думаю. Нитроксенусу писали ещё давно про срабатывание защиты на сисониках в паре с мощными картами.
@@comradekolyma1362 И у Ремонтяша была такая же проблема с Сисоником.
Для такой системы нужно было использовать KCAS 1000W
650W с головой
KSAC FIREWORK EDITION
Неееет, 3000W
@@user-pb9pv2vp7h У меня даже не помню какого года fractal design integra bronze 650W начинка не самая плохая, но неидеальная, тянет всё что хочешь
@PRO Hi-Teсh - когда у вас появятся сравнительные тесты asus strix 3080 и 3090 + карты других вендеров с максимальным заводским разгоном?
Очень годно! Так держать.
Так подключите ваттметр и посмотрите потребления.
850 ватт мало ? Сколько жрёт эта печка 1 киловатт ?
Там ещё проц в разгоне жрёт около 200 ватт.
Жрёт она сколько ей положено +- чуть не в том.
@@user-xi6xo9cu7b больше 200, разогнанный до 5.2 переваливал за 300. Добавить помпу, МП и память и т.д.
@@aga87df и лгбт подсветку.
850*0.91(80+ platinum) = 773.5W
75+2*150(2x8 pin)=375W - питание видеокарты
i9-10900K@5.2 = 384.7W
773,5-(375+384,7)=13,8W
На всю систему остаётся только 13,8W, что явно не хватает.
Однако это справедливо только в том случае, когда i9 максимально загружен.
Спасибо. Полезная информация.
Спасибо большое вам за работу,обожаю этого бородача,такой добряк )
"У меня тут буржуйский БП, а я решил заменить его на более буржуйский." Спасибо большое!)) Успехов вам, ребят!))
Ты молодец - рыжая борода)
У тебя пол миллиона чел в поддержки, а ты всё равно с нами, а не над...
Сам понял, что написал?) Ахах
@__Mayk__ сможете перевести, пожалуйста?)
@@user-yg5tv7dt7f скорее всего, имелось в виду то, что при таком большом кол-ве подписчиков данный автор все еще "с народом" и не зазведился/не начал носить корону на голове.
@@oleguzumaki То, что имелось ввиду - одно. А вот что вышло - это совсем другое).
Но, думаю, авторам всегда есть куда расти, а падать в глазах народа к темному техно-кухонному Лорду никому не пожелаешь.
@@belovr2010
А что тебя смущает?
Большое спасибо за видео!
Серёга ты красава, всё в живую снимаешь,пятня и респект
Конечно обладатели таких систем вряд ли о таком думают, но электричества он жрет немерено. Плюс 500 рублей можно смело записывать в коммунальные платежи , как минимум, если вы сидите за компом 24\7.
у меня работает 2 компа - один жрет в максимуме с моником 450 вт, второй, более старый - 500 вт. в месяц выходит около 400 рублей с учетом всех других электроприборов. ну в росиии нам это не страшно крч)
1 кВт в час умножаем на 24 на 30 и на цену за кВт у нас это около 5 рублей так что по больше
если видеокарта загружена 24/7, что реалистично только в случае майнинга наверное. В простое она потребляет сильно меньше.
@@user-dx7uw7qh8m ххххх понаписали ... электричество стоит 5 руб за кв в росии
любая карта жрёт ровно столько сколько её используют. Сидя на затычке ты платишь меньше но и видишь кадров меньше или вообще не видишь того , что закладывали разработчики игр (Красоты окружения и реализм и тд ), скручивая графику до уровня "шакальной картошки".
Касательно 3090 , в пике она жрёт 320-330 ватт . Может и больше если вольтаж повысить .
И вообще карта эта больше для работы. Для игр лучшая цена это 3080.....была...
Мда вот вам и новое железо нанометры более экономное . !!
Спасибо за интересный ролик.
Жесткое потребление! Спасибо за тест! Лайк из Одессы!
3070 с 600W проверите?
Имхо честных 500 Вт на 12 В должно хватить, если просто играть, а не гонять бублики вместе с линксами.
Голдового 650 сисоника хватит
@@user-xj6lm8eb2w У меня как раз не голдовый сисоник
@@yourparadise3994 систем повер 9?)
@@user-xj6lm8eb2w Yes
Похоже для условных 4080/90 потребуется 1,5-2кВт
@@user-pb9pv2vp7h это будет фичей RTX 5090 SuperPuperTi
Теперь есть отмазка "почему я купил super flower leadex platinum 2000w")
Борода дал жару... Илье и Сергею как всегда пламенный привет!
Ура! Контент подъехал ) Вы с Ильей уже как соседи, которых приятно часто видеть )
Мне кажется всё из за пульсаций, Ремонтяш тестировал сборку с RTX 2080 Ti на блоке питания от Asus на 1,500 киловатт и у него блок ему вырубал комп в тестах так же проц в супер пупер повер сплях всяких и rtx 2080 ti то же в максимальных нагрузках вот там то у него и произошел конфуз он думал что переходники что то мудрят а оказалось блок сильно дороговатый что он улавливает пульсации и не может его погасить и отрубает питание и вот он заменил вообще на дешман блок киловатник ровно и у него все тесты прошли, так что тут в пульсациях дело не зря Asus тщательно питальники свои делают и это не шутки когда в топовые сборки пытаешься сделать всё чётко а сисоник да же не показывает нечего из за чего бы он мог вырубаться.
Блоки для Asus делает Seasonic. Там одна платформа: отличия только в RGB подсветке.
Вот и покупай всякие сисоники пафосные
@@hmst5420 не купил бы сисоник, отлетел бы комп... (на зло)
Можешь ссылку дать на это видео ремонтяша?
Месяц назад анонсировали - до сих пор не купить. Амудэ как райзен представят - на след день можно идти покупать
Разве не AMD зарезервировали под себя мощности TCMC?
@@LazyRoamer Ага прям все, apple и nvidia не считаются, а так же huawei, qualcomm, mediatek фигня вообще
Vyvew ну, я конечно жеж не имел ввиду что амд все мощности под себя ))) если я не ошибаюсь , нвидии не удалось договорится с тайванцами именно изза амд
@@LazyRoamer Да не факт, они же проф карты делают на мощностях TSMC насколько мне известно, просто самсунг им оказался выгодней судя по всему, потому они рассылали методички для обзоров, где вначале говорят что у техпроцесса самсунга лучше плотность) Они так решили это преподнести.
Vyvew а что мощности у тайванцев резиновые???
спасибо, полезен видосик
Спасибо за работу
а говорили что AMD процы и карты - это печки!!!
Так надо попробовать разогнать Ryzen до 5.1 ГГц, а видюху (какая там у них сопоставимая по производительности с 3900?) так же нагрузить. Вот тогда и сравнивать кто горячее.
@@user-sc8vu8ww4q И это всё под жидким азотом))
Да не может система столько жрать, это оверпрайснутый сисоник не выдаёт заявленные характеристики
На пиковых нагрузках может.
Да у сисоников хорошо защита срабатывает. Скорее всего видяха берет неравномерно с 8-pin и он уходит в защиту по силе тока.
@@vadim7255 значит не очень хорошо если более мощный в защиту не уходит, Seasonic PRIME Titanium 850W на деле оказался 600W
@@GearXlive вполне возможно, что там слишком много берётся с 8-пин и откалывается по защите по току и тут вопросу к Palit которая сделала 2х8 на 3090.
@@vadim7255 , ничего что разогнанный 10900 до 5.2 спокойно переебашивает отметку потребления за 300 вт? Помпа водяного охлаждения 50+ как минимум. Разогнанная память до 4000, мп, жд, сама видеокарта и по мелочи с лгбт подсветками. 2021 на носу, а всё сидите и дрочите, лишь бы на убогом 500 система пошла.
_Отличное видео_
интересно а двухчиповые планируются к выпуску ?
Спасибо за видео!
Даже не знаю зачем я это смотрел?
У меня наверно ПК дешевле этого БП стоит.
скорее всего дело в том что проц и видяха грузятся слишком быстро и бп уходит в защиту из-за резко возросшего тока, так что виноват кривой софт адоби
Сергей, правду говорят про брак в первых ревизиях? Про палит тоже писали, заметил ли что то ты на 80 и 90 из того что пишут? Я как бы конечно врятли эти карты возьму - останусь пока на своей, но интересно же))
а Ваттметром не судьба посмотреть сколько жрет мощности комп при показе окна предпросмотра??пздц надо сидеть и догадки строить... айти канал хули
Мне одному пофиг на печь 3090?)
Ваттметр из розетки сколько показывал в пике?
С моим старым SSR-850TD были проблемы с включением. Его поменяли на SSR-850TR, а потом была ещё одна замена на другой с новым названием TX-850. Возможно были проблемы с защитой (причину неисправности мне не сообщили). Модели дорабатывали. У Вас старая модель, может проблема в этом?
подскажите пожалуйста, подключать 3090 лучше в три отдельных разъёма блока питания (использовать один провод из сдвоенного) или можно использовать два разъема (один полностью на два провода и один половину)
Стас обосрался скорей всего. Потому что выключения были из-за плохой фильтрации питания на высоких частотах gpu
в смысле обосрался? Он сказал, что у него такой-то бп и с ним отрубается. А при замене на более мощный всё ок. Он не говорил, что с картой система жрет киловатт или типа того, наоборот, он показывал потребление системы по ваттметру и там и близко к 700Вт не было
Как же приятно смотреть адекватных, однозначно лайк!))
@@user-pb9pv2vp7h электроприбора)
Денег у меня, конечно, ещё долго не будет на что-то бодобное, но было очень интересно узнать вытянет ли srasonic на 850 ватт топовое железо. Спасибо, что удовлетворили этот довольно странный интерес
Сергей, позвольте вопрос, Как вы думаете 750 ватт от корсар rmi хватит ли для 3080? Я просто сисоник в днс не нашел
Спасибо за ролик.
Оба 8pin были подключены с одной линии или с разных?
А ещё видел видос вроде у Рема, там была подобная проблема, он грешил на экранировку кабелей питания.
Попробуйте взять любой другой БП на 850вт, и посмотреть что получится либо вообще 800-ку. Такой сисоник должен отработать 10 лет, мне не верится что его характеристики ухудшились. А вы кстати, его разбирали? делали замеры во время тестов по линии 12в? может что-то проседает, хотя опять таки это премиум сисоник.
Спасибо, Сереж, за тест и экспромт. Мда, интересные факты питания об 30 линейки оголяются.
актуальный вопрос, спасибо за видео.
собирал комп пару лет назад, взял 650 prime platinum, еще подумал, а что может пойти не так? А вот...