10 МИФОВ ПРО ВИДЕОКАРТЫ О КОТОРЫХ ТЫ НЕ ЗНАЛ!

Поделиться
HTML-код
  • Опубликовано: 13 дек 2024
  • В этом видео я буду развеивать различные мифы о видеокартах которые выдумали школьники в интернете.
    Ставь лайк, подписывайся, жду твой FEEDBACK :)
    -------------------------------------------------------------------
    Тут могла быть ваша реклама, но ее нет :(
    -------------------------------------------------------------------
    Иногда вещаю тут:
    / revonegames
    -------------------------------------------------------------------
    Мой сервер Discord:
    / discord
    -------------------------------------------------------------------
    Помочь в развитии автору канала:
    / @rev_one
    -------------------------------------------------------------------

Комментарии • 216

  • @disavich3399
    @disavich3399 10 месяцев назад +8

    факт в том что амд пытается конкурировать с нивидиа, у которой ворует технологии, заставляет задуматься, что в головах у амд фанатов?

    • @rev_one
      @rev_one  10 месяцев назад +1

      Пу-сто-та)

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад +10

      благодаря амд, ты можешь использовать бесплатно технологии как амд фрисинк а не платный гсунс,благодаря амд,ты можешь использовать во всех играх фср во всех игр,но нвидия в то же время надо купить ртх 4000 серию,благодаря амд,ты покупаешь нвидию карту по цене телефона,а не как за крыло самолета,подумай)

    • @rev_one
      @rev_one  10 месяцев назад +1

      Фрисинк такая же параша как FSR ибо криво слизана у Nvidia, я лучше куплю себе монитор с GSync чем включу это говно от амудэ.То же касается FSR, качать моды,еще какую то хрень что бы нагружать обычные ядра видеокарты я не собираюсь, у меня есть DLSS который работает на отдельно выделенных для этого тензорных ядрах))
      Даже если бы Nvidia просила за свою младшую можель как амудэ за старшую, я бы купил Nvidia только потому что она мне предлагает универсальность в направлении использования видеокарты и оригиральные технологии которые не слизаны и не добавлены путем каких то костылей.
      Амд это исскуственно созданая компания у которой одна цель - позволить Intel и Nvidia по антимонопольному закону продавать свои товары в розничной торговле в Европе и США. Жаль твой тупой мозг этого не знает, зато знает что есть бесплатное говно которое можно жрать)))

    • @СергейЕрмоленко-и5ж
      @СергейЕрмоленко-и5ж 10 месяцев назад +10

      @@rev_one и чего дохрена сейчас на рынке моников с аппаратным модулем G-Sync?))

    • @rev_one
      @rev_one  10 месяцев назад

      Достаточно что бы выбрать подходящий для тех кому этот GSync необходим, я в нем не нуждаюсь

  • @cra1zer
    @cra1zer 10 месяцев назад +1

    Итак... На счёт драйверов:
    Стоит 1050ti, древний i5 2400; ставлю новые дрова через nvcleaninstall - обычная производительность, беру 452 - график фреймтайма выравнивается, большая часть микростаттеров исчезает. Тесты я проводил идентичные, что в онлайн играх а-ля форта в котором херово работает прорисовка шейдеров, так и в обычных бенчмарках.
    Андервольтинг необходим, лично скинул с 1050 мВ до 900, при этом частоты стабильно работали даже при частоте выше максимальной в бусте ранее, "пару вентиляторов" тем более ты в старенький корпус не вставишь, а тут бесплатные - 5-10 градусов.
    Про "сложность реализации третьего длсс" говорить неприятно, плевать что тензерные ядрышки похуже, на хардвеерном уровне генерация доступна, и если не 3х кратный то хоть 2х кратный прирост но будет.
    FSR говно? Альетрнатив нет. Покажи как нвиде классно поддерживают свой продукт, аналог длсс для карт ниже 2000х и тд. Маркетинг? Безусловно. Но зато хоть во что-то можно играть +- адекватно на таком старом железе, делалось ведь не только для "себя".
    Красных(не коммунистов) стоит хоть чуток уважать, именно они продвинули идею многоядерности, подарили 580 рыксу которая если не спеклась после майнинга может подарить шанс поиграть, подтолкнули кукурайзенами интел НЕ делать процы без гипертрединга, и сейчас не дают зелёным производить кал за большие деньги. И напомню, на счет технологий:
    Они конкурируют И на рынке процессоров, И на рынке видеокарт, имея существенно меньший капитал, чем каждый из конкурентов, и при этом имеют цены ниже.
    Я не призываю любить и возхвалять амуде, просто поливать их калом в неизвестной обиде довольно по-детски.
    Спасибо за внимание.

    • @rev_one
      @rev_one  10 месяцев назад

      Давай будем чесны, не только железо становится мощнее но и игры требовательнее(раз ты сугубо игровую тему поднял).
      Соответственно жаловатся на то что твоя 8ми летняя видеокарта не тянет киберпанк на ультрах который вышел спустя 4 года после выхода 1050Ti как то нелогично, ведь речь о почти самом низшем исполнении видеокарты из 10хх серии.
      У меня был ноут с 1050Ti и GTA5 на высоких-ультра он вывозил в 50-60фпс.
      Жаловатся на то что нет DLSS на старых картах тоже нелогично ибо создавать костыли как амд с FSR - Nvidia не будет, честно - я лучше не буду играть, чем играть путем использования таких "технологий".
      Надеюсь мысль ты улавливаешь.
      Так вот, нет денег - играй в то что тянет твой пк, хочешь поиграть в новинки - иди в компьютерный клуб или юзай облачный гейминг.
      Какой смысл Nvidia тратить деньги на разработку костылей что бы как то криво-косо DLSS работал на старых видеокартах? Они лучше разработают новую технологию и выпустят новые видеокарты.
      Почему ты не говоришь что сейчас модно играть в 2К или 4К а монитор твой FullHD? Может потому что ты такой купил? Или виноваты LG/Dell/Samsung/Asus и другие производители мониторов что не могут тебе "обновить" дисплей на крутой?
      Или почему ты не говоришь что твоя оперативная память работает на 2666мгц? Есть же DDR4 на 4000мгц... Может потому что ты купил изначально такую?
      Мораль сей басни такова: что купил - тем и пользуйся. Тебе продали товар который спустя 8 лет все так же работает как в первый день покупки, память не исчезла, процессор не урезали...А то что не обновляют старье - так это делает каждая компания, вон айфоны Apple перестает обновлять до новых IOS, но чето никто не жалуется.
      Мы живем в то время когда каждый год что то новое изобретают, и было бы максимально тупо жаловатся что происходит развитие и прогрес верно?

  • @vicsyot
    @vicsyot 10 месяцев назад +2

    хорош, сказал все правильно но вот подскажите пожалуйста, если я поставлю в комп видеокарту а у меня процессор с графическим ядром, то у меня будет пахать видеокарта или граф. ядро процессора?

    • @rev_one
      @rev_one  10 месяцев назад +1

      Смотря куда подключишь провод монитора, если в материнку то будет ядро процессора, если в видеокарту то видеокарта.
      Вообще можно отключить видеоядро процессора принудительно)

    • @vicsyot
      @vicsyot 10 месяцев назад

      @@rev_one спасибо

    • @vicsyot
      @vicsyot 10 месяцев назад

      @@rev_one GG 1 касарь есть на канале, поздравляю!!!!

    • @Evgeniy_05_reg
      @Evgeniy_05_reg 10 месяцев назад

      Будет пахать вставленая, "встройка" при таком раскладе отключается автоматически

    • @vicsyot
      @vicsyot 10 месяцев назад

      @@Evgeniy_05_reg кто отключается? видюха или "встройка"?

  • @andrey-o5p
    @andrey-o5p 10 месяцев назад +2

    Поздравляю, твоё видео вылезло в рекомендациях

    • @rev_one
      @rev_one  10 месяцев назад

      Круто, спасибо)

  • @Shirozaki743
    @Shirozaki743 10 месяцев назад +2

    Почти со всем согласен, выделю один момент. у меня всё ещё легендарная старушка R9 290x, флагман 2013 (между 780 и 780ти для тех кто в танке). Так вот, когда 2 года назад я запускал киберпанк на своем монике 3440х1440 и оно не вывозило, сейчас в включаю фср на ультрапроисзв и наслаждаюсь быстрым и слегка мыльным геймплеем в 60-70 фпс) спасибо технологиям, Славься Мыло!))))

  • @Maximus_Lancelot_XI
    @Maximus_Lancelot_XI 10 месяцев назад +5

    подтяни знание,через амд адреналин не возможно спалить карту,там вольтаж ОГРАНИЧЕННЫЙ по серии карте....например,если у тебя RX 7800XT, то напряжение больше чем 1150 ват ты не поднимешь,там ограничитель стоит,если у тебя карта 6700хт,выше 1200 ват не поднимешь, карту через амд адреналин не спалишь,а вот всякие мси автобюнере легко,когда с 2000 года в 2023 перепрыгнешь? ты проверяешь перед тем что думаешь сказать?

    • @rev_one
      @rev_one  10 месяцев назад

      Ахахахах это ор, 1200ват... это блок питания надо покупать на 2кВт для всего пк + 6 проводов по 8пин в видеокарту вставлять? Ахахах,мда,ну ты выдумщик конечно, насмешил знатно))))

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад +2

      @@rev_one лять,ну перепутал с мВ,выделился школьник,молодец)

    • @clunck16
      @clunck16 10 месяцев назад

      @@rev_oneдокапался до одной опечатки, но так и не ответил на основной вопрос в комментарии. Сказать нечего что-ли?

    • @harlekino6411
      @harlekino6411 10 месяцев назад

      @@clunck16 Да он нуль полный в технике. Такую дичь несёт,что Петросян нервно курит,конкуренции боится)))

    • @l_anno
      @l_anno 10 месяцев назад

      Ахуенно пойду выставлю себе 850w на 6700xt после такого она точно будет работать как часы

  • @SaN4Ez75
    @SaN4Ez75 10 месяцев назад +1

    Дружище , твои комменты топ , поржал от души , так еще и полезную инфу узнал XXDDD

    • @rev_one
      @rev_one  10 месяцев назад

      Спасибо, стараюсь)

    • @MEGAinoagent_China12
      @MEGAinoagent_China12 3 месяца назад

      Чел, мне кажется немного ОБМАНУ Я

  • @landrasik
    @landrasik 10 месяцев назад +2

    Кто б что не говорил, а за freesync и fsr mod большое спасибо AMD! Сечас народ AMFM юзает вместе с fsr, говорят вроде не плохо работает.

    • @rev_one
      @rev_one  10 месяцев назад

      Ну да, дело же не в том что Nvidia разработала прорывные технологии а амд просто на подсосе слизала...

    • @landrasik
      @landrasik 10 месяцев назад

      @@rev_one В ролике вы говорите нвидиа нуждается в оплате разработок технологий... У неё итак 80% рынка, она монополист! И тут два пути 1. Филантропия. 2. Манипуляция! Пока я вижу что только AMD делает что то для народа, пускай даже кривовато, но сам факт, сама тенденция вызывает уважение! Лет 10 назад нвидиа была хорошей компанией, но сейчас я так не считаю. P. S. Пишу не просто так, сам на RTX се сижу и прекрасно вижу что в нвидиа хорошо и что плохо.

    • @rev_one
      @rev_one  10 месяцев назад

      Даже 10 лет назад у Nvidia была большая часть рынка, надо просто смотреть шире и замечать что пока амд слизывает технологии - nvidia работает на разные рынки включая автопилоты,промышленные компьютеры,рынок ии, и многое другое

    • @Sugs_cz
      @Sugs_cz 10 месяцев назад

      @@rev_one И что народу теперь, переплачивать за карты зелёных только потому-что "ани жы сами всьо разрабатывают, а ни слизывают как амуды!!!" ? Кому что нравится - тот ту вещь и берёт, но большинство народа не богачи, и предпочитают к примеру рыксу 6700 вместо 3060, которая за ту же цену будет хуже по производительности во всём, но за то имеет ртх!!! Который правда вытягивает нормально разве-что в форзе 5, но то ладно🤣

  • @hy6acojlehbebu4pa4koff4
    @hy6acojlehbebu4pa4koff4 10 месяцев назад +2

    Даунвольт без потери производительности, а зачастую и повышая ее, нормальная, даже полезная тема для вк. Все видеокарты настраиваю, при снижении лишнего напряжения падают температуры и аппетит видеокарты. ДЛСС и генератор кадров хорошие функции.

  • @etcario
    @etcario 10 месяцев назад

    Автор действительно любит всех❤

  • @mangosik
    @mangosik 10 месяцев назад

    Только что посмотрел чела который знает всё и за всех. Хотя-бы ссылался на что-то, а то моментами ощущение что некоторая инфа высосана из пальца

    • @rev_one
      @rev_one  10 месяцев назад

      Есть видео на канале с графиками,статистиками и прочими фактическими данными но как то всем всеравно это, вот решил уменьшить себе работу в монтаже...

  • @Maximus_Lancelot_XI
    @Maximus_Lancelot_XI 10 месяцев назад +4

    когда автор от спайса уже отойдет?) оправдывает лучи которые не работают,оправдывают сгорание пинок,оправдывает длсс 3.0 которые стоят отдельно) жалкое горящее зрелище)

    • @rev_one
      @rev_one  10 месяцев назад

      Жалко у пчелки, а на тебя смотреть печально, на твои попытки оправдать амудэ((
      Очень слабо ты это делаешь, никакой конкретики,фактов и опровержений...
      Зато это все доказывает мою правоту и то что Nvidia лучше чем амудэ))

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад +2

      @@rev_one ясно,опять от темы уходишь,как обычно,сливаться так сливаться) лучше бы ты так аргументированно отвечал,а не горел)

    • @harlekino6411
      @harlekino6411 10 месяцев назад

      @@rev_one Вот тебе конкретика:
      тебе до техноканала,как свинье до турника)))
      И это не смотря на твои нелепые потуги придать вес этим роликам лайками от друзей-школьников типа"по факту раскидал факты" ))) Или "по факту всех раскидал" Тут либо одной и той же дрянью травитесь,либо сам себе лайки накручиваешь))).
      В любом случае попробуй читать что-то кроме пабликов и ценников. Литература она лексикон обогащает,тебе прям край какая нужда в этом))).

    • @vicsyot
      @vicsyot 10 месяцев назад

      @@Maximus_Lancelot_XI хахах, ты пробовал лучи? ты играл сравнивал длсс и фср? если проблемы с производительностью, то они и так сделали длсс тем более ты можешь зайти в драйвера нвидиа и там выставить не качество а производительность, а если ты просто пытаешься опровдать амд, то сожалею... а также иди поплачь если у тебя амд и ты просто завидуешь тем, у кого нвидиа

  • @zetix4839
    @zetix4839 10 месяцев назад +8

    Радуйся что АМД есть, благодаря конкнуренции цены на видеокарты Нвидия сравнительно низкие чем они могли бы быть. Если они занижают цены на видеокарты не значит ли это то чо АМД все-таки серьёзный конкурент? Ведь если бы АМД делал плохие карты то Нвидия не стала бы занижать цены на свои видеокарты.

    • @rev_one
      @rev_one  10 месяцев назад

      Цены занижают потому что Nvidia занимает рынок топовых решений и что бы у амд небыло шансов в среднем и низком ценовом сегмента - опускает цены.

    • @dnozemly
      @dnozemly 10 месяцев назад +2

      @@rev_one чел ты... это и есть конкуренция, не было бы амуде, нахуя бы куртке надо было цены опускать?

    • @zetix4839
      @zetix4839 10 месяцев назад +3

      @@rev_one Ты этим подтвердил мои слова. Но тем не менее 6900-50ХТ и 7900ХТ-ХТХ очень прекрасно продаються, так не что не только в низком и среднем сегменте.

    • @rev_one
      @rev_one  10 месяцев назад

      Загугли "рейтинг видеокарт Steam" и скажи где там 7900XT/XTX и в каком %...

    • @zetix4839
      @zetix4839 10 месяцев назад

      @@rev_one Похоже ты не понимаешь что видеокарта свежая + то сколько АМД потратили на создание данных карт и то как сильно они окупились продавая их. Само собой Нвидия будет выше из за хорошей пропаганды RTX и DLSS. Но я говорил о тех кто покупает только АМД.

  • @UncleDjad
    @UncleDjad 10 месяцев назад +2

    Да будет срач! Всем "зелёным" попкорна и поржать с комментов.

  • @NeMan.6845
    @NeMan.6845 10 месяцев назад

    парень по факту раскидал всех, так держать!

    • @rev_one
      @rev_one  10 месяцев назад +1

      Спасибо за поддержку))

  • @aasd115
    @aasd115 10 месяцев назад +1

    с кайфом)

  • @kMITHEN1337
    @kMITHEN1337 10 месяцев назад

    Имею компьютер с AMD видеокартой: ryzen 5 3600 / RX 6650 XT sapphire nitro+
    FSR от 2 версии делает красиво на моём мониторе 3440х1440 100Hz а затраты ресурсов благодаря разрешению рендеринга (баланс обычно ставлю во всех играх) как в фулл хд.
    Мне всё равно, что DLSS лучше, на глаз после получаса игры это незаметно. О покупке видеокарты ни разу не пожалел.
    Прошел на своём компе множество ААА проектов. В комфортных 100фпс с включенным Vsync.

  • @fox12061
    @fox12061 7 месяцев назад

    Чел мега хорош
    😎😎

  • @Aboba_105
    @Aboba_105 10 месяцев назад

    Буду ставить лайки, когда вернутся шутки про беременную младшую сестру.

    • @rev_one
      @rev_one  10 месяцев назад

      Эхх, так и знал что что то упустил((

  • @sEDITERS
    @sEDITERS 10 месяцев назад

    Все по факту в принципе.. Если бы компания могла выпускать видюхи мощнее чем сейчас, она бы давно выпустила их...

    • @SARCOFAG
      @SARCOFAG 10 месяцев назад

      не выпустила бы

    • @sEDITERS
      @sEDITERS 10 месяцев назад

      @@SARCOFAG выпустила бы и цену заоблачную дала бы.. Если 4090 покупают, то найдутся и те кто и это купят..

    • @SARCOFAG
      @SARCOFAG 10 месяцев назад

      они бы миллион серии сделали бы, лишь бы не выпустить сразу, так как это разрушит экономику@@sEDITERS

  • @Maximus_Lancelot_XI
    @Maximus_Lancelot_XI 10 месяцев назад +2

    автор,а кроме нвидия,кто из СЦ говорит, что в ртх 4000 серии новые тензорные ядра? как всегда, в уши навешали лапшу,и такой как ты читаешь по бумажке,так скоро на ртх 2.0 перейдешь,ведь старое поколение их не тянет)

    • @rev_one
      @rev_one  10 месяцев назад

      Ооо снова ты, с возвращением туповатый хейтер))
      В процессорах ядра от поколения к поколению тоже ничего не дают? Лапшу производители вешают? А то что с каждым поколением производительность растет в СРЕДНЕМ на 20% то тоже чепуха?
      Вот тензорные ядра тоже получили хороший прирост производительности от чего могут быстрее обрабатывать вычисления для ИИ от чего DLSS работает другим путем и быстрее...жаль тебе лень гуглить и приходится учить тебя тут, скоро прийдется оплату взымать за персональные уроки.

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад +1

      @@rev_one кто то подумает что я агрессивный,но это не так,я всех люблю....оо возвращением туповатый хейтер,лицемерие всей красе, ты в начале разберись как вообще амд карты работают🤡,как работает прога амд адреналин,что надо сделать чтоб играть просто и все как для простого геймера

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад +1

      @@rev_one причем тут процессорные ядра? от твоих лучей по сей день толку 0,та же 4070 ти выдает в нативе 27 фпс в 2к,ты о чем алеша?) вышла игра Immortals of Aveum где и длсс и ртх лучи,а толку? прицел раздваивается,производительность уровне 30 фпс на ртх 4080)))

    • @rev_one
      @rev_one  10 месяцев назад

      Ммм, игра с ужаснейшей графикой и рекомендованными требованиями i7 12700K + RTX 3080Ti точно показательная для того что бы поливать говном DLSS и лучи, дело вовсе не в оптимизации что на такой говянной графике нужны такие требования и не в том что раз на оптимизацию разработчики положили большой х*й, а в том что именно DLSS плохо работает...
      Даже отзывы в стиме, ребята пишут что на i7/i9 + RTX 4080/4090 игра лагает.
      Сходи что ли к врачу, у тебя уже какая то болезнь амудэшная, ты полный 0 в том как работают и для чего придуманы технологии, так еще бонусом неоптимизированные говно-игры в пример приводишь.

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад +2

      @@rev_one опять оправдание не рабочей технологий, ты сам говоришь, что длсс это ИИ который дорисовывает пиксели и увеличивает фпс, но как на практике, он ничего не добавляет, и все равно, все зависит от рук разработки, что кто то добавил длсс не значит, что ИИ все сделает сам, что касается и ртх, на которой давно уже болт положили, в играх 2000 были отражение, прикинь?) мб хватит есть кал, и оправдывать не рабочие технологии?) во дворе 2023 год, но внешность нвидии до сих пор устаревшая на програмном уровне

  • @SARCOFAG
    @SARCOFAG 10 месяцев назад

    По факту раскидал факты, красава, уверен что твоим подписчики возрастут

  • @Maximus_Lancelot_XI
    @Maximus_Lancelot_XI 10 месяцев назад +1

    народ,не ведитесь на глупый байт на комментыэтот человек даже не использовал видеокарту амд 6000 серии,его мнение не субьективна,лишь поддержка слухов и фейков п.с. вот его цитата Покупать говно а точнее видеокарты амд я не собираюсь

    • @rev_one
      @rev_one  10 месяцев назад

      Ахахаха, о нет, после твоего комента кто то подумает что я плохой, только не это, снова ты плачешь...

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      @@rev_one не пиши мне больше,лицемер) можешь удалить все мои комменты,мне без разница)калоед)

    • @rev_one
      @rev_one  10 месяцев назад

      Ахаха,ой ты обиделся? Боже девочка заплакала((
      Ну ничего, может со временем вытрешь слезки и станешь мужчиной.

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      @@rev_one я не удивлен,большинство,у кого нвидия карты,всегда какие то озлобленные на амд геймеров,они сидят,кайфуют,а такой обиженка как ты,видишь,что у них все хорошо,надо выпустить лже видео чтоб самоутвердиться за чужой счет,как тебе играется с 8 гигами при 2к в лучами?) 15 фпс хоть наберется?)не переживай,купишь когда нибудь нормальную карту)

    • @rev_one
      @rev_one  10 месяцев назад

      Играется отлично, вполне всего хватает. А про твою оздобленность да, ты как и другие фанаты амд злые потому что нет денег на нормальное железо.

  • @morti.96
    @morti.96 10 месяцев назад

    Ну 8 гигов на карте местами впритык

    • @rev_one
      @rev_one  10 месяцев назад

      Таких мест пока маловато

  • @alfredthegreat2038
    @alfredthegreat2038 10 месяцев назад

    Главное не брать видеокарту от амуде

    • @rev_one
      @rev_one  10 месяцев назад

      Согласен)

  • @clunck16
    @clunck16 10 месяцев назад +1

    Автор вообще какой-то странный. Вроде бы и базу частично выдал, с которой адекватный человек будет полностью согласен, и в то же время обосрал андервольт и амд. Я просто очумел от таких противоположностей в видосе😂

    • @rev_one
      @rev_one  10 месяцев назад

      А в чем противоположность? Андервольт видеокарт не имеет смысла, лучше поставить нормальных вертушек в корпус и снизить температуры чем лезть туда где все настраивали ребята с завода явно со стажем по части электрики. А амд говно и это факт)

    • @clunck16
      @clunck16 10 месяцев назад +2

      @@rev_oneребята "по части электрики" ничего не настраивали. С завода частоты и потребление у всех видеокарт усреднено (или соответствует худшему из протестированных чипов), потому что невозможно изготовить одинаковые по характеристикам чипы, вот и берут значения, которые любой произведенный чип потянет, в ином случае "неудачные" чипы были бы отбраковкой. Так что во многих случаях эти значения можно менять, (в свою пользу, естественно, например, снижать потребление, что очень помогает с видеокартам хай-енд уровня, у которых заоблачное потребление), ведь шанс получить "неудачный" чип не очень высок. И это намного рациональнее, чем добавлять в компьютер дополнительные вентиляторы, которые будут создавать лишний шум.

    • @clunck16
      @clunck16 10 месяцев назад

      @@rev_oneа противоположность в том, что автор одновременно и фигню про нормальные вещи говорит, и при этом о тех же нормальных вещах отзывается хорошо. Как будто взял половину мнения от проверенного "эксперта", а другую половину от случайного прохожего.

    • @rev_one
      @rev_one  10 месяцев назад

      Вентиляторы "лишними" не бывают, на рынке полно качественных бесшумных вариантов, да не дешево, но так будет лучше не только видеокарте но и всем железкам внутри ПК.

    • @clunck16
      @clunck16 10 месяцев назад

      @@rev_oneя и не говорил, что с вентиляторами в сборке что-то будет хуже. Написано было только про лишние траты и шум, а главное, что автор, почему-то, решил упустить из виду основную мысль моего комментария - рациональность. Еще раз повторю, что намного грамотнее в финансовом плане будет просто сделать андервольт, в случае, если видеокарта нехило печет. Естественно
      , андервольт должен производиться в разумных пределах, и только, ТОЛЬКО в случае недостаточной эффективности последнего, ставятся доп. вентиляторы. Да и не во всех корпусах есть место под них, например, в тот же популярный MATREXX 30 вентилятор для видеокарты ну никак не получится засунуть просто потому, что корпус маловат, а по опыту могу сказать, что далеко не всем хочется иметь огромную "продуваемую" коробку рядом с рабочим местом или на нем.

  • @Maximus_Lancelot_XI
    @Maximus_Lancelot_XI 10 месяцев назад +3

    как всегда,автор опять подписюнчики глотает не прерывая,ничего не аргументированно,сплошные фантазии

    • @Rrr-o7r
      @Rrr-o7r 10 месяцев назад

      а можешь назвать эти фантазии?

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      ​@@Rrr-o7r 1-8 гигов мало в 2023 году, 2- оправдывает горение пин, 3-для чела 90 градусов норм, хотя ругал амд карты что они горячие под 90 градусов, 4-человек оправдывает нвидия что она до сих пор не добавила андервольт и разгон видео карты, за то говорит мол у амд карты сгорают потому что они выставляют повышенный вольтаж в амд адреналина, хотя там давно ограничение ват по серии карт, то есть, нельзя повысить вольтаж больше, сколько прописали амд, на 7800 максимальный мв это 1150,на 6700 хт пример 1200,выше никак програ не даст, как там ограничитель стоит, карта сгорит в том случае, если скачать мсай, и повышать вольтаж, но автор как всегда, живёт в 2010 году🤣🤣🤣

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      ​@@Rrr-o7rон на столько лицемер, что сидит на 3070,и хвалит какой длсс 3.0 крутой, г сунс хвалит, хотя сам сидит через амд фрисинк 🤣🤣🤣🤣

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      @@Rrr-o7r да например, он против андервольта и разгона, типо, что только у амд карты горят, по факту, амд адреналин просто не даст спалить карту, там ограничитель мв стоит по модели карты, выше поднять не получится, надо скачивать мсай и убирать ограничение, автор это как всегда умолчал

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      @@Rrr-o7r или вот, говорит что 8 гигов это нормально в 2023,окей, пусть поиграет в тарков, хорвйзен, они легко едят 11 гигов видеопамяти

  • @l_anno
    @l_anno 10 месяцев назад

    Играю на 4060ti с 45° на видюхе🥵

    • @rev_one
      @rev_one  10 месяцев назад

      В морозилке комп собрал?))

  • @arh285
    @arh285 10 месяцев назад

    ну процы то у амд хорошие или скажешь тоже хуйня?

    • @rev_one
      @rev_one  10 месяцев назад

      Все что кроме 7800X3D хуета)

    • @1liya260
      @1liya260 10 месяцев назад

      кто на него вообще подписывается это пиздец,наверное такие же дурачки и даже похуже,зашел на видос чтобы послушать что тут говорят а тут все как всегда))) ру ютуб на высоте

  • @Irkutski_Furry
    @Irkutski_Furry 10 месяцев назад

    Ещё один лайк 👍

    • @rev_one
      @rev_one  10 месяцев назад +1

      Ого,видео же только вышло))

    • @Irkutski_Furry
      @Irkutski_Furry 10 месяцев назад

      Ютуб прислал сообщение о выходе видео

  • @neckary9193
    @neckary9193 10 месяцев назад

    хуита. видеопамять нужна только для текстур? между фулл хд и 2 к разница по заполнении видеопамяти менее 1 гига. а все плюшки типа геометрии/ сглаживания Таа/ МСАА, тени /физика води и тд ???? В рдр2 виключением сглаживания економится 3 грьобаних гига вирам!

    • @rev_one
      @rev_one  10 месяцев назад

      Физика нагружает графический чип как и вычисления относительно геометрии, а все что касается текстур(прорисовка,качество,разрешение...) занимает видеопамять.

  • @Maximus_Lancelot_XI
    @Maximus_Lancelot_XI 10 месяцев назад

    Уважаемый автор(нет), ответь на вопрос, будь добр, так вот, судя, по твоему мнению, нвидия такая мега корпорация, где работают лишь гении, драйвера все для людей и т. д, что они тогда собственно постоянно в новом драйвере постоянно что то фиксят, исправлябт в новых драйверах? Не проще им сразу выпустить драйвер для таких как ты? 🤣, смысл обновлять драйвер постоянно что и так идеально работает🤣

    • @rev_one
      @rev_one  10 месяцев назад

      Никто ничего не фиксит, раз в месяц выходит обновление игрового драйвера, бывает реже, чаще к крупным игровым релизам.И в таких обновлениях добавляют поддержку технологий в новых/старых играх но никак не фиксы.
      Сам же GeForce Experience обновляется крайне редко, вообще не помню когда последний раз его обновлял.
      Снова же, если ты не разбираешься в технологиях/электронике то сначала разберись, узнай что к чему, а потом пиши такие глупые коментарии. Лично мне уже даже не смешно читать такой бред по типу бесполезных технологий, низкого фпс и примеров с играми которые не оптимизированы и на них жалуется каждый второй игрок.
      Либо давай чет нормальное пиши, либо лучше не пиши вовсе, а если тебя тригерит то что ютуб не пропускает твои коменты - то велком в дискорд, там веду длительные диалоги со всеми желающими в соответствующем чате.

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      @@rev_one сказал тот, кто говорит что амд использует +5 программ чтоб поиграть, сказал тот, что амд печки, хотя у самих нвидия видео память греется до 90 градусов, сказал тот, у кого сгорают амд карты 6000 -7000 серии в самом адреналине которая никак не даст её спалить🤣, ты в начале купи амд карту, изучи её функционал, драйвера, потом пиши по полочкам🤣, видно же, как у тебя горит, и как ты бомбишь на амд не аргументируя почему🤣, защищай дальше 💩, дело твое, и не надо переводить стрелки что ютюб удаляет, я без оскорблений писал, но все равно их удалили, факт на лицо, что ты не принимаешь критику, и ещё сильнее горишь от этого 🤣🤣🤣

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      @@rev_one гпди,опять отрицание фактов, то то я смотрю, что у нвидия какой то баг в драйвера случается, что придется ждать патч фикса этого косяка🤣, вот твоя проблема, ты прими факты, какие они есть сейчас, не надо же бы таким слепым фанатом🤣, успокойся и пиши аргументированно 🤣

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      @@rev_one давай поговорим, как сгорают амд карты через амд адреналин? Ты изучал эту программу вообще? Или опять? Кто то что то сказал? Использовал её? У тебя хоть была 1 карта от амд от 6000 серии?

    • @rev_one
      @rev_one  10 месяцев назад

      Снова ты не слышишь,ну ладно скажу еще раз...
      Память если и греется то не у Nvidia а у вендоров которые придумывают охлаждение и собирают карту воедино, слушай внимательней о чем речь в видео.
      Про скачать 5 програм, зарегистрироваться на 10 сайтах, получить 20смс это была шутка если тв не понял, а ты судя по всему не понял - ведь ты тупой((
      Покупать говно а точнее видеокарты амд я не собираюсь ибо они никому не нужны и дарить ее потом на вторичке за копейки я не хочу.
      Да коменты удаляет ютуб, у меня отключена модерация но коменты пропадают,иногда мои. Посмотри другие коменты где напрямую меня пытаются хуесосить, я ничего не удаляю ибо мне всеравно.
      Принимаю критику только аргументированную, а высеры пропускаю мимо и просто смеюсь.
      С тем что я якобы горю уже надоело читать, придумай что то оригинальней, сначала было смешно но потом стало надоедать и как то грустно смотреть на твои попытки меня заагрить.
      Про баги Nvidia драйверов, на моей памяти это было всего 1 раз, и то шумиху подняли блогеры. GeForceExpirience это утилита, она вообще вроде как не обновляется, обновляются драйвера внутри нее.
      Как сгорают амд карты ты можешь посмотреть на ютубе или почитать форумы, снова же - я не справочник.
      Если ты такой ярый фанат, кой таким являешься, так возьми переубеди меня что амд крутые, ты только байтишься на коменты и вместо того что бы рассказывать что у амд крутого - поливаешь говном nvidia, а это значит что я делаю все правильно и у фанатиков типо тебя горит.
      Как только будет аргументированый ответ с восхвалением амд - я сразу сделаю видос про то - какие амд ахуенные.
      Только не надо рассказывать про драйвера,андервольт и все такое, это не плюсы.

  • @Maximus_Lancelot_XI
    @Maximus_Lancelot_XI 10 месяцев назад +2

    8 гигов хватает,если у вас 1080р,при этом человек говорит что в длсс нету мыла при 2к,получается,те,кто включается 2к и длсс,они программно переходят на 1080р?),получается,8 гигов хватает при 2к ?)

    • @rev_one
      @rev_one  10 месяцев назад

      Получается ты не только тупой но и глухой ибо не можешь даже процетировать сказаное в видео))

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад

      @@rev_one сливайся уже,неуч) все мозги пронюхал и пропил похоже)))

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад +1

      @@rev_one нос красный подними)

    • @morti.96
      @morti.96 10 месяцев назад

      В 1980на1080 если все на улитра выкрутить, то 8гб маловато в некоторых играх

  • @t1cken
    @t1cken 10 месяцев назад

    Приятель, тебе сколько лет? Вся эта ламерская тема когда тебя мокают в твое же отсутствие фарт чекинга уже в каждом видео, а эпоха айтипедии 2013-2015 уже на столько пахнет плесенью, что уже любой подросток поколения альфа будут смотреть Pro-Hi Tech или на хуйдой конец Rozetked если хочется глупого, но красивого контента и точно НЕ твой канал, который состоит на 60% негатива и на 40% ненависти к бренду, 0% компетентности даже не то что к капутер сайнес, а даже по сборке. Вот этот поток рандома, который только собрал себе комп чисто из-за бренда и побырому в кепкате собрал из готовых пресетов аудиовизуальный продукт, а не что-то действительно полезное вызывает лишь отторжение. С учетом этого еще более смешно читается описание канала, про, якобы, "достоверную информацию", которая по качеству и по оформлению даже ленивее, чем твои вдохновители - провокационные каналы времен срача фостерса с айтипедией =)
    Тебе же полезнее будет покурить пару мануалов, пару часовых видиков по предмету если ты действительно хочешь "по фактам разъебывать" пока запал юношеского максимализма и комплекса неполноценности позволяет, а пока выглядит очень жалко. Уверен, что одного дня ты вырастишь и будешь с таким смехом смотреть на все свои потуги, как все люди когда-то посматривают свои детские альбомы ❤

    • @rev_one
      @rev_one  10 месяцев назад

      Спасибо за отзыв)

  • @harlekino6411
    @harlekino6411 10 месяцев назад

    Снова ОНО из себя техноблогера изображает)))
    В заблуждение людей не вводи.
    8 Гб видеопамяти может хватить в современных реалиях,но...
    Да целая куча этих "НО"
    У видеопамяти кроме объёма есть целая куча иных параметров,не знал?))
    Их совокупность определяет единственно значимый параметр: пропускную способность видеопамяти,применив которую к объёму мы получим значение эффективности.
    Разжевываю для лютого техногуру))) :
    Умножаем частоту на шину,делим на 8 бит
    3060 имеет 12 Гб ддр6 3060 тишка 8Гб ддр6Х 1080 8Гб ддр5Х
    3060 шина 192 бита 3060 тишка 256 бит 1080 256 бит
    3060 частота 15000 3060 тишка 19000 1080 10100
    пропускная способность памяти
    3060 360 Гбайт/сек 3060 тишка 608 Гбайт/сек 1080 320 Гбайт/сек
    Это значение применяем у объёму и получаем соответственно:
    4320 4864 2560
    То есть 3060 тишка на 8 Гб имеет на 12 процентов бОльшую эффективность памяти,чем 3060 на 12 Гб,
    а 1080 на 8Гб на 75 процентов меньше при тех же 8Гб,что и у 3060 тишки.
    Ютуберы и прочие тиктокеры могут быть лишь информационными и развлекательными. То,что твоя болтовня в с стиле "пенное/семечки"
    не является информацией это факт,так смени уже названия роликов на развлекательные вместо информативных)))
    И попробуй себя в стендапе)))
    Этот коммент тебе от щедрот моих,настроение хорошее ))).

    • @rev_one
      @rev_one  10 месяцев назад

      Ну давай по порядку, для начала память, я сказал что 8гб для FullHD сегодня хватает - это факт и ты вроде как согласен.
      Пропускная способность важна в рабочих задачах, в играх это мало чего дает и если нет денег на 12гб или 16гб то врядли ты будешь смотреть на разницу в 3-5 кадров.
      Что касается контента то открыв описание ты узреешь что категория к которой я себя и контент вцелом отношу - Развлечения, а не "наука и техника" или что там есть еще.

  • @werssys777
    @werssys777 10 месяцев назад

    Вообще похуй зеленые или красные да хоть коричневые лиш бы карта была хорошей и выполняла без касяков свои функции был и на зеленых норм сейчас на красной все отлично кто воет на красных или зеленых значит имеет какуето травму децтва в прошлом

    • @rev_one
      @rev_one  10 месяцев назад

      Или просто кто то умеет думать и понимает кто и что из себя представляет

  • @Maximus_Lancelot_XI
    @Maximus_Lancelot_XI 10 месяцев назад +1

    что и требовалось доказать,пишешь аргументированные ответы без оскорблений,в чем автор не прав,что делает автор? удаляет коммент🤣

    • @rev_one
      @rev_one  10 месяцев назад

      Боже, да докажи что я что то удаляю, уже не раз это обсуждалось...

    • @Maximus_Lancelot_XI
      @Maximus_Lancelot_XI 10 месяцев назад +2

      @@rev_one я с тобой про удаление комментов не обсуждал 🤡, а чего тут доказывать, где комменты которые я написал? То что они пропадают, не доказательства? Какой ты смешной 🤣

    • @veseluyalex40
      @veseluyalex40 10 месяцев назад +1

      Скринь свои комменты как отправляешь) челик явно с приколом

    • @dnozemly
      @dnozemly 10 месяцев назад

      @@veseluyalex40 автор не просто с приколом, тут клиника уже

  • @uglysyotwan
    @uglysyotwan 10 месяцев назад

    чел хорош, а те кто защищают амд просто плачут потому что не могут купить нвидиа, чего вы пытаетесь добиться, фанаты амд?

    • @Kolambys
      @Kolambys 10 месяцев назад

      Ну не знаю у меня райзен 5 5600 32 гига озу и рх 6700 tx работает все норм

    • @Kolambys
      @Kolambys 10 месяцев назад

      Да хотелось бы нвидиа, но тогда в наличии не было

    • @rev_one
      @rev_one  10 месяцев назад

      Пытаются доказать что в сухой производительности в нативе амд "круче" на пару фпс, но всем как то пох))

    • @rev_one
      @rev_one  10 месяцев назад

      5600 и 32гб озу... что бы что...?

    • @uglysyotwan
      @uglysyotwan 10 месяцев назад

      а нафига 32 то?

  • @antonkiselev9792
    @antonkiselev9792 10 месяцев назад

    Автор видео, мне лично вот всё равно кто что берёт, и зря ты так о людях, которые говорят, что 8гб уже мало, говорят, и пусть говорят, ты пользуешься тем, что это ты в интернете так высказываешься, выйди на улицу и такое скажи, то тебе сразу в башню дадут разок другой, да впрочем не совсем в этом дело, во 3060 на 12 гб , чем она плоха, разве 12 гб будут лишними, знаю то, что игр пока мало, но они есть, вот например игра одни из нас, я играю на монике 24 дюйма 1920/1080 75 герц, так вот в этой игре, у меня уже более 8 гб видеопамяти потребляет, условно да, 3060 ти или даже 3070 , у них по 8 гб, они существенно производительнее, но все же я уверен, что у 3060 12 гб не лишние, лайк прожал, так как нравится слушать о компьютерных железяках, удачи тебе в твоём творчестве

    • @rev_one
      @rev_one  10 месяцев назад

      Сносить мне башню за то что я прав? Прикольные мысли...
      Разве я сказал что то плохое про 12/16гб версии видеокарт? Просто факт что 8гб хватает а если есть больше - это круто на будущее.

    • @antonkiselev9792
      @antonkiselev9792 10 месяцев назад

      Да не вопрос, сама подача видео отличная, но вот столько оскорблений, мне почему то показалось лишним, наоборот , почитал бы по приколу этих экспертов, и посмеялся бы, а так да, во многом с тобой согласен, особенно с тем, что кривые руки, с кривыми переходниками, на карту хватило, а на нормальный блок питания нет...)@@rev_one

  • @СергейТрубиленко-з8щ
    @СергейТрубиленко-з8щ 10 месяцев назад

    сам ты подписюнчик

    • @rev_one
      @rev_one  10 месяцев назад

      Звучит хайпово, моим подписчикам понравилось...