Тонкости выбора видеокарты RTX 40. Когда уже Next Gen и причем тут 4К, лучи и DLSS?

Поделиться
HTML-код
  • Опубликовано: 3 июн 2024
  • Нюансы схемотехники Nvidia RTX 4090 4080 4070ti и других видеокарт. Для чего на самом деле нужны 4K, DLSS, RTX и прочее.
    Канал Виктора - 4pc.byツ / @4pc
    Статья о задержках DLSS 3.0 dtf.ru/hard/1571174-long-o-dl...
    #видеокарта #rtx4090 #rtx4080 #rtx4070 #rtx4060 #dlss #dlss3.0 #4k
    0:00 приветствие, вступление (вода, по вашему)
    3:07 4090 и др видеокарты, нюансы
    16:04 о next gene`е, 4к, dlss 3.0, rtx зачем все это?
  • НаукаНаука

Комментарии • 548

  • @gerkonyoutube
    @gerkonyoutube  Год назад +8

    Разогнать/настроить видеокарту, оперативную память, процессор вместе со мной, подобрать ПК и т.п. m.vk.com/gerkonpc?from=groups

    • @maikl_75
      @maikl_75 Год назад

      Скажи в Батлу 2042 тепловизоры завезли?

    • @Denwer1975
      @Denwer1975 Год назад

      @@maikl_75 угу

    • @Igor-Bond
      @Igor-Bond Год назад

      Герконыч, я своему другу так и сказал нафига ты используешь свою старую GTX 1650 на своём 10-ти летнем 23-х дюймовом мониторе Делл, Возьми себе нормальную видеокарту и новый 4К монитор, ну он мне и ответил что уже с зарпалаты в 20 тыщ начал откладывать по 3 тыщи в месяц на новую видеокарту, и монитор, когда накопится нужная сумма он купит себе RTX 4090!

    • @user-ih1ru7fw4g
      @user-ih1ru7fw4g Год назад

      @@Igor-Bond помянем друга

    • @chaserfan5558
      @chaserfan5558 Год назад

      25:08 Панарамикс? Идеафикс?

  • @Voron42_Kem
    @Voron42_Kem Год назад

    Подскажите 4070ti для игр в Full HD, будет достаточно?? Ну и на счёт мыло на Full HD, тут всё зависит от монитора, сижу с монитором Dell на IPS матрице, всё даже очень огонь!

    • @zedzed6859
      @zedzed6859 Год назад

      будет, карта под qhd

  • @dimmonsterr
    @dimmonsterr Год назад +36

    А когда будет видео про тонкости выбора пивасика? Темное и светлое, фильтрованое и прозрачное и так далее. Лайкаем если хотим такой ролик!!!!😮😮😮😮

    • @gerkonyoutube
      @gerkonyoutube  Год назад +3

      на стриме))

    • @iguazu245
      @iguazu245 Год назад +4

      Вот пипец, набирает сколько влезет в сумку и дегустируешь, банки которые не понравились сжимаешь кулаком а которые понравились хранишь на полочке ))

    • @andreystarforce9008
      @andreystarforce9008 Год назад +1

      Да лучше Rodenbach в массмаркете в замкадье все равно ничего нет. Тема закрыта. 😂

    • @sgt.doakes
      @sgt.doakes Год назад +3

      Шо то х*ня, шо это х*ня. ) вот тонкости выбора вашего пивасика 😂

    • @theeltea
      @theeltea Год назад

      В жопу себе свой пивасик сунь, алкаш.

  • @Aleksey_Skynet
    @Aleksey_Skynet Год назад +5

    Ништяк, поздравляю с покупкой, пусть будет верной помощницей в создании полезного контента!

  • @user-nl8ou5nr3c
    @user-nl8ou5nr3c Год назад

    Здравствуй! как вообще видеокарта Palit GameRock Midnight Kaleidoscope GeForce RTX 4080 16GB ?)

  • @WoodlanOs
    @WoodlanOs 2 месяца назад

    А в чем заключается потеря производительности при андервольте? Если ты подберешь для той же частоты, на которую буститься карта в стоке меньшее напряжение

  • @namaz_na_1_meste
    @namaz_na_1_meste Год назад

    Ответь почём взял?
    На Авито купил за 120К без предоплаты или по предоплате?

  • @user-pk2wt4xj2q
    @user-pk2wt4xj2q Год назад +17

    У Викона в обзоре речь шла про 4070ti, ну и как я понимаю на тот момент, производитель имеет право поменять элементную базу в любой момент))), прошу заметить что данные карты после обзора прилично набрала вес по стоимости)))

    • @owl31415
      @owl31415 Год назад

      и начались возвраты...

    • @alexdigixela
      @alexdigixela Год назад +1

      Что за карта? С хорошей базой? Как цена поменялась?

    • @owl31415
      @owl31415 Год назад

      @@alexdigixela palit gamerock classic, одна из самых дешёвых 4070ti

  • @IntexDniwe
    @IntexDniwe Год назад +3

    Только вчера про тебя вспоминал, а новых видосов не было, как рад что не забываешь про нас, почаще бы контента разного завозил, красава!

  • @tokarevsergey83
    @tokarevsergey83 Год назад

    Как думаешь для QHD 3060ti или 6700xt купить, для игр. Проц 11400.

    • @Cooll123pro
      @Cooll123pro Год назад

      если нужен натив то 6700хт, если нужны нарисованные цифарки с легким мыльцом 3060ти

  • @MrJB327
    @MrJB327 Год назад +7

    Многие устанавливают драйверы Нвидии в авто-режиме и даже не в курсе, что вместе с дровами устанавливается PhysX)

  • @effecteskimo4907
    @effecteskimo4907 Год назад +2

    Спасибо за полезный и информативный контент братка !!

  • @blinovmobile
    @blinovmobile Год назад +9

    Привет! Спасибо, как всегда, за хорошее, "ламповое" видео! Карта интересная, но я чет посижу на 3090 до 5090 пока, вроде и "хочется", а с другой стороны "А зачем?". А намеки то надо отзеркаливать чтобы понять! )))) Я то понял про что, но спойлерить не буду ))))

    • @_Dmitry_Pavlov
      @_Dmitry_Pavlov Год назад +1

      3090 ? Ламповая? Да я тебя...(с)

  • @namaz_na_1_meste
    @namaz_na_1_meste Год назад +1

    *20:50** - у тебя самого какой моник?*
    *Я играл на 4К 27" 60 гц и также на 27" 2К 170 гц (оба IPS)*
    *И плотность пикселей такая в 4К, что она избыточна для обычного расстояния 60-90 см от монитора. А вот при любом мувинге (движении) камеры, всё вокруг мылит, т.к. фпс низок 60-70...*
    *В нейтив 2К фпс будет в той же игре около 130-140 и ppi = 110 на 27 дюймах.*

  • @pavelrf1175
    @pavelrf1175 Год назад

    Алексей, интересно на каком конфиге андервольтинга остановился на 4090?

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      У меня на чипе 2820Мгц при 0.975V и память +1500

    • @pavelrf1175
      @pavelrf1175 Год назад

      @@gerkonyoutube я пошел дальше 2655 при 0.9V. Память также 1500

    • @user-yi3pk4zp3w
      @user-yi3pk4zp3w Год назад

      @@gerkonyoutube зачем память трогать? она даже 1 фпс не прибавит :D

  • @mih-on9702
    @mih-on9702 Год назад

    Геркон спасибо за видос, все по делу) Ждемс следующих видео)

  • @user-we7kb6qn5u
    @user-we7kb6qn5u Год назад

    Здравствуйте. А что за монитор у вас для 4К?

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      Не обязательно использовать 4К монитор, достаточно QuadHd, с активной технологией dldsr. На канале есть видео про эту штуку, посмотрите.

  • @sergeysaushkin4167
    @sergeysaushkin4167 Год назад +2

    ООО, здорово дружище, делал у тебя разгон , всегда приятно смотреть твоё видео, спасибо!!!

  • @nickitaabitov1265
    @nickitaabitov1265 Год назад +2

    спасибо ! давайте про 4к мониторы. Что взять дешевле Samsung LS27AG5 ? и что взять лучше Samsung LS27AG5 ? почему VA всё ещё блюрит, и сколько стоит хороший VA/IPS

  • @staslevshenko5573
    @staslevshenko5573 Год назад +1

    Буквально вчера купил монитор 31,5" 2к 165гепц, и как оказалось на нем есть 4к, но только 60герц. При этом везде, даже на оф сайте написано только 2к. Интересно, это на всех подобных мониторах с VA матрицей, или мне так повезло?

  • @TheEhion
    @TheEhion Год назад +2

    такой вопрос, ты говоришь что лучи это не технология для апа картинки, а технология в первую очередь для упрощения разработки и что будучи игра построена полностью на лучах ее было бы проще разрабатывать т.к. меньше нагрузка на человека, но сейчас ведь нет таких игр которые по умолчанию идут ТОЛЬКО на лучах... получается наоборот что разработчик тратит полный запас времени на разработку обычной версии графики, а потом сверху еще и допиливает возможность использования лучей, получается тратится даже больше времени разве нет?

  • @user-ho6pk4rv2w
    @user-ho6pk4rv2w Год назад

    Купил 3060 на 8 гигов для 1 и 2к самое то ну и + 3060 на 12 , 4050 и 4060ti будут 128 битные, куда спешить и зачем?

  • @w4yker
    @w4yker 11 месяцев назад

    Вопрос, если всё же не зелёных, хочу себе rx 7900 xt / xtx купить, просто потому что я играю в натив, без апскейлов и т.д. и без ртх, а у красных производительность намного выше чем у тех же 4070ti и 4080
    Так главный вопрос. какой вендор лучше всего себя зарекомендовал? Есть шарящие?

    • @justchill671
      @justchill671 11 месяцев назад

      Сапфир нитро и powercolor red devil (не путать с red dragon - это галимый дешман). Asus tuf еще, и msi suprim x
      P.S еще есть asus rog но это распространяется и на зеленых, рог впринципе делают самые жирные карты, и цена у них соответствует

  • @_Dmitry_Pavlov
    @_Dmitry_Pavlov Год назад +6

    Я себе купил QHD монитор на 31" ещё когда у меня GTX1066 была, в "Исход" вполне нормально игралось, хорошая детализация гораздо больше впечатляет, чем частота кадров выше пятидесяти-шестидесяти.
    И ещё: не всегда же играешь, иногда и другие дела на компьютере делаешь, а на большом мониторе можно раскидать больше вкладок. Но в этом случае второй монитор всё равно нужен.

  • @Earanak3D
    @Earanak3D Год назад +4

    Кайф... Поздравляю !
    Я вот по рабочим нуждам тоже скоро планирую брать 4090.
    Муки выбора были даже не в плане видеокарты а блока питания.
    В моем регионе было как то совсем уж тяжко с ATX 3.0/PCIE5Gen блоками (я не с РФ).
    Хотелось вот что бы по феншую было, без переходников. С горем пополам удалось найти Биквает Dark Power 13 1000W.
    А так хотелось какой нить Seasonic, эх... Ну надеюсь норм будет. 4090 все равно планирую андервольтить по видосу der8auer-а до ~350вт.
    13900KF на Z790 Tomahawk DDR4 смог придушить до ~235W без потери производительности (LLC7, AC-20, DC-69, VF Point -0.12V, VRM 1000Khz).
    Думаю под эти расклады мне бы и 750вт БП хватило бы. Но решил уж не экономить и с запасом взять ))
    Были еще мысли взять с eBay - A6000 48GB. Она по идее на уровне 3090 +/- 48GB прям очень привлекали для моих нужд.
    Но напрягает турбинный охлад у нее, да и неясно насколько водоблоки подходят к ней от обычных видях.
    В общем решил не надеятся что Хуанг начнет игрунам скармливать 48гб в потребительском сегменте и взять 4090 пока что.

    • @Petbl4
      @Petbl4 Год назад +1

      Я взял таф 490, больше 450w не видел, блок старый оставил, корсайр на кВт, купил родные провода с 2-х 8пин на этот 12whpv или как он там... Итог, 4090 стоит, блок не менял, провода "родные с блока прямо в карту... Думаю у других производителей должны быть такие же провода, посмотри..

    • @Earanak3D
      @Earanak3D Год назад +1

      @@Petbl4 что посмотреть, куда посмотреть ? У меня уже куплен новый БП у которого все по феншую, ATX3.0/PCIE5Gen и родной 12VHPWR 16-ти пиновый. А был у меня 750вт Чифтек бронзовый которому уже лет пять, наверное. И вот с Октября на нем жили - 13900KF, 128GB 3866Mhz/CL16-CR2 Gear1 памяти, три M.2, три HDD, куча пропеллеров, ASUS Strix Soar 6-пин Аудио. И вы хотите что бы я ставил 4090 на этот БП ? Ну уж нет... Спасибо. На такой экстрим я не готов. Потому сразу и купил новый БП с запасом.

    • @Petbl4
      @Petbl4 Год назад +2

      @@Earanak3D друг, ну я хз, что у тебя на нем висело)) просто сказал, что есть провода от производителя))) а сделал ты хорошо, я не смог найти в наличии такие бп, поэтому для меня это был выход. А теперь и не хочу)

  • @moonghost6888
    @moonghost6888 Год назад

    Там разве вся эта видимость деталей не зависит от общей плотности пикселей на дюйм? Условно на 60+ дюймах и 4 к проседать начнет и будет то же мыло и нечёткость

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      Если даже на quadHD мониторе можно получить картинку близкую к 4К, с помощью dldsr, то в нативных 4К явно картинка будет лучше, в независимости от плотности пикселей. Это для фулл хд критично, но не для 4К

  • @PWPvP85
    @PWPvP85 Год назад

    Благодарю за твою честность и прямоту)

  • @sergzub_
    @sergzub_ Год назад +1

    У меня asus strix 4090 , коннектор на второй день , начал лед сигнал гореть , дело не в картах а в том , что только эта стрикса может уходить в почти 650 ват , соответственно качество этих коннекторов , кто держал в руках тот понимает, очень плохое, а особенно переходники на 4 коннектора, которые сходятся в один маленький 16 пин . Немного что-то перегнулось или надломалось , соответственно нагрузка начинает идти по остальным проводам , что при 600+ ват создаёт нагрев , того стриксы так много замечены в прогарах 16пин

  • @VostokDamage
    @VostokDamage Год назад

    Я не понял, Сатир косплеет Схемова?

  • @dmitrynewman6591
    @dmitrynewman6591 Год назад +14

    Круто! С возвращением, Геркон! Жду новых роликов про 40ю линейку , про все новые плюшки и адекватный разбор всей этой хайповой темы с dlss3

  • @Stepan474
    @Stepan474 Год назад +1

    Сделай пожалуйста тесты с разными процессорами на 4/8 ядер, 6/12 ядер, 8/16 ядер! Особенно интересны старые 6ядерники! Ryzen 3600/9600k/8700k! Живо ли ещё 8 поколение?

    • @user-fd2wj3dn5f
      @user-fd2wj3dn5f Год назад +3

      Нет. Время тебе сэкономил. Не благодари, видос можешь не ждать.

    • @Stepan474
      @Stepan474 Год назад +1

      @@user-fd2wj3dn5f спасибо! Я бы посмотрел такой ролик старые процы на 4090, разница поколений!)

  • @stasbabakin1028
    @stasbabakin1028 Год назад +8

    Поздравляю с покупочками, обновлениями, мы заценили! Сам приобрел 4070 Ti, доволен, сидел раньше на 1080Ti 👍
    С некоторым сказанным конечно не согласен (про питальники, про элементы, что тип разницы нет), но рад видеть в эфире

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      А где я сказал, что разницы нет? 😯 Ты не совсем правильно понял мысль ;)

    • @stasbabakin1028
      @stasbabakin1028 Год назад

      @@gerkonyoutube ну к этому подвел, в плане если брак одинаковый, а в стриксах якобы даже больше, чем у Гигабайта, то тип зачем платить больше, если по этой логике, Гигабайт лучшче :)

    • @gerkonyoutube
      @gerkonyoutube  Год назад +1

      Не совсем так. Тут скорее имелось в виду, что покупая "бомж сегмент" не нужно сидеть на панике. Совсем не факт, что соседский рог стрикс проживет дольше, вот в чем суть. Но, чисто теоретически, стриксы конечно должны жить дольше, однако, опять же, на практике, совсем не факт)

    • @stasbabakin1028
      @stasbabakin1028 Год назад

      @@gerkonyoutube Конечно, тут я согласен, что на панике не стоит сидеть, ведь как минимум, ты сэкономил значительную часть деньжищ (учитываю разницу в цене) :) И конечно, не факт, что проживет дольше, но шансы естественно намного выше, так как к примеру, учитываю ту инфу, которую ты озвучил по фазам и деталькам, чем лучше питание, чем оно стабильнее, тем меньше перегрев, меньше всплески и дольше живет чип и все остальное (следую просто логике), тож самое и по мощности, если рассчитано на 1800 ватт (по твоей инфе), а от палита на 800 ватт, то запас огромен, и естественно, в теории, при нагрузке в 30% от стрикса должна прожить дольше (просто логично), ну и плюс нельзя забывать о качестве деталей, там заявлено 800, но далеко не факт, что эта цифра и есть (сравниваю с дешевыми блоками питания, заявлено 850, а держит 650)... С коннекторами также, там же их не Стрикс Асус делает, а другие ребята, и учитываю мощность, которую ты озвучил (1800 ватт), естественно шанс прогара коннектора выше... Плюс учитываю владельцев этих самих карт, кто берет Стриксы, те любят "баловаться" с картами, так как знают, за что платят, и хотят выжать максимум

    • @stasbabakin1028
      @stasbabakin1028 Год назад

      @@gerkonyoutube Но тема очень интересная, с этими якобы отличиями :)) Так как сам выбирал карту 4070 Ti, зашел на канал Викона или Викофа, и там короче все гарты хреновые 😄 Но выбрал от MSI, средний ценовой сегмент, просто из-за охлада и самого имени MSI, внешки

  • @deymas3221
    @deymas3221 Год назад +11

    Спасибо за видео, рад тебя снова видеть!
    По первой части про бомж сегменты, наверное, дополню: бомж сегмент и референсный вариант отличаются от топовых версий того же ASUS не только ценообразованием с учётом более качественной элементной базы. При разгоне топовых версий - легче выиграть в силиконовую лотерею в плане GPU - андервольтинг и разгон почти всегда удивляет, действительно отличными результатами. Только по GPU и памяти можно получить разницу между референсным вариантом и топовым в 20% производительности. Ах да, чуть не забыл - топовые варианты лучше держат частоты, я бы сказал мёртвой хваткой.
    А брак и там и там может быть: по моему опыту дохли MSI, Palit, GIGABYTE. ASUS же ни разу не подвёл на протяжении 15+ лет. Недавно вендором NVIDIA перестал быть хвалёный американский EVGA - все мы помним офигительную историю с контроллером вентиляторов при игре в New World. Буквально на днях Бетатест Диаблы 4 стал убивать 3080 от GIGABYTE - проблема массового характера не только по тому, что этих видеокарт больше на руках у пользователей=)
    То что касается лучшей системы питания с запасом, которая якобы не нужна=) Ну тут очень просто. Примерно тоже самое, что и спор о том: зачем тебе БП на 1200 Вт, если твоя система потребляет всего 800 Вт? Отсутствие запаса мощности при работе на предельных значениях температур и нагрузки во времени, может сказаться на более быстром выходе техники из эксплуатации. В противном случае комфортная температуры цепей питания и прочие качественные компоненты с работой не на износ - могут продлить срок жизни Вашим железкам. А то запихнут дешевых компонентов в схема технику за свою цену и пусть жарится всё там на предельных значениях. Ценообразование продуктов не появляется на ровном месте. Разгон так же зависит от отличной реализации подсистемы питания.
    Про вторую часть видео полностью солидарен: Жалкие отмазки любителей АМУДЭ, чьи видеокарты никому не нужны, так как в Проприетарное технологии мы не могём с искусственным интеллектом. А ценник за открытый код и обычный растровый рендеринг ставим почти такой же, как у технологического конкурента, который вложил гораздо больше денег?! Прикрываясь блин более высокой производительности в голом рендеринге на ватт, хотя и там 40 серия выдала более низкое потребление в играх. Про реализацию RT даже не хочется расписывать - все всё знают и у кого она лучше реализована. Вот, как-то так. Ещё раз спасибо за видео Герыч!

    • @gerkonyoutube
      @gerkonyoutube  Год назад +8

      Спасибо, друг! Рад, что кто-то ждёт мои видосы! Про питальники, лотереи кремниевые и прочее, все верно. Ведь я же не имел ввиду, что кол-во фаз, например, вообще не роляет и возможности питальника рог стриксов полностью бесполезны и никому не нужны. Суть же не в этом была) А в том, что не нужно прям переживать, если выбрали так называемый "бомж сегмент", посмотрев соответствующие видео про их схемотехнику, в сравнении с очевидными топами. Вот вроде бы стараюсь последовательно проговаривать все, что бы четко была ясна основная мысль, но все равно слушателя начинает уводить не в ту степь) Уверен, если бы ты переслушал, то четко бы это понял. Видимо это мой косяк, что какие-то вещи проговариваю недостаточно четко, хотя и стараюсь всех удовлетворить и новичков и, так сказать, ветеранов в этом деле. А теперь просто о разгоне 4090, если тебе конечно интересно. При определённой настройке, все они могут железно держать определенные частоты, т.к. проблемы в лимите мощности нет, которая была на топах 30й линейки, где всегда ограничителем было потребление и частоты гуляли. Кроме того, даже в самых удачных случаях, когда капец как повезло с чипом и памятью (3100Мгц и 25000Мгц соответственно), прирост на удивление малюсенький. При этом карта начинает жрать под 600Вт в определенных сценариях. Не знаю кому это надо, кому-то надо наверное, но точно не тому, кому будет интересно это видео) Так что вопрос остаётся в общей надёжности. И вот по этому поводу я как раз таки и высказался. Даже в видео сказал, что было бы у меня много денег, то конечно я бы взял стриксу какую-нибудь, она безусловно круче Палита и ко. Вот как-то так)

    • @deymas3221
      @deymas3221 Год назад +1

      ​@@gerkonyoutube Разобрались спасибо! Влияние DLSS 3.0 без упора в максимальное потребление немножечко размоет разницу между топовым вариантом и бом ж сегментом - есть такое.
      У самого 3080 ti пока и до пятитысячных и хороших Мониторов OLED, за приличную цену, останусь пока при своих железках. Да и новый Экстремальный ультрафиолет хочется посчупать от синих. Ну и DDR5 к тому времени начнёт выдавать сочный результат за свои деньги.

    • @mih-on9702
      @mih-on9702 Год назад +1

      @@deymas3221 В видео же говорил что и асус тож отлетают, может брак, а может еще что-то. Чел работал или работает в магазине комп железяк+ сборки, уже наверно не одну сотню перелопатил тех или иных вендоров видеокарт как и тесты всяких гпу, цпу. А можно просто покупать одну карту на 3, 5, 10 лет, ну и говорить некогда небыли проблемы с асусом 15 лет))) у меня некогда не были проблемы от слово совсем от гигабайт видеокарт лет 9-10, брал 9, 10, 20-ую линейку видеокарт, но проблемы у гигов есть как и у других, брак, не брак, то да се. Может мне так везет))) знакомому продал свою 1066 от гигабайт 16 года выпуска, и по сей день она у него отлично работает без намека о скорой кончине))) причем так и работает с разгоном памяти +1000мгц и гпу +/- 100, 150мгц что у меня, что у него.

    • @Cooll123pro
      @Cooll123pro Год назад +2

      Правильно потому что даже в FHD в нативе 4050 не вывезет эти RT в играх....и вопрос а почему так? DLSS+FrG это здорово, особенно хорошо на будущее, когда карта уже особо не тянет и добавить кадры можно. но блин нафига сейчас выпускать карты которые годны только с этой фичей? без этих приблуд карты шлак выходят ( говорю с 50-60) это бюджетка и какой никакой мидл сегмент, а они в 2к не могут. 4К это классно, но пока не доступно для многим. тож самое с электрокарами) это круто и замечательно, но почему то ни один производитель не пытается удешевить производство и сделать более доступным) Вся суть выжать больше бабок - пока производитель не пожелает сделать качественно для масс так и будет) Тут просто понимание общей схемы раскрывает карты, тут нет заговора, тут просто бизнес, а бизнес это " бабки, бабки, ....бабки". Стремление к сверхприбыли ведет к тому что шина у 4050 это просто днище Хуанга)

    • @alexdigixela
      @alexdigixela Год назад +1

      А нет где-нибудь таблички, чтоле, с сравнением потенциала разгона одних и тех же карт в зависимости от базы (вендора)?
      Жаль, конечно, что сами вендоры и производители не собирают информацию о продажах/браке/косяках, ведь сейчас такая возможность вполне есть.

  • @MrShadowManiac
    @MrShadowManiac Год назад

    Спасибо за ролик, покушал пельмешек с удовольствием и поздравляю с обновками :) Свою 3080 продал?

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      Продал. За полчаса улетела)

  • @user-qp7nb8lf4b
    @user-qp7nb8lf4b Год назад +1

    Здравствуй Gerkon, дождались тебя. Можешь высказать свое мнение о генераторе кадров, протестить технологию на народных герцовках: из 30-40 получить 60-75, померить при этом задержку. 4090 тяжело загрузить на 99%, но борода прохайтек говорит что при этой загрузке генератор теряет кпд и даёт небольшой прирост. Вообщем нужно твоё профессиональное мнение, в свое время благодаря тебе познал технологию dldsr и научился включать её в играх сони и любой другой)

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      я в описании к этому видео ссылку оставил на хорошую статью, по этому поводу. Там и замеры есть в т.ч. Для нормальной работы генерации кадров, без конской задержки, нужно от 45 фпс примерно что бы было.

    • @user-qp7nb8lf4b
      @user-qp7nb8lf4b Год назад +1

      Досмотрел видос) Статью читал ранее = со многим не согласен. Пока генератор выглядит как технология которая минусит в отзывчивости геймплея чтобы сделать картинку плавнее. Только вот говоришь в кибире всё в край и 120 фпс вместе с фейковыми кадрами, а если грамотно выставить настройки, возможно немного потеряв в качестве картинки и получив 120 процессорозависимых кадров = будет лучше? с точки зрения геймплея? Надеюсь амд выпустят аналог и сам попробую... но складывается ощущение что если у человека моник 60-75 гц, то генератор не нужОн

    • @user-yi3pk4zp3w
      @user-yi3pk4zp3w Год назад +1

      @@user-qp7nb8lf4b Для генерации кадров нужно фпс от 60+, что бы не ощущать пьяную мышь(инпутлаг, ватность,большой отклик на отзывчивость управления). Но есть одно но, если ограничиваешь фпс в игре(ну просто потому что надо для джи синха\фрисинха или просто не хочешь что бы видюха работала в холостую выдавая ненужные 200+ фпс), то ограничивтаь надо строго в дровах видюхи, не риватюнером! ДЛСС3 от риватюнера ломается почему то и начинается дикий инпутлаг, фпс показывает 150+, а по факту 30.

    • @B1GN1ck
      @B1GN1ck Год назад

      Купил 4070ти до апгрейда проца. В ведьмак 3 в Новиграде 10400 захлебывается и выдаёт 30-35 фпс, включил длсс 3, получил 80-90 фпс(вроде так, может больше, просто я сразу ограничил на 60). Задержек по сравнению с нативными 60 фпс (около замка барона проц позволяет вывести 60+ кадров) не заметил. Инпут лаг не ощущается

    • @user-qp7nb8lf4b
      @user-qp7nb8lf4b Год назад

      @@B1GN1ck как при изначальных 35 фпс инпут лаг может не чувствоваться?! Ну и 4070ти к 10400 сомнительное решение... Ну и 35 фпс в ведьмаке 3 = честно = смешно) Нужно разрабам клавиатуру засунуть в одно место, только засовывать её не в доль, а поперёк...
      Тем временем киберпанк, на том же движке, идет на стимдек... Оказывается так можно было

  • @user-gu7hg2ck9i
    @user-gu7hg2ck9i Год назад +2

    Спасибо за видео со здравым мнением, ждём обзор 5800x3d

  • @Mzultar
    @Mzultar Год назад

    Ламповое. Приятное. Спасибо))

  • @sgt.doakes
    @sgt.doakes Год назад

    Всё верно сказал, герыч. Согласен с тобой. Про дилдо как-то пропустил новости, надо тоже попробовать. Спасибо за рекомендацию. 😂

  • @AlexPING_
    @AlexPING_ Год назад

    Всё по полочкам. Молодец👍

  • @susanoo1889
    @susanoo1889 Год назад

    16:40 И как же связаны мониторы и графика?От разрешения улучшаться тени?Освещение выйдет на новый уровень?Или левел дизайн будет потрясать воображение?Или может модельки будут выглядить как в реале?4к не нужен если ты играешь во все игры а не только сингплеерные проекты.

    • @EVREY767
      @EVREY767 Год назад +2

      Глупости не пишите. Поиграв на нормальном 4К мониторе/телевизоре, обратно возвращаться к 1080Р точно не захочется.

    • @gerkonyoutube
      @gerkonyoutube  Год назад +4

      А не проще услышать ответ в ролике, чем здесь спрашивать? Я для чего его делал-то, что бы в комментариях то же самое повторять? 🙂

    • @user-cp1nt8ee8g
      @user-cp1nt8ee8g Год назад

      @@EVREY767 qhd сейчас стандарт для нормальных геймерских сборок. 1080 - это уже совсем бюджетные решения. Чушь не пиши. Что касается 4к - готовь котлету баксов на монитор и видеокарту. Цена ебанутейшая. 60гц для гейминга даже не рассматриваю. Прошлый век.

    • @susanoo1889
      @susanoo1889 Год назад

      @@gerkonyoutube Слушал на фоне,не все детали уловил и прошу прощения,с некоторым не согласен конечно но решил что обязательно попробую ваш совет с технологией апскейла,у меня как раз 2к144 и 3070ти

    • @Fparad0xv
      @Fparad0xv Год назад

      ​​​@@gerkonyoutube присоединюсь к топику, по хорошему хотелось бы видео с тестами и примерами FHD/QHD/4K, не могу понять, каким образом и почему разрешение влияет на графику. Ну или может знаете, кто такое видео уже делал из толковых каналов типа Digital foundry.

  • @user-zw4kb5jw7n
    @user-zw4kb5jw7n Год назад

    Молодец чувствуется искренность 👌

  • @Rus_P.K.
    @Rus_P.K. Год назад +1

    Хорошее и интересное видео 🙂

  • @miha_kakkinen2829
    @miha_kakkinen2829 Год назад

    А что за игра фоном идёт?

  • @user-tt9vf1le7n
    @user-tt9vf1le7n Год назад +7

    Я правильно понимаю, чтобы мне почуствовать этот ваш некст ген, мне нужно взять 4к монитор, видеокарту за 100+к, топовый проц, чтобы видяха не простаивала. памяти хотя бы 32 гига? То есть "немыльная" картинка мне обойдётся больше, чем в 200 тыщ.

    • @Vod1la
      @Vod1la Год назад +2

      И не забывай менять видюху каждое поколение для 4к. А потом 8к подъедет.

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      Ну про FullHD когда-то примерно то же самое можно было сказать. Это лишь дело времени. Суть видео же не в том, что все должны купить 4090 и 4к моник.

    • @user-yi3pk4zp3w
      @user-yi3pk4zp3w Год назад

      Ну да, так что забей.

    • @Mishanya_sibiryak
      @Mishanya_sibiryak Год назад +2

      Ты так говоришь, как-будто 200 тысяч это большие деньги =)

    • @user-tt9vf1le7n
      @user-tt9vf1le7n Год назад +1

      @@Mishanya_sibiryak 😭

  • @sap3634
    @sap3634 Год назад

    Привет земляк. Поздравляю с покупками!

  • @ksemen123
    @ksemen123 Год назад

    Все правильно говоришь! Полностью согласен👍

  • @VnikXum
    @VnikXum Год назад +3

    В статье на ресурсе DTF смешалось в кучу всё - и кони и люди... Статья вроде написана грамотно, но вот например пару логических дыр в ней:
    1) В начале говорится о том, что с инпут лагом под 110 ms нормально играли все и всё было хорошо, что в целом верно, но есть один нюанс - человек такое существо, которое ко всему привыкает. Приведу пример - когда начали появляться высокогерцовые мониторы, многие кричали - нафига, нам хватит 60 Hz, однако в последствии эти же люди посидев за высокогерцовым монитором говорили, что не хотят пересаживаться обратно. Или вот например, раньше играли в 720p, а ещё раньше на приставках. И никто тогда не говорил, что кровь из глаз от пикселей идет, а сейчас 4к уже хорошо и вон детализация с ним лучше... Так же и с инпут-лагом - в статье делается вывод, что если раньше так играли, то значит и сейчас тоже нормально будет, но так тогда вообще можно сказать про что угодно - "раньше так было, всем было норм, значит и сейчас тоже норм". Если человек большую часть времени играет на xbox и ps или на слабой ПК системе - он просто не заметит никакого инпут лага.
    2) "Использование видеокарты от АМД в играх где есть Reflex, увеличивает инпут лаг на 10 - 50 ms" возможно автор хотел сказать, что использование карты Nvidia позволяет уменьшить ипут-лаг, в результате чего он получается меньше при одинаковом FPS по сравнению с AMD? а так звучит как бред.
    Я не хэйтер RT или DLLS и за новые технологии, думаю что наличие лишних настроек всяко лучше, чем их отсутствие. Но как показывает реальность, к сожалению, разработчикам проще положить болт на оптимизацию игры добавить FSR и DLLS а потом сказать, что чтобы игра шла хорошо, надо их включить. Наивно полагать, что если в играх будет легко добавить ray-tracing, то освободившиеся деньги/человекочасы будут потрачены на добавление контента в игру или улучшения баланса или механик. Скорее больше денег издатель заработает. Может быть люди не оценили DLLS3 из-за цен на 4000ю линейку и в частности 4090 и 4080? Ведь на народных картах типа 4060 (надеюсь цена будет хоть как-то приближена к реальности) включение DLLS3 не даст всех преимуществ этой технологии потому что карта будет и так загружена как верно подмечено на DTF.

    • @gerkonyoutube
      @gerkonyoutube  Год назад +1

      сразу сказал, что в статье не все прям идеально, но суть, думаю, передана вполне хорошо

    • @VnikXum
      @VnikXum Год назад

      ​@@gerkonyoutube Верно, просто решил свои 5 копеек внести, какие моменты не очень понравились там)

    • @user-qp7nb8lf4b
      @user-qp7nb8lf4b Год назад +3

      К слову, киберпанк теперь и на стимдек работает... Оказывается так можно было...
      Щя начал plague tale requiem проходить - графон уровня 2017 год (анчартед 4, хорайзен выглядят не хуже, а фпс в 2 раза больше) , ресуросов жрет что ни в себя...
      Зато атомик харт нормально оптимизирована - а че так можно было?

    • @Mishanya_sibiryak
      @Mishanya_sibiryak Год назад +1

      Когда мне начинают затирать про "раньше", я отвечаю: раньше в лаптях ходили =)

  • @rocketbunny8558
    @rocketbunny8558 Год назад +3

    2 месяца назад пересел с 1080 на 1440. ну да покрасивее, но прям "вау" эффекта не было. у жены 1080 моник я за ним спокойно работаю. на работе вообще 720 квадратный, но так же за ним работаю и блевать не тянет. киберпук я прошел в 1080 на низких настройках с 1050ти с длс 1.0. 2 раз прошел его на ультрах в 2к и ниче особо не заметил я. По прежнему считаю, что 3060 или даже 3050 или 6600хт за глаза всем хватит. По прежнему считаю, что на данный момент 4090 - вытягивание бабок.

    • @Mishanya_sibiryak
      @Mishanya_sibiryak Год назад

      Так уж и всем хватит? Мне, например, не хватает. Мне и 1080 не охота и меньше 144 Гц не хочу =)
      При таком раскладе мне и 3080 не хватало. Сейчас 4080 стоит в компе, 1440p и 180Гц. Вроде более мене играбельно. Пока 4к моник не куплю...

  • @bombinbl4
    @bombinbl4 Год назад +1

    Дядька очень здорово вещи говорит) вам бы с ремом совместное что-то замутить)

  • @kbnyashap741
    @kbnyashap741 Год назад

    как ты прав про 4к и длдср

  • @zspellk8707
    @zspellk8707 Год назад

    У меня 4080 карта от палита.Сделал андервольт 0,95V@2760мггц и память +1500.Карта тихая и холодная.
    Но у меня разрешение 3440х1440 и 34 дюйма монитор.Мыла в длсс не вижу,но хватает объектов которые бликуют.
    Например запустите тест киберпанка и обратите внимание на бутылки стоящие в баре на стойке.

    • @user-yi3pk4zp3w
      @user-yi3pk4zp3w Год назад

      память нет смысла гнать, даже если на 10к повысишь, получишь 0 фпс.

  • @Me_UwU_
    @Me_UwU_ Год назад

    Привет геркон!
    С обновкой тебя)
    Длсс не заходит мне, ни в рдр ни в пауке ремастере. Текстуры перерезкие и детальность самих текстур падает, да и вообще без сглаживания играю, лучше детальнее видеть в нативе, а длсс только если реально с фпс проблема

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      Привет, мужик! Спасибо!) Вот мне самому интересно, почему одни люди воспринимают картинку с длсс так, другие иначе. Если конечно это не касается каких-то проблем со зрением. У меня, в этом плане, все четко, но я не вижу никаких перерезкостей, артефактов и подобных неприятностей. Наоборот, выкручиваю, как правило, резкость DLSS почти в максимум. Может на каких-то мониторах конкретных такой эффект возникает, хз..

    • @Me_UwU_
      @Me_UwU_ Год назад

      @@gerkonyoutube У меня хуавей 3440х1440, в рдр включаешь когда длсс он заодно и таа врубает и листва на деревьях превращается в лопухи, особенно на дальней дистанции, и качество на дальней уже заметно падает. Да и как будто зрение падает с длсс, какая то мутная пелена на весь экран. Проблем со зрением нету.

  • @stahlreich
    @stahlreich Год назад

    Ну где за месяц заработать на 4090 интересно узнать! Сделай ролик!

  • @iiSeaWolf
    @iiSeaWolf Год назад +1

    Полезный ролик благодарю. Только по поводу разрешения 4к, dsr, dldsr я лично вообще никакой разницы не вижу с 2к хотя все это уже перепробовал видимо я слепой или еще, что не знаю :)

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      Хм, даже не знаю почему...наверное какие-то особенности зрения. Зато на видеокарту дорогую тратиться нет необходимости)

    • @costea.
      @costea. Год назад

      Сама технология длдср дает детали и отличное сглаживание в играх где нет длсс. Но для фулхд достаточно 1,78 и получить 2к. А для монитора 2к включить также первую ступень

    • @iiSeaWolf
      @iiSeaWolf Год назад

      @@gerkonyoutube Ну я себе 4090 взял и во все проекты с RT играю и вижу сразу разницу, а вот с разрешением вообще не выкупаю разницы, как и с высокой герцовской к слову.

  • @user-fj8lx8cl5c
    @user-fj8lx8cl5c Год назад +2

    Вот только проблема даже 2К разрешения в том, что взяв однажды 2К моник, тебе теперь придется всегда обновлять комп под 2К разрешение, чтобы он его нормально тянул (хотя бы в 60 фпс). Потому что если на 2К монике разрешение понизить до 1080p, то это будет ужасное зрелище, будет даже хуже, чем на 1080p монике. А это значит, что обновлять комп придется ощутимо чаще, т.к. нагрузка при переходе с 1080р на 1440р возрастает в 1.77 раза (количество пикселей, которые необходимо обработать при 1920х1080 и при 2560х1440 - можете сами посчитать). Т.е. условной RTX 3070 хватит не на 5-6 лет комфортного использования, а на года 3, после чего уже придется обновлять видеокарту, что очень сильно бьет по бюджету, особенно в наше время. Так что поэтому сейчас большая часть людей и продолжает сидеть на 1080p, и говорить что ваши эти 2К и 4К не нужны, имея в виду то, что они не нужны именно за те деньги, которые придется для них тратить.
    Понятное дело, что со временем и 2К и потом 4К станет так называемым "стандартом", как это было с 1080p и с 720p. Но произойдет это только тогда, когда когда сборка компа, который потянет эти разрешения, станет общедоступной по цене для большинства людей. Сейчас этого нет.

  • @DimosMos
    @DimosMos 7 месяцев назад +1

    Абсолютно поддерживаю по поводу DLSS и генерации:
    - 4k с DLSS гораздо четче нативного 2K (1440)
    - если без генерации есть 40+ кадров, то генерация кадров не даёт заметной на глаз задержки

  • @qwladkasfog4558
    @qwladkasfog4558 Год назад +3

    По поводу длсс 3.0 и задержек не удивлен. Нвидия только только избавилась от задержек вывода изображения вплоть до 1000 линейки, сам сталкивался на 660 и 980ти. На них 75 кадров выглядят менее плавными чем 60 на рыксах. А если фрисинк подключен, то там и 50 кадров плавнее будут. Это до того меня выбесило, что я с огромной опаской 2060 покупал. Но благо с ней обошлось и картинка такая же плавная, как и была на рыксах. А теперь опять задержки, но благо про эту проблему не промолчали в интернетах как случилось с задержкой вывода кадров, да и длсс 3.0 выключить можно. Осталось только 150к накопить на 4090, и еще 10к на блок питания не помешало бы, ну и еще 5500 ряженку до 5800х3д обновить за 30к, а то че, в киберпанке всего 90 кадров будет.

    • @Neuromancer2023
      @Neuromancer2023 Год назад

      4К гейминг дорогой всё ещё да)

  • @mr.stasichevsky
    @mr.stasichevsky Год назад +1

    Взял 3080 под fullHD монитор и всё вправо, потом на 2к мониторе попробовал DLDSR и теперь с 4к моником всё выглядит потрясающе, в GTA5 как заново поиграл, а думал как старовер, что для игр 2к за глаза хватит)

  • @BadRusMan
    @BadRusMan Год назад +1

    Запоздалое - "Поздравляю!". Сам купил 4090 ZOTAC GAMING AMP Extreme AIRO на релизе и такого плавного рабочего стола я ещё не видел XD
    Но, если без шуток - эта херовина для VR - самое то!
    А насчет задержек DLSS 3 FG - надо включать Reflex и ставить лок ниже Vsync кадров на 3-9, тогда задержки очень низкие становятся. Если, конечно, фпс не прыгает туда сюда супер сильно.
    @Gerkon, с новой матерью ждём хороший тест-разгон через BLCK, благо - она могёт =)

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      Да было бы что гнать, через bclk 🙂

  • @user-pk2wt4xj2q
    @user-pk2wt4xj2q Год назад

    побольше видео товарищь!!!!!!!

  • @Qixis1
    @Qixis1 Год назад +1

    У меня кстати есть старая GTX280 от палит, которой уже больше 10 лет и она до сих пор у брата работает.

  • @user-gd9vy2ze4f
    @user-gd9vy2ze4f Год назад

    а зачем сегодня ам4 платформа была приобретена? не актуально же вроде.

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      У меня была Asus x470 crosshair, предложили эту MSI. С учетом продажи своей я потратил пару тысяч. Учитывая жирность MSI (объективно не нужную правда), почему бы и нет, хоть pci-e 4.0 будет.

    • @Neuromancer2023
      @Neuromancer2023 Год назад

      @@gerkonyoutube Блин я вообще на Asus Prime X370-Pro сейчас покупаю AMD Ryzen 7 5800X3D :) Там pci-e 3.0 но говорят что разница в пару fps будет) Нужно благодарить AMD что вообще есть такая возможность спустя много лет так апгрейднутся...

  • @0uroboros_
    @0uroboros_ 10 месяцев назад

    Вот сейчас перестала работать рх580, и я теперь сижу и думаю что брать на замену... Умерла кста смешно, ибо сама в другом ПК работает, а в моем не выдает изо...
    Есть вариант восстановленной 3070 на заводе с гарантией в 3месяца, или же новая 4060 в ту же цену и вот хз что брать...

  • @osapien8
    @osapien8 Год назад +1

    С 4к и dlss всё понятно, спасибо. Теперь HDR остался, оно нам надо? Вот бы так же доходчиво.

    • @gerkonyoutube
      @gerkonyoutube  Год назад +1

      Для полноценного hdr нужен хороший экран, с яркостью не менее 1000 нит. Все они дорогие весьма. То, что есть в дешёвых не работает как положено. Кроме того, в некоторых играх, hdr реализован коряво изначально. А вообще хорошая штука)

  • @nafex3740
    @nafex3740 Год назад +1

    Great work buddy 👍

  • @Vivicect0r
    @Vivicect0r Год назад +1

    С обновкой! Ваще, 4000 линейка по качеству значительно лучше, чем 3000. Отказались кажись (не видел, не слышал) от сдвоенных фаз (реальное зло). И в целом всё работает, так или иначе. Топовые версии будут тише и гнаться лучше, но стоит ли оно того? С красной стороны, 7900xtx не так стабильно. Референсов бракованных уже кажись и не осталось, но референсы ваще не гонятся из-за питания. Asrock phantom gaming - очень горячий мусор. Высокие лимиты питания, слабый охлад. А остальные нормально сделаны, хорошо.

    • @gerkonyoutube
      @gerkonyoutube  Год назад +1

      Спасибо! В 40й линейке все так же, фазы у всех сдвоенные. В некоторых моделях еще и строенные попадаются.

  • @andrew0ne192
    @andrew0ne192 Год назад

    Асус мониторы подгонит?

  • @alex-cv
    @alex-cv Год назад +4

    Очень понравилось разрешение 3440 на 1440 (21:9), широко, удобно.
    Нормальных 21:9 мониторов в 4к пока нет =/

    • @gerkonyoutube
      @gerkonyoutube  Год назад +2

      для этого и существует dldsr ;)

  • @hospitaller_of_russia
    @hospitaller_of_russia Год назад

    Интересные мысли про разрешение в играх надо признать

  • @gremik6246
    @gremik6246 Год назад

    Спасибо и тебе, пойду дальше чекать твои видео, буду писать тонны комментов. Очень крутой канал, и ведь никто нигде мне не сказал - эй, есть хороший канал. Хочешь его?

  • @user-qg6jh8ct8j
    @user-qg6jh8ct8j Год назад

    Ну вот теперь после этого видео, ремонтяш, точно купит себе rtx 4090 ;) поздравляю с покупкой)

  • @user-fd2wj3dn5f
    @user-fd2wj3dn5f Год назад +3

    Чуж . В ред деад редемпеш 2 консольный порт не для пк. Который ужат в 720п в фул хд. Там не видно деталей не потому что там нет 4к. Просто выставляя 4к ты компенсируешь этот недостаток. Да и игра не очень детализированная. Ты зайди в комнату и присмотрись к деталям. Они довольно всратенькие, это даже как человек без синдрома ваномаса говорю. Там мало полигонов и мыльные текстурки. В некоторых играх есть преимущества, которые можно заметить только в 4к, но таких игр пока крупицы на самом деле. И это далеко не ред деад редемпшен 2

  • @Nikolkabangog
    @Nikolkabangog Год назад +3

    Есть в окружении моем человек который насмотрелся всяких ВИКоФФов и теперь бьет себя пяткой в грудь мол покупать можно только АСУС СТРИКС и МСИ СУПРАЙМ!!! У них компонентная база качественная!!)))))))

  • @Jonniinglish
    @Jonniinglish Год назад +1

    Про физикс, кстати ещё могу добавить: я сегодня переустанавливал дрова на видяху и он там идёт отдельной строкой! А на счёт RTX лучей: они не только облегчают работу разрабам, но и реально делают картинку более живой! Вам любой профессиональный художник или фотограф скажет, что освещение - это большая часть успеха картинки! Так всё что мы видим, это отражённый свет от поверхностей. И если он не искусственно создан, просто точечно распихан по углам, а есть реальное глобальное освещение, с отражениями и перломлениями, то конечная картинка всегда будет выглядеть более живой и настоящей. Если вы не видете разницы, значит вы счастливый человек, значит вам для счастья просто нужно гораздо меньше, а я вижу разницу и мне нужны лучи и всё остальное)

  • @Viktor_Barinov
    @Viktor_Barinov Год назад +1

    Для себя выбрал вариант 4K@60fps, купив 2080Ti в 2019 году. С тех пор на другие разрешения уже никогда не слезу.. но и в онлайншутаки не играю, поэтому 144 герца монитора до сих пор у меня нет. Сейчас продаю 3080Ti и буду брать 4080

    • @St.Basil.
      @St.Basil. Год назад +3

      В 144 герца даже котиков скроллить в интернете приятнее. Без шуток, я аж офигел, когда увидел.

    • @ek2who
      @ek2who Год назад

      4080 после 3080Ti?

    • @Viktor_Barinov
      @Viktor_Barinov Год назад

      @@ek2who да, прирост 30% с доплатой 40 тыс и карта новая, и dlss3.. 4090 слишком дорогая

    • @ek2who
      @ek2who Год назад

      @@Viktor_Barinov 130к напрямую у Ozon.

    • @Viktor_Barinov
      @Viktor_Barinov Год назад

      @@ek2who для меня Озон существует только для покупок мелкой и дешёвой ерунды. Их гарантию за гарантию не считаю. Сталкивался и не только я.

  • @4y6puk1
    @4y6puk1 Год назад +1

    всё таки сложно воспринимать информацию когда картинка игры идёт))
    послушал, задумался взять 4к монитор с 144 герцами... но эт ппц, карта 40 серии чёт уже не кажется такой дорогой :(

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      Если монитор QuadHd, вполне достаточно технологии dldsr. Найдите соответствующее видео на канале, не пожалеете

    • @4y6puk1
      @4y6puk1 Год назад

      @@gerkonyoutube видеокарту просто выбираю, хочется 40 серию, но нужность её на квад хд с 144 герцами вызывает сомнение, но на 30 серии как то сидеть тоже уже не то (учитывая цены авито на то и то , 4070ти до 70 тыр)
      видео посмотрю

  • @androyd
    @androyd Год назад

    50-я обещает самый сильный скачок производительности) Хотел 40-ю брать тоже, но пожалуй пока на 30 до 50 подожду)

  • @Qixis1
    @Qixis1 Год назад +2

    Был монитор 4к 60 Гц. Хотел 144 Гц. Взял квадшд 144 Гц. После 4к картинка на нем такая стремная, что пришлось продать и опять взять 4к.

    • @gerkonyoutube
      @gerkonyoutube  Год назад +1

      У меня примерно такая же история, но обратно на 4к менять не стал, благодаря dldsr. Картинка буквально чуть-чуть хуже чем с нативными 4к, зато 144Гц

  • @stasbabakin1028
    @stasbabakin1028 Год назад +1

    Про 4К, про DLSS, RTX и разрабов полностью согласен, хорошо, что озвучиваешь это! Многие не понимают
    Хотелось бы услышать твоем мнение, про G-Sync, так как года 3 назад, купил моник от Asus, с этой технологией, 165 Герц, 2К, 27 Дюймов и матрицей IPS. Теперь вот присматриваю также с G-Sync, но уже 4К и тоже 165 либо выше, с матрицей IPS, но уже хочу побольше, 32 дюйма (G-Sync есть разный, хотелось бы твое мнение)

    • @_Dmitry_Pavlov
      @_Dmitry_Pavlov Год назад +2

      Многие понимают, но не могут себе позволить, вот и подгорает.
      Как-то давно немного переделывал локацию "Затон" в в X-Ray, а там есть вариант пробной компиляции без просчета теней от источников света для пробы игры в локации, потому что без света локация считалась примерно час, а в конечном качестве могла и больше суток, так вот:
      Естественно без правильных теней игра выглядела так себе, к примеру прямоугольник стены на самом деле из двух треугольных полигонов, верхний треугольник кирпича был к примеру светлый, а нижний строго по диагонали был той же текстуры и темный, цилиндрические предметы вообще из-за разницы казались с треугольными вырезами и т.п.., НО немного побегав для проверки введенных изменений, я даже не сразу заметил, что зрение адаптировалось, и все тени и даже рейтрессинг стал рассчитываться в голове.
      Возможно это не у всех, возможно для этого надо было детстве играть в деревянный кубики прибитые к полу, представляя, что это танки и корабли...

    • @Neuromancer2023
      @Neuromancer2023 Год назад +1

      G-Sync апаратный слишком дорогой всё равно,если у тебя 4070-4090 то хватит любого имхо.
      Какой монитор выбрал?Тоже ищу 31.5-34 дюймовый 4К с G-Sync

    • @stasbabakin1028
      @stasbabakin1028 Год назад

      @@Neuromancer2023 пока не выбрал, сейчас использую ROG SWIFT PG279Q, купленный 3,5 года назад
      Вот хотелось бы по качеству не менее худший, но в 4К и 31-32 Дюйма. Раз уж брать 4К, то побольше 😄

    • @You2Ber42
      @You2Ber42 Год назад

      "Про 4К, про DLSS, RTX и разрабов полностью согласен, хорошо, что озвучиваешь это! Многие не понимают "
      И ты не понимаешь.
      Разрабам от RTX только головняка больше.
      Сейчас у разработв RTX и так есть, они строят сцену и потом на мощных серверах запекают освещение и тени через RTX.
      И дальше уже не нужно это тестировать, ты сразу видишь как оно будет выглядеть в любых условиях.
      Да после прогона RTX рендера, кое где будут косяки с освещением, и нужно будет поставить доп. источники невидимые, это своего рода полировка.
      А вот что бы RTX работал кореректно в реальном времени у игрока, нужно расставить все те же источники, нарисовать все те же модели, только еще и протестировать множество различных комбинаций, расположения источников света, предусмотреть разрушаемость объектов и источников света.
      Т.е. примерно та же самая работа что и перед рендером с запеканием в текстуры но только с гораздо большим количеством неизвестных.
      Уже лет 10 как весь свет и тени в играх считают через RTX а не художники руками, художники если что и делают так это правят косяки RTX, точнее косяки сцены которые выявляет RTX рендер.
      Да полный переход на RTX уберет из пайплайна разработки рендеренг на RTX фермы с запеканием в текстуры, это сэконосит какое то время (но не человеческие ресурсы, так как это все автоматически проиходит).
      Но в целом все последние движки уже и так дают возможность предпросмотра в реальном времени, пусть и в пониженом качестве, так что достаточно каждую ночь делать полный рендер, а в рабочем процессе использовать RTX предпросмор.
      Но в то же время это сильно повысит требования к проработке сцены, так как теперь уже художник не контролирует что именно увидит игрок, могут быть разные настройки (разное качество), разные условия (разбили источник света, принесли новый, разбии стену, загородили окно другим объектом) и.т.п.
      Уже не получится просто подрисовать тень там где по замыслу хуждожника нужна более мрачная атмосфера, нужно будет настраивать свет как это делают операторы при съемке фильма.
      Вообще RTX и Запекание можно сравнить с Живым фото и обработкой фото.
      С живым фото (RTX рендер на стороне игрока) если ты хочешь что бы у твоей модели не былло тени под носом и в морщинах, ты ставишь отражатели, подбираешь температуру света и т.п.
      А вот в фотошопе (запекание в текстуры) ты можешь не особо заморачиваться а нарисовать как тебе нужно.
      При RTX будет часто такая ситуация что например хочется что бы на барной стойке отражались цвета неоновой вывески, но очень сильный свет с потолка портит эффект, тогда ты делаешь свет слабее но тогда темно в баре, и особенно в дальнем углу, тогда тебе нужно поставить источник света еще и туда.
      Запекая в текстуры ты можешь просто обработать результат, добавить насыщенности, поднять контраст и все.
      Да и смоделями персонажей могут быть сложности слементами экипировки котоыре отбрасывают тень, или особенно с лицами.

    • @You2Ber42
      @You2Ber42 Год назад

      ​@@stasbabakin1028 для сингла, а особено игр от сони, нужно брать 43.
      Я вообще не понимаю как можно через эти 23 дюймовые форточки играть в игры типа детройт или хоразен...
      Да я бы даже 55 поставил но места нет.
      Соевновательные, там да запаришься головой крутить :) Для них что то до 32 брать

  • @gremik6246
    @gremik6246 Год назад

    Посоветовали твоё видео посмотреть про линейку 40+, и ... просто приятнее было бы, если бы я смотрел на тебя, а не на геймплей.
    Не знаю, какой характер носит твой канал, я так понял что-то про колду или иже с ним (вообще не играю в шутеры, и в онлайн), но тут просто сидел и смотрел именно на тебя, на твою реакцию когда ты говоришь те, или иные слова, и было интересно (ведь по эмоциям можно сразу понять, как человек относится к тому, или другому), и в маленьком экранчике это было смотреть просто не удобно.
    А так, мимокрокодил, спасибо за видео, всё по пополчкам + сам работаешь в этой сфере, а личный опыт. как говорится, всегда приветствуется.
    Лайк, естесвенно.
    P.S. пошел по каналу, интересно стало что да как, и сразу натыкаюсь - 12400vs12700, а я тут как раз думаю брать 12900... просто как-то... Подпишусь еще пожалуй.
    P.P.S. дошел до момента dls 3.0 и киберпанка.
    Прям недавно видео смотрел, уже не помню кого, но чувак очень здраво рассудил - смотрите, у них был ведьмак 3, и они делали его с забегом наперед, и сейчас он смотрится всё равно хорошо. Без модов, не ремастеред, а даже оригинал смотрится то очень бодро, круто. Конечно, 10 летнюю игру вы сейчас не будете нахваливать но блин... ей 10 лет! 10! и они на своём движке создали невероятную картинку, которая без всяких скайрим модов смотрится и сейчас хорошо.
    Да, каюсь, сам хотел взять 144 гц монитор, и плевать на 2-4к, но твоё видео изменило мой взгляд на этот вопрос. У самого 2060 Super.
    Не думаю обновлять видеокарту в ближайший год-2 точно, но даже так, я просто ради прикола после того, как ты сказал, что можно играть как в 4к на говно мониторе в fullhd, пошел, поставил параметры, и...
    Теперь я хочу, блин, 4к монитор, потому что я наконец то понял, зачем же он нужен. В чем разница была, и хорошо, что популярно объяснил, в чем разница между rtx и без rtx. У меня очень многие знакомые тоже сидят на rtx, и типа такие - ну, и в чем прикол? Я что, в лужи эти смотрю? Оно же и раньше было так.
    Сделай небольшие прям вырезки, и заливай как шот-видео, или как это тут называется, чтобы до людей дошло, что - оно там не всё вот так, как ты думаешь.
    P.P.P.S. Namaste, но ты тут как раз всё проигрываешь в какой то онлайн игре, я хз че это. Но это было печально.

  • @Pekos3
    @Pekos3 8 месяцев назад

    Спасибо боатишка, как то даже спокойней стало! Психолог из тебя вышел бы хороший👍🙂

  • @Valerianich151
    @Valerianich151 Год назад

    В декабре приобрел 4090 Game Rock обычную бес OC, пользуюсь не нарадуюсь. Использую через родной переходник, никаких нареканий к карте нету, работает как часы. С разъемом 12vhpwr все отлично. В играх потребление в среднем 300-350 ватт, карта в стоке. Только Portal RTX и Киберпанк 2077 могут загрузить ее на максимум 450 ватт. Температура чипа 63-64 градуса, хот спот +10. Вертушки даже на 50% не крутятся. В общем отличная карта

    • @user-yi3pk4zp3w
      @user-yi3pk4zp3w Год назад

      сделай андервольт, будет кушать максимум 200-250ватт и холодная.

    • @Valerianich151
      @Valerianich151 Год назад

      @@user-yi3pk4zp3w да и стоковые температуры устраивают, не вижу в этом смысла, карта бесшумная практически а 63 градуса впринциппе нормально считаю, после 1080ти где 80+ были

  • @user-oy7su9ig3d
    @user-oy7su9ig3d Год назад

    Красава👍

  • @dmitrynewman6591
    @dmitrynewman6591 Год назад +1

    Сам являюсь обладателем 4к144гц монитора, и в том же киберпанке без dlss в режиме производительность , моя 3080 не выдает достаточное количество кадров. Но покупка именно 4к была оправдана тем самым эффектом детализации картинки, про что и говорил Геркон. З.ы. планирую теперь продать 3080 и купить 4080.

    • @morti.96
      @morti.96 Год назад +1

      Да лучше подождать 5000 линеку

    • @dmitrynewman6591
      @dmitrynewman6591 Год назад +1

      @@morti.96 тоже об этом задумываюсь, но хочется сейчас и здесь, а не потом и когда-нибудь.

    • @user-yi3pk4zp3w
      @user-yi3pk4zp3w Год назад +4

      @@dmitrynewman6591 Если хочется, то надо брать, хз сколько нам всем тут осталось.

    • @user-sc8vu8ww4q
      @user-sc8vu8ww4q Год назад

      @@user-yi3pk4zp3w недолго уже, смотрел Рен тв, там сказали - или вулкан бахнет, или метеорит прилетит, но точняк - мы фсе умрём.

    • @user-jb8zt3yv2o
      @user-jb8zt3yv2o Год назад

      Купил карту 4080, а монитор 2560*1080 60гц, вот думаю перейти на 4к, вопрос стоит ли брать 144гц или 60 хватит? В кс-ы не играю, так киберпанк, атомик, и т.д.

  • @You2Ber42
    @You2Ber42 Год назад

    PhysX - уже 2 года как только аппаратный у nvidia, 2 года назад ещё был выбор CPU или GPU но потом его убрали и оставили только аппаратное ускорение.

  • @LeonCennedy
    @LeonCennedy Год назад

    Вернулся, ураааа!!
    Срочно требую стрим с реактом на новое большое разоблачение бригмана, там прям мякотки много хорошей :)))

  • @martingerman2457
    @martingerman2457 Год назад

    ахаххахаха - 4090 показалась, поздравляю с железом.
    пс. продолжил просмотр, заранее лайк поставив )

  • @doberlife639
    @doberlife639 Год назад +1

    Со всеми этими мыслями про длсс живу последнее время и единственный человек который мыслит так же это ты, я серьезно, я даже удалился со всех гиг чатов и групп, меня не понимают и не слышат, вечные споры, какая то секта блеать… когда мне говорят что длсс и фср это аналоги, АНАЛОГИ!!! Я хочу человеку глаза выдавить ахахах

  • @namaz_na_1_meste
    @namaz_na_1_meste Год назад +1

    *20:00** - поспорю, лучше 2К 240 гц или 2К 165 гц, чем 4К 120 гц. и тем более 4К 70 гц*
    *Про мыло в движении ты совсем забыл? Фото в статике в игре смотреть пришёл или играть?*
    *8К Красивые пейзажи можно и из гугл скачать.*

  • @Revan83
    @Revan83 Год назад +1

    Про мониторы 4К - а ничего, что на всех видеокартах nVidia, включая 4090, стоят устаревшие порты HDMI и DP, которые не способны без сжатия передавать 4К в 144 fps и выше? Лично я предпочту более высокую герцовку, а не более высокое разрешение. Поэтому для своей системы с 4090 и 13900к я использую монитор QHD 165Гц. Ну а разницы в качестве графики между 4К и QHD на мониторе я не замечаю, разве что шрифты в 4К меньше и их хуже читать)) Почему не использую FullHD? Потому что на 27 дюймах в FHD я вижу пиксели экрана, а на QHD - нет.

  • @cryptotraderneophyte7759
    @cryptotraderneophyte7759 Год назад

    Браво кросавчег рассказал правду матку !

  • @Nikolkabangog
    @Nikolkabangog Год назад +3

    Я уже беспокоится стал, что пропал человек с экранов радара!)) С возвращением!!))

  • @Desdekado
    @Desdekado Год назад +1

    Никто сейчас не играет в 720p или 480p, большинство играет в 1080р, пусть и на минималках, но не ставят 720р разрешение, чтобы выставить настройки графики побольше. Все видят разницу между HD и FullHD. Соответственно и с 2к и 4к так будет. Нужно только подождать, пока народ пересядет на новые мониторы и новые видеокарты. Уже довольно активно пересаживается на 2к мониторы 12,44% (+1,27%), а 4 к мониторы только у 2,73% людей. Большинство же сидят пока на FulHD 65%.

  • @sotniksous9300
    @sotniksous9300 Год назад

    у меня 4070ti и вот подскажите для какого она разрешения??? У меня 2к.

    • @andreyyy1320
      @andreyyy1320 Год назад

      Для любого

    • @andreyyy1320
      @andreyyy1320 Год назад

      Можешь в 8к играть на минимальных настройках в 20 кадров или в 720р и 500фпс

  • @vallence7000
    @vallence7000 Год назад

    вижу геркона - ставлю лайк!

  • @colonel2372
    @colonel2372 Год назад +1

    ну по сути в той которой больше транзисторов ту и надо брать
    Потоковые процессоры же больше на логическую часть на рендер, как нагрузка идет
    А транзисторы отвечают за скорость обработки этой нагрузки не?

  • @Igor-Bond
    @Igor-Bond Год назад +1

    Герконыч ну ты конечно прав, надо брать RTX 4090 и 80 дюймовый 4К 120 герц ТВ, и садится в метре от него, что бы рассматривать все вены и прыщи у глав героев, ну или на реалистичный ручеёк в RDR2 смотреть!

    • @monstr3282
      @monstr3282 Год назад

      Использую 4к Олед 55" 120Гц с 2019года вместо монитора и желания менять на чтото другое до сих пор не возникало.

    • @Igor-Bond
      @Igor-Bond Год назад

      @@monstr3282 Хорошо, а как эта модель называется и в каком магазине её можно купить?

    • @andreyyy1320
      @andreyyy1320 Год назад

      8к, 4к прошлый век 😂😂😂

  • @nikitap.2140
    @nikitap.2140 Год назад +1

    Самое главное, чтобы дросселями не свистела, а так можно брать самую дешевую, темпы +- у всех одинаковые)

  • @You2Ber42
    @You2Ber42 Год назад +1

    ruclips.net/video/N9HGN68zWK4/видео.html
    Ты тут путаешь: "Не будет" и "Вы не заметите".
    А точнее, эти просадки заменятся на артефакты.
    DLSS3 хорошо работает там где и так все хорошо, просто позволяет рисовать повыше цифру. С таким же успехом на g-sync мониторе можно играть и в 40 и в 60 к/с и все будет плавно.
    DLSS3 спасает в 2х случаях:
    1. VR
    2. VSYNC
    По сути все сводится к тому что если к выводу кадра на монитор, кадр не готов, то будет выведен предыдущий, это мы и расцениваем как отсутсвие плавности, так как в этот момент FPS как бы падает в 2 раза, если такое происзодит не часто мы не замечаем, если более регулярно то замечаем уже как неплавную картинку.
    А отклчюать VSYNC не кто не хочет иначе в такие моменты будут разрывы на изображении которые вообще не приятные.
    И вот тут выручает DLSS3 так как тепрерь у нас картинка для вывода всегда есть. Но опять же это работает только на высоких FPS где мы уже не воспринимаем 1 кадр.
    На тех же 40 FPS ошибки в предсказании очень заметны (т.е. DLSS нарисовала один кадр, и он кривой что само по себе плохо, потом приходит от видеокарты нормальный и это еще хуже на контрасте с первым).
    Ну и понятное дело что на input lag это вообще никак не влияет, он будет по честному FPS. При этом 144 мониторы нужны как раз для того что бы максимально снизить инпутлаг.
    А так получается, что в синглы и на 60 можно играть (там вообще все анимации заточены на 60) а в мультик от DLSS3 толку нет.
    Плюс кадры от DLSS3 выведутся только тогда когда не будетр реального кадра для вывода.
    Так что 120 кадров DLSS3 могут смотреться идеально на 60гц мониторе, если игра способна выдавать 50-65 кадров настоящих. При этом те же 144 к/с на мониторе 144 гц при реальных 50-65 к/с будут сыпать артефактами.
    Поэтому если уж говорить о том что "я не вижу артефактов" то нужно говорить и о том какой реальный FPS и какая развертка.
    Напрмиер:
    Игра выдает 55-65 кадров, монитор 75 с G-sync /free sync
    Лучше выбрать честное отобржение кадров на g-sync, что бы исключить артефакты.
    Игра выдает 65-80 кадров, монитор 75 с G-sync /free sync.
    Тут я бы предпочел DLSS3 так как большую часть времени будет выше развертки монитора, и DLSS3 кадров будет мало, что не даст артефактов, зато позволит максимально использовать герцовку матрицы.
    (input lag будет одинаковый что с DLSS3 что без него, что касается плавности то уже 40 и 60 с трудом можно оиличить, 60 и 75 нужно прям приглядываться и уже замедлять, а выше вообще смысл толкьо в понижении input lag, чего опять же DLSS3 дать не может)

  • @MrJB327
    @MrJB327 Год назад +3

    Из всех игр в которые играл с DLSS, артефакты и явно бросающийся в глаза гостинг видел только в War Thunder. Но там DLSS первого поколения вшит. Так что не удивительно. В играх с DLSS второго поколения нужно прям целенаправленно сидеть и искать косяки. Разве что во время релиза игр могут быть явные артефакты, когда дрова ещё допиленные не вышли. Но их можно и без DLSS вагон и маленькую тележку найти. На то и слово такое мерзкое "релиз" =D

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      А я и в Тундре никаких гостингов не вижу в 4К. Они, вроде как, уже давненько на вторую версию dlss перешли

    • @user-yi3pk4zp3w
      @user-yi3pk4zp3w Год назад

      @@gerkonyoutube Есть там гостинг, но иногда, от самзиков на днях видел и от антен танков.

    • @MrJB327
      @MrJB327 Год назад

      @@gerkonyoutube буквально месяц назад играл и был гостинг у падающих деревьев. Причём жёсткий, размазывало листву к чертям, словно это артефакты. Ну мне и DLSS не нужен был, т.к. игра и без него отлично идёт. Просто ради интереса запускал. И это не единичный случай. А систематически происходило. Запускаю с DLSS. Сбиваю в бою деревья. Раз в несколько сбитых деревьев происходит гостинг. Т.е. повторяемость присутствует. Отключаешь DLSS. Всё в норме. Локации использовал одинаковые для сравнения. Может конечно это был баг. Всё-таки на 100% утверждать не могу, что это гостинг от самого DLSS.. Но наблюдал данную картину два патча подряд, с момента покупки RTX 3060.

    • @gerkonyoutube
      @gerkonyoutube  Год назад

      @@MrJB327 да я тоже не спорю, но играю иногда именно с длсс, чисто из-за лучшего сглаживания и как-то не замечаю каких-то проблем с картинкой 🤷‍♂️

    • @MrJB327
      @MrJB327 Год назад

      @@gerkonyoutube значит это был просто баг