Тонкости выбора видеокарты RTX 40. Когда уже Next Gen и причем тут 4К, лучи и DLSS?
HTML-код
- Опубликовано: 3 июн 2024
- Нюансы схемотехники Nvidia RTX 4090 4080 4070ti и других видеокарт. Для чего на самом деле нужны 4K, DLSS, RTX и прочее.
Канал Виктора - 4pc.byツ / @4pc
Статья о задержках DLSS 3.0 dtf.ru/hard/1571174-long-o-dl...
#видеокарта #rtx4090 #rtx4080 #rtx4070 #rtx4060 #dlss #dlss3.0 #4k
0:00 приветствие, вступление (вода, по вашему)
3:07 4090 и др видеокарты, нюансы
16:04 о next gene`е, 4к, dlss 3.0, rtx зачем все это? - Наука
Разогнать/настроить видеокарту, оперативную память, процессор вместе со мной, подобрать ПК и т.п. m.vk.com/gerkonpc?from=groups
Скажи в Батлу 2042 тепловизоры завезли?
@@maikl_75 угу
Герконыч, я своему другу так и сказал нафига ты используешь свою старую GTX 1650 на своём 10-ти летнем 23-х дюймовом мониторе Делл, Возьми себе нормальную видеокарту и новый 4К монитор, ну он мне и ответил что уже с зарпалаты в 20 тыщ начал откладывать по 3 тыщи в месяц на новую видеокарту, и монитор, когда накопится нужная сумма он купит себе RTX 4090!
@@Igor-Bond помянем друга
25:08 Панарамикс? Идеафикс?
Подскажите 4070ti для игр в Full HD, будет достаточно?? Ну и на счёт мыло на Full HD, тут всё зависит от монитора, сижу с монитором Dell на IPS матрице, всё даже очень огонь!
будет, карта под qhd
А когда будет видео про тонкости выбора пивасика? Темное и светлое, фильтрованое и прозрачное и так далее. Лайкаем если хотим такой ролик!!!!😮😮😮😮
на стриме))
Вот пипец, набирает сколько влезет в сумку и дегустируешь, банки которые не понравились сжимаешь кулаком а которые понравились хранишь на полочке ))
Да лучше Rodenbach в массмаркете в замкадье все равно ничего нет. Тема закрыта. 😂
Шо то х*ня, шо это х*ня. ) вот тонкости выбора вашего пивасика 😂
В жопу себе свой пивасик сунь, алкаш.
Ништяк, поздравляю с покупкой, пусть будет верной помощницей в создании полезного контента!
Здравствуй! как вообще видеокарта Palit GameRock Midnight Kaleidoscope GeForce RTX 4080 16GB ?)
А в чем заключается потеря производительности при андервольте? Если ты подберешь для той же частоты, на которую буститься карта в стоке меньшее напряжение
Ответь почём взял?
На Авито купил за 120К без предоплаты или по предоплате?
У Викона в обзоре речь шла про 4070ti, ну и как я понимаю на тот момент, производитель имеет право поменять элементную базу в любой момент))), прошу заметить что данные карты после обзора прилично набрала вес по стоимости)))
и начались возвраты...
Что за карта? С хорошей базой? Как цена поменялась?
@@alexdigixela palit gamerock classic, одна из самых дешёвых 4070ti
Только вчера про тебя вспоминал, а новых видосов не было, как рад что не забываешь про нас, почаще бы контента разного завозил, красава!
Как думаешь для QHD 3060ti или 6700xt купить, для игр. Проц 11400.
если нужен натив то 6700хт, если нужны нарисованные цифарки с легким мыльцом 3060ти
Многие устанавливают драйверы Нвидии в авто-режиме и даже не в курсе, что вместе с дровами устанавливается PhysX)
Спасибо за полезный и информативный контент братка !!
Привет! Спасибо, как всегда, за хорошее, "ламповое" видео! Карта интересная, но я чет посижу на 3090 до 5090 пока, вроде и "хочется", а с другой стороны "А зачем?". А намеки то надо отзеркаливать чтобы понять! )))) Я то понял про что, но спойлерить не буду ))))
3090 ? Ламповая? Да я тебя...(с)
*20:50** - у тебя самого какой моник?*
*Я играл на 4К 27" 60 гц и также на 27" 2К 170 гц (оба IPS)*
*И плотность пикселей такая в 4К, что она избыточна для обычного расстояния 60-90 см от монитора. А вот при любом мувинге (движении) камеры, всё вокруг мылит, т.к. фпс низок 60-70...*
*В нейтив 2К фпс будет в той же игре около 130-140 и ppi = 110 на 27 дюймах.*
Алексей, интересно на каком конфиге андервольтинга остановился на 4090?
У меня на чипе 2820Мгц при 0.975V и память +1500
@@gerkonyoutube я пошел дальше 2655 при 0.9V. Память также 1500
@@gerkonyoutube зачем память трогать? она даже 1 фпс не прибавит :D
Геркон спасибо за видос, все по делу) Ждемс следующих видео)
Здравствуйте. А что за монитор у вас для 4К?
Не обязательно использовать 4К монитор, достаточно QuadHd, с активной технологией dldsr. На канале есть видео про эту штуку, посмотрите.
ООО, здорово дружище, делал у тебя разгон , всегда приятно смотреть твоё видео, спасибо!!!
спасибо ! давайте про 4к мониторы. Что взять дешевле Samsung LS27AG5 ? и что взять лучше Samsung LS27AG5 ? почему VA всё ещё блюрит, и сколько стоит хороший VA/IPS
Буквально вчера купил монитор 31,5" 2к 165гепц, и как оказалось на нем есть 4к, но только 60герц. При этом везде, даже на оф сайте написано только 2к. Интересно, это на всех подобных мониторах с VA матрицей, или мне так повезло?
Что за модель?
@@DearLittleSable Acer Nitro EI322QURP
такой вопрос, ты говоришь что лучи это не технология для апа картинки, а технология в первую очередь для упрощения разработки и что будучи игра построена полностью на лучах ее было бы проще разрабатывать т.к. меньше нагрузка на человека, но сейчас ведь нет таких игр которые по умолчанию идут ТОЛЬКО на лучах... получается наоборот что разработчик тратит полный запас времени на разработку обычной версии графики, а потом сверху еще и допиливает возможность использования лучей, получается тратится даже больше времени разве нет?
Купил 3060 на 8 гигов для 1 и 2к самое то ну и + 3060 на 12 , 4050 и 4060ti будут 128 битные, куда спешить и зачем?
Вопрос, если всё же не зелёных, хочу себе rx 7900 xt / xtx купить, просто потому что я играю в натив, без апскейлов и т.д. и без ртх, а у красных производительность намного выше чем у тех же 4070ti и 4080
Так главный вопрос. какой вендор лучше всего себя зарекомендовал? Есть шарящие?
Сапфир нитро и powercolor red devil (не путать с red dragon - это галимый дешман). Asus tuf еще, и msi suprim x
P.S еще есть asus rog но это распространяется и на зеленых, рог впринципе делают самые жирные карты, и цена у них соответствует
Я себе купил QHD монитор на 31" ещё когда у меня GTX1066 была, в "Исход" вполне нормально игралось, хорошая детализация гораздо больше впечатляет, чем частота кадров выше пятидесяти-шестидесяти.
И ещё: не всегда же играешь, иногда и другие дела на компьютере делаешь, а на большом мониторе можно раскидать больше вкладок. Но в этом случае второй монитор всё равно нужен.
Кайф... Поздравляю !
Я вот по рабочим нуждам тоже скоро планирую брать 4090.
Муки выбора были даже не в плане видеокарты а блока питания.
В моем регионе было как то совсем уж тяжко с ATX 3.0/PCIE5Gen блоками (я не с РФ).
Хотелось вот что бы по феншую было, без переходников. С горем пополам удалось найти Биквает Dark Power 13 1000W.
А так хотелось какой нить Seasonic, эх... Ну надеюсь норм будет. 4090 все равно планирую андервольтить по видосу der8auer-а до ~350вт.
13900KF на Z790 Tomahawk DDR4 смог придушить до ~235W без потери производительности (LLC7, AC-20, DC-69, VF Point -0.12V, VRM 1000Khz).
Думаю под эти расклады мне бы и 750вт БП хватило бы. Но решил уж не экономить и с запасом взять ))
Были еще мысли взять с eBay - A6000 48GB. Она по идее на уровне 3090 +/- 48GB прям очень привлекали для моих нужд.
Но напрягает турбинный охлад у нее, да и неясно насколько водоблоки подходят к ней от обычных видях.
В общем решил не надеятся что Хуанг начнет игрунам скармливать 48гб в потребительском сегменте и взять 4090 пока что.
Я взял таф 490, больше 450w не видел, блок старый оставил, корсайр на кВт, купил родные провода с 2-х 8пин на этот 12whpv или как он там... Итог, 4090 стоит, блок не менял, провода "родные с блока прямо в карту... Думаю у других производителей должны быть такие же провода, посмотри..
@@Petbl4 что посмотреть, куда посмотреть ? У меня уже куплен новый БП у которого все по феншую, ATX3.0/PCIE5Gen и родной 12VHPWR 16-ти пиновый. А был у меня 750вт Чифтек бронзовый которому уже лет пять, наверное. И вот с Октября на нем жили - 13900KF, 128GB 3866Mhz/CL16-CR2 Gear1 памяти, три M.2, три HDD, куча пропеллеров, ASUS Strix Soar 6-пин Аудио. И вы хотите что бы я ставил 4090 на этот БП ? Ну уж нет... Спасибо. На такой экстрим я не готов. Потому сразу и купил новый БП с запасом.
@@Earanak3D друг, ну я хз, что у тебя на нем висело)) просто сказал, что есть провода от производителя))) а сделал ты хорошо, я не смог найти в наличии такие бп, поэтому для меня это был выход. А теперь и не хочу)
Там разве вся эта видимость деталей не зависит от общей плотности пикселей на дюйм? Условно на 60+ дюймах и 4 к проседать начнет и будет то же мыло и нечёткость
Если даже на quadHD мониторе можно получить картинку близкую к 4К, с помощью dldsr, то в нативных 4К явно картинка будет лучше, в независимости от плотности пикселей. Это для фулл хд критично, но не для 4К
Благодарю за твою честность и прямоту)
У меня asus strix 4090 , коннектор на второй день , начал лед сигнал гореть , дело не в картах а в том , что только эта стрикса может уходить в почти 650 ват , соответственно качество этих коннекторов , кто держал в руках тот понимает, очень плохое, а особенно переходники на 4 коннектора, которые сходятся в один маленький 16 пин . Немного что-то перегнулось или надломалось , соответственно нагрузка начинает идти по остальным проводам , что при 600+ ват создаёт нагрев , того стриксы так много замечены в прогарах 16пин
Я не понял, Сатир косплеет Схемова?
Круто! С возвращением, Геркон! Жду новых роликов про 40ю линейку , про все новые плюшки и адекватный разбор всей этой хайповой темы с dlss3
Сделай пожалуйста тесты с разными процессорами на 4/8 ядер, 6/12 ядер, 8/16 ядер! Особенно интересны старые 6ядерники! Ryzen 3600/9600k/8700k! Живо ли ещё 8 поколение?
Нет. Время тебе сэкономил. Не благодари, видос можешь не ждать.
@@user-fd2wj3dn5f спасибо! Я бы посмотрел такой ролик старые процы на 4090, разница поколений!)
Поздравляю с покупочками, обновлениями, мы заценили! Сам приобрел 4070 Ti, доволен, сидел раньше на 1080Ti 👍
С некоторым сказанным конечно не согласен (про питальники, про элементы, что тип разницы нет), но рад видеть в эфире
А где я сказал, что разницы нет? 😯 Ты не совсем правильно понял мысль ;)
@@gerkonyoutube ну к этому подвел, в плане если брак одинаковый, а в стриксах якобы даже больше, чем у Гигабайта, то тип зачем платить больше, если по этой логике, Гигабайт лучшче :)
Не совсем так. Тут скорее имелось в виду, что покупая "бомж сегмент" не нужно сидеть на панике. Совсем не факт, что соседский рог стрикс проживет дольше, вот в чем суть. Но, чисто теоретически, стриксы конечно должны жить дольше, однако, опять же, на практике, совсем не факт)
@@gerkonyoutube Конечно, тут я согласен, что на панике не стоит сидеть, ведь как минимум, ты сэкономил значительную часть деньжищ (учитываю разницу в цене) :) И конечно, не факт, что проживет дольше, но шансы естественно намного выше, так как к примеру, учитываю ту инфу, которую ты озвучил по фазам и деталькам, чем лучше питание, чем оно стабильнее, тем меньше перегрев, меньше всплески и дольше живет чип и все остальное (следую просто логике), тож самое и по мощности, если рассчитано на 1800 ватт (по твоей инфе), а от палита на 800 ватт, то запас огромен, и естественно, в теории, при нагрузке в 30% от стрикса должна прожить дольше (просто логично), ну и плюс нельзя забывать о качестве деталей, там заявлено 800, но далеко не факт, что эта цифра и есть (сравниваю с дешевыми блоками питания, заявлено 850, а держит 650)... С коннекторами также, там же их не Стрикс Асус делает, а другие ребята, и учитываю мощность, которую ты озвучил (1800 ватт), естественно шанс прогара коннектора выше... Плюс учитываю владельцев этих самих карт, кто берет Стриксы, те любят "баловаться" с картами, так как знают, за что платят, и хотят выжать максимум
@@gerkonyoutube Но тема очень интересная, с этими якобы отличиями :)) Так как сам выбирал карту 4070 Ti, зашел на канал Викона или Викофа, и там короче все гарты хреновые 😄 Но выбрал от MSI, средний ценовой сегмент, просто из-за охлада и самого имени MSI, внешки
Спасибо за видео, рад тебя снова видеть!
По первой части про бомж сегменты, наверное, дополню: бомж сегмент и референсный вариант отличаются от топовых версий того же ASUS не только ценообразованием с учётом более качественной элементной базы. При разгоне топовых версий - легче выиграть в силиконовую лотерею в плане GPU - андервольтинг и разгон почти всегда удивляет, действительно отличными результатами. Только по GPU и памяти можно получить разницу между референсным вариантом и топовым в 20% производительности. Ах да, чуть не забыл - топовые варианты лучше держат частоты, я бы сказал мёртвой хваткой.
А брак и там и там может быть: по моему опыту дохли MSI, Palit, GIGABYTE. ASUS же ни разу не подвёл на протяжении 15+ лет. Недавно вендором NVIDIA перестал быть хвалёный американский EVGA - все мы помним офигительную историю с контроллером вентиляторов при игре в New World. Буквально на днях Бетатест Диаблы 4 стал убивать 3080 от GIGABYTE - проблема массового характера не только по тому, что этих видеокарт больше на руках у пользователей=)
То что касается лучшей системы питания с запасом, которая якобы не нужна=) Ну тут очень просто. Примерно тоже самое, что и спор о том: зачем тебе БП на 1200 Вт, если твоя система потребляет всего 800 Вт? Отсутствие запаса мощности при работе на предельных значениях температур и нагрузки во времени, может сказаться на более быстром выходе техники из эксплуатации. В противном случае комфортная температуры цепей питания и прочие качественные компоненты с работой не на износ - могут продлить срок жизни Вашим железкам. А то запихнут дешевых компонентов в схема технику за свою цену и пусть жарится всё там на предельных значениях. Ценообразование продуктов не появляется на ровном месте. Разгон так же зависит от отличной реализации подсистемы питания.
Про вторую часть видео полностью солидарен: Жалкие отмазки любителей АМУДЭ, чьи видеокарты никому не нужны, так как в Проприетарное технологии мы не могём с искусственным интеллектом. А ценник за открытый код и обычный растровый рендеринг ставим почти такой же, как у технологического конкурента, который вложил гораздо больше денег?! Прикрываясь блин более высокой производительности в голом рендеринге на ватт, хотя и там 40 серия выдала более низкое потребление в играх. Про реализацию RT даже не хочется расписывать - все всё знают и у кого она лучше реализована. Вот, как-то так. Ещё раз спасибо за видео Герыч!
Спасибо, друг! Рад, что кто-то ждёт мои видосы! Про питальники, лотереи кремниевые и прочее, все верно. Ведь я же не имел ввиду, что кол-во фаз, например, вообще не роляет и возможности питальника рог стриксов полностью бесполезны и никому не нужны. Суть же не в этом была) А в том, что не нужно прям переживать, если выбрали так называемый "бомж сегмент", посмотрев соответствующие видео про их схемотехнику, в сравнении с очевидными топами. Вот вроде бы стараюсь последовательно проговаривать все, что бы четко была ясна основная мысль, но все равно слушателя начинает уводить не в ту степь) Уверен, если бы ты переслушал, то четко бы это понял. Видимо это мой косяк, что какие-то вещи проговариваю недостаточно четко, хотя и стараюсь всех удовлетворить и новичков и, так сказать, ветеранов в этом деле. А теперь просто о разгоне 4090, если тебе конечно интересно. При определённой настройке, все они могут железно держать определенные частоты, т.к. проблемы в лимите мощности нет, которая была на топах 30й линейки, где всегда ограничителем было потребление и частоты гуляли. Кроме того, даже в самых удачных случаях, когда капец как повезло с чипом и памятью (3100Мгц и 25000Мгц соответственно), прирост на удивление малюсенький. При этом карта начинает жрать под 600Вт в определенных сценариях. Не знаю кому это надо, кому-то надо наверное, но точно не тому, кому будет интересно это видео) Так что вопрос остаётся в общей надёжности. И вот по этому поводу я как раз таки и высказался. Даже в видео сказал, что было бы у меня много денег, то конечно я бы взял стриксу какую-нибудь, она безусловно круче Палита и ко. Вот как-то так)
@@gerkonyoutube Разобрались спасибо! Влияние DLSS 3.0 без упора в максимальное потребление немножечко размоет разницу между топовым вариантом и бом ж сегментом - есть такое.
У самого 3080 ti пока и до пятитысячных и хороших Мониторов OLED, за приличную цену, останусь пока при своих железках. Да и новый Экстремальный ультрафиолет хочется посчупать от синих. Ну и DDR5 к тому времени начнёт выдавать сочный результат за свои деньги.
@@deymas3221 В видео же говорил что и асус тож отлетают, может брак, а может еще что-то. Чел работал или работает в магазине комп железяк+ сборки, уже наверно не одну сотню перелопатил тех или иных вендоров видеокарт как и тесты всяких гпу, цпу. А можно просто покупать одну карту на 3, 5, 10 лет, ну и говорить некогда небыли проблемы с асусом 15 лет))) у меня некогда не были проблемы от слово совсем от гигабайт видеокарт лет 9-10, брал 9, 10, 20-ую линейку видеокарт, но проблемы у гигов есть как и у других, брак, не брак, то да се. Может мне так везет))) знакомому продал свою 1066 от гигабайт 16 года выпуска, и по сей день она у него отлично работает без намека о скорой кончине))) причем так и работает с разгоном памяти +1000мгц и гпу +/- 100, 150мгц что у меня, что у него.
Правильно потому что даже в FHD в нативе 4050 не вывезет эти RT в играх....и вопрос а почему так? DLSS+FrG это здорово, особенно хорошо на будущее, когда карта уже особо не тянет и добавить кадры можно. но блин нафига сейчас выпускать карты которые годны только с этой фичей? без этих приблуд карты шлак выходят ( говорю с 50-60) это бюджетка и какой никакой мидл сегмент, а они в 2к не могут. 4К это классно, но пока не доступно для многим. тож самое с электрокарами) это круто и замечательно, но почему то ни один производитель не пытается удешевить производство и сделать более доступным) Вся суть выжать больше бабок - пока производитель не пожелает сделать качественно для масс так и будет) Тут просто понимание общей схемы раскрывает карты, тут нет заговора, тут просто бизнес, а бизнес это " бабки, бабки, ....бабки". Стремление к сверхприбыли ведет к тому что шина у 4050 это просто днище Хуанга)
А нет где-нибудь таблички, чтоле, с сравнением потенциала разгона одних и тех же карт в зависимости от базы (вендора)?
Жаль, конечно, что сами вендоры и производители не собирают информацию о продажах/браке/косяках, ведь сейчас такая возможность вполне есть.
Спасибо за ролик, покушал пельмешек с удовольствием и поздравляю с обновками :) Свою 3080 продал?
Продал. За полчаса улетела)
Здравствуй Gerkon, дождались тебя. Можешь высказать свое мнение о генераторе кадров, протестить технологию на народных герцовках: из 30-40 получить 60-75, померить при этом задержку. 4090 тяжело загрузить на 99%, но борода прохайтек говорит что при этой загрузке генератор теряет кпд и даёт небольшой прирост. Вообщем нужно твоё профессиональное мнение, в свое время благодаря тебе познал технологию dldsr и научился включать её в играх сони и любой другой)
я в описании к этому видео ссылку оставил на хорошую статью, по этому поводу. Там и замеры есть в т.ч. Для нормальной работы генерации кадров, без конской задержки, нужно от 45 фпс примерно что бы было.
Досмотрел видос) Статью читал ранее = со многим не согласен. Пока генератор выглядит как технология которая минусит в отзывчивости геймплея чтобы сделать картинку плавнее. Только вот говоришь в кибире всё в край и 120 фпс вместе с фейковыми кадрами, а если грамотно выставить настройки, возможно немного потеряв в качестве картинки и получив 120 процессорозависимых кадров = будет лучше? с точки зрения геймплея? Надеюсь амд выпустят аналог и сам попробую... но складывается ощущение что если у человека моник 60-75 гц, то генератор не нужОн
@@user-qp7nb8lf4b Для генерации кадров нужно фпс от 60+, что бы не ощущать пьяную мышь(инпутлаг, ватность,большой отклик на отзывчивость управления). Но есть одно но, если ограничиваешь фпс в игре(ну просто потому что надо для джи синха\фрисинха или просто не хочешь что бы видюха работала в холостую выдавая ненужные 200+ фпс), то ограничивтаь надо строго в дровах видюхи, не риватюнером! ДЛСС3 от риватюнера ломается почему то и начинается дикий инпутлаг, фпс показывает 150+, а по факту 30.
Купил 4070ти до апгрейда проца. В ведьмак 3 в Новиграде 10400 захлебывается и выдаёт 30-35 фпс, включил длсс 3, получил 80-90 фпс(вроде так, может больше, просто я сразу ограничил на 60). Задержек по сравнению с нативными 60 фпс (около замка барона проц позволяет вывести 60+ кадров) не заметил. Инпут лаг не ощущается
@@B1GN1ck как при изначальных 35 фпс инпут лаг может не чувствоваться?! Ну и 4070ти к 10400 сомнительное решение... Ну и 35 фпс в ведьмаке 3 = честно = смешно) Нужно разрабам клавиатуру засунуть в одно место, только засовывать её не в доль, а поперёк...
Тем временем киберпанк, на том же движке, идет на стимдек... Оказывается так можно было
Спасибо за видео со здравым мнением, ждём обзор 5800x3d
Ламповое. Приятное. Спасибо))
Всё верно сказал, герыч. Согласен с тобой. Про дилдо как-то пропустил новости, надо тоже попробовать. Спасибо за рекомендацию. 😂
Всё по полочкам. Молодец👍
16:40 И как же связаны мониторы и графика?От разрешения улучшаться тени?Освещение выйдет на новый уровень?Или левел дизайн будет потрясать воображение?Или может модельки будут выглядить как в реале?4к не нужен если ты играешь во все игры а не только сингплеерные проекты.
Глупости не пишите. Поиграв на нормальном 4К мониторе/телевизоре, обратно возвращаться к 1080Р точно не захочется.
А не проще услышать ответ в ролике, чем здесь спрашивать? Я для чего его делал-то, что бы в комментариях то же самое повторять? 🙂
@@EVREY767 qhd сейчас стандарт для нормальных геймерских сборок. 1080 - это уже совсем бюджетные решения. Чушь не пиши. Что касается 4к - готовь котлету баксов на монитор и видеокарту. Цена ебанутейшая. 60гц для гейминга даже не рассматриваю. Прошлый век.
@@gerkonyoutube Слушал на фоне,не все детали уловил и прошу прощения,с некоторым не согласен конечно но решил что обязательно попробую ваш совет с технологией апскейла,у меня как раз 2к144 и 3070ти
@@gerkonyoutube присоединюсь к топику, по хорошему хотелось бы видео с тестами и примерами FHD/QHD/4K, не могу понять, каким образом и почему разрешение влияет на графику. Ну или может знаете, кто такое видео уже делал из толковых каналов типа Digital foundry.
Молодец чувствуется искренность 👌
Хорошее и интересное видео 🙂
А что за игра фоном идёт?
Battlefield 2042
Я правильно понимаю, чтобы мне почуствовать этот ваш некст ген, мне нужно взять 4к монитор, видеокарту за 100+к, топовый проц, чтобы видяха не простаивала. памяти хотя бы 32 гига? То есть "немыльная" картинка мне обойдётся больше, чем в 200 тыщ.
И не забывай менять видюху каждое поколение для 4к. А потом 8к подъедет.
Ну про FullHD когда-то примерно то же самое можно было сказать. Это лишь дело времени. Суть видео же не в том, что все должны купить 4090 и 4к моник.
Ну да, так что забей.
Ты так говоришь, как-будто 200 тысяч это большие деньги =)
@@Mishanya_sibiryak 😭
Привет земляк. Поздравляю с покупками!
Все правильно говоришь! Полностью согласен👍
В статье на ресурсе DTF смешалось в кучу всё - и кони и люди... Статья вроде написана грамотно, но вот например пару логических дыр в ней:
1) В начале говорится о том, что с инпут лагом под 110 ms нормально играли все и всё было хорошо, что в целом верно, но есть один нюанс - человек такое существо, которое ко всему привыкает. Приведу пример - когда начали появляться высокогерцовые мониторы, многие кричали - нафига, нам хватит 60 Hz, однако в последствии эти же люди посидев за высокогерцовым монитором говорили, что не хотят пересаживаться обратно. Или вот например, раньше играли в 720p, а ещё раньше на приставках. И никто тогда не говорил, что кровь из глаз от пикселей идет, а сейчас 4к уже хорошо и вон детализация с ним лучше... Так же и с инпут-лагом - в статье делается вывод, что если раньше так играли, то значит и сейчас тоже нормально будет, но так тогда вообще можно сказать про что угодно - "раньше так было, всем было норм, значит и сейчас тоже норм". Если человек большую часть времени играет на xbox и ps или на слабой ПК системе - он просто не заметит никакого инпут лага.
2) "Использование видеокарты от АМД в играх где есть Reflex, увеличивает инпут лаг на 10 - 50 ms" возможно автор хотел сказать, что использование карты Nvidia позволяет уменьшить ипут-лаг, в результате чего он получается меньше при одинаковом FPS по сравнению с AMD? а так звучит как бред.
Я не хэйтер RT или DLLS и за новые технологии, думаю что наличие лишних настроек всяко лучше, чем их отсутствие. Но как показывает реальность, к сожалению, разработчикам проще положить болт на оптимизацию игры добавить FSR и DLLS а потом сказать, что чтобы игра шла хорошо, надо их включить. Наивно полагать, что если в играх будет легко добавить ray-tracing, то освободившиеся деньги/человекочасы будут потрачены на добавление контента в игру или улучшения баланса или механик. Скорее больше денег издатель заработает. Может быть люди не оценили DLLS3 из-за цен на 4000ю линейку и в частности 4090 и 4080? Ведь на народных картах типа 4060 (надеюсь цена будет хоть как-то приближена к реальности) включение DLLS3 не даст всех преимуществ этой технологии потому что карта будет и так загружена как верно подмечено на DTF.
сразу сказал, что в статье не все прям идеально, но суть, думаю, передана вполне хорошо
@@gerkonyoutube Верно, просто решил свои 5 копеек внести, какие моменты не очень понравились там)
К слову, киберпанк теперь и на стимдек работает... Оказывается так можно было...
Щя начал plague tale requiem проходить - графон уровня 2017 год (анчартед 4, хорайзен выглядят не хуже, а фпс в 2 раза больше) , ресуросов жрет что ни в себя...
Зато атомик харт нормально оптимизирована - а че так можно было?
Когда мне начинают затирать про "раньше", я отвечаю: раньше в лаптях ходили =)
2 месяца назад пересел с 1080 на 1440. ну да покрасивее, но прям "вау" эффекта не было. у жены 1080 моник я за ним спокойно работаю. на работе вообще 720 квадратный, но так же за ним работаю и блевать не тянет. киберпук я прошел в 1080 на низких настройках с 1050ти с длс 1.0. 2 раз прошел его на ультрах в 2к и ниче особо не заметил я. По прежнему считаю, что 3060 или даже 3050 или 6600хт за глаза всем хватит. По прежнему считаю, что на данный момент 4090 - вытягивание бабок.
Так уж и всем хватит? Мне, например, не хватает. Мне и 1080 не охота и меньше 144 Гц не хочу =)
При таком раскладе мне и 3080 не хватало. Сейчас 4080 стоит в компе, 1440p и 180Гц. Вроде более мене играбельно. Пока 4к моник не куплю...
Дядька очень здорово вещи говорит) вам бы с ремом совместное что-то замутить)
как ты прав про 4к и длдср
У меня 4080 карта от палита.Сделал андервольт 0,95V@2760мггц и память +1500.Карта тихая и холодная.
Но у меня разрешение 3440х1440 и 34 дюйма монитор.Мыла в длсс не вижу,но хватает объектов которые бликуют.
Например запустите тест киберпанка и обратите внимание на бутылки стоящие в баре на стойке.
память нет смысла гнать, даже если на 10к повысишь, получишь 0 фпс.
Привет геркон!
С обновкой тебя)
Длсс не заходит мне, ни в рдр ни в пауке ремастере. Текстуры перерезкие и детальность самих текстур падает, да и вообще без сглаживания играю, лучше детальнее видеть в нативе, а длсс только если реально с фпс проблема
Привет, мужик! Спасибо!) Вот мне самому интересно, почему одни люди воспринимают картинку с длсс так, другие иначе. Если конечно это не касается каких-то проблем со зрением. У меня, в этом плане, все четко, но я не вижу никаких перерезкостей, артефактов и подобных неприятностей. Наоборот, выкручиваю, как правило, резкость DLSS почти в максимум. Может на каких-то мониторах конкретных такой эффект возникает, хз..
@@gerkonyoutube У меня хуавей 3440х1440, в рдр включаешь когда длсс он заодно и таа врубает и листва на деревьях превращается в лопухи, особенно на дальней дистанции, и качество на дальней уже заметно падает. Да и как будто зрение падает с длсс, какая то мутная пелена на весь экран. Проблем со зрением нету.
Ну где за месяц заработать на 4090 интересно узнать! Сделай ролик!
Полезный ролик благодарю. Только по поводу разрешения 4к, dsr, dldsr я лично вообще никакой разницы не вижу с 2к хотя все это уже перепробовал видимо я слепой или еще, что не знаю :)
Хм, даже не знаю почему...наверное какие-то особенности зрения. Зато на видеокарту дорогую тратиться нет необходимости)
Сама технология длдср дает детали и отличное сглаживание в играх где нет длсс. Но для фулхд достаточно 1,78 и получить 2к. А для монитора 2к включить также первую ступень
@@gerkonyoutube Ну я себе 4090 взял и во все проекты с RT играю и вижу сразу разницу, а вот с разрешением вообще не выкупаю разницы, как и с высокой герцовской к слову.
Вот только проблема даже 2К разрешения в том, что взяв однажды 2К моник, тебе теперь придется всегда обновлять комп под 2К разрешение, чтобы он его нормально тянул (хотя бы в 60 фпс). Потому что если на 2К монике разрешение понизить до 1080p, то это будет ужасное зрелище, будет даже хуже, чем на 1080p монике. А это значит, что обновлять комп придется ощутимо чаще, т.к. нагрузка при переходе с 1080р на 1440р возрастает в 1.77 раза (количество пикселей, которые необходимо обработать при 1920х1080 и при 2560х1440 - можете сами посчитать). Т.е. условной RTX 3070 хватит не на 5-6 лет комфортного использования, а на года 3, после чего уже придется обновлять видеокарту, что очень сильно бьет по бюджету, особенно в наше время. Так что поэтому сейчас большая часть людей и продолжает сидеть на 1080p, и говорить что ваши эти 2К и 4К не нужны, имея в виду то, что они не нужны именно за те деньги, которые придется для них тратить.
Понятное дело, что со временем и 2К и потом 4К станет так называемым "стандартом", как это было с 1080p и с 720p. Но произойдет это только тогда, когда когда сборка компа, который потянет эти разрешения, станет общедоступной по цене для большинства людей. Сейчас этого нет.
Абсолютно поддерживаю по поводу DLSS и генерации:
- 4k с DLSS гораздо четче нативного 2K (1440)
- если без генерации есть 40+ кадров, то генерация кадров не даёт заметной на глаз задержки
По поводу длсс 3.0 и задержек не удивлен. Нвидия только только избавилась от задержек вывода изображения вплоть до 1000 линейки, сам сталкивался на 660 и 980ти. На них 75 кадров выглядят менее плавными чем 60 на рыксах. А если фрисинк подключен, то там и 50 кадров плавнее будут. Это до того меня выбесило, что я с огромной опаской 2060 покупал. Но благо с ней обошлось и картинка такая же плавная, как и была на рыксах. А теперь опять задержки, но благо про эту проблему не промолчали в интернетах как случилось с задержкой вывода кадров, да и длсс 3.0 выключить можно. Осталось только 150к накопить на 4090, и еще 10к на блок питания не помешало бы, ну и еще 5500 ряженку до 5800х3д обновить за 30к, а то че, в киберпанке всего 90 кадров будет.
4К гейминг дорогой всё ещё да)
Взял 3080 под fullHD монитор и всё вправо, потом на 2к мониторе попробовал DLDSR и теперь с 4к моником всё выглядит потрясающе, в GTA5 как заново поиграл, а думал как старовер, что для игр 2к за глаза хватит)
Запоздалое - "Поздравляю!". Сам купил 4090 ZOTAC GAMING AMP Extreme AIRO на релизе и такого плавного рабочего стола я ещё не видел XD
Но, если без шуток - эта херовина для VR - самое то!
А насчет задержек DLSS 3 FG - надо включать Reflex и ставить лок ниже Vsync кадров на 3-9, тогда задержки очень низкие становятся. Если, конечно, фпс не прыгает туда сюда супер сильно.
@Gerkon, с новой матерью ждём хороший тест-разгон через BLCK, благо - она могёт =)
Да было бы что гнать, через bclk 🙂
побольше видео товарищь!!!!!!!
У меня кстати есть старая GTX280 от палит, которой уже больше 10 лет и она до сих пор у брата работает.
а зачем сегодня ам4 платформа была приобретена? не актуально же вроде.
У меня была Asus x470 crosshair, предложили эту MSI. С учетом продажи своей я потратил пару тысяч. Учитывая жирность MSI (объективно не нужную правда), почему бы и нет, хоть pci-e 4.0 будет.
@@gerkonyoutube Блин я вообще на Asus Prime X370-Pro сейчас покупаю AMD Ryzen 7 5800X3D :) Там pci-e 3.0 но говорят что разница в пару fps будет) Нужно благодарить AMD что вообще есть такая возможность спустя много лет так апгрейднутся...
Вот сейчас перестала работать рх580, и я теперь сижу и думаю что брать на замену... Умерла кста смешно, ибо сама в другом ПК работает, а в моем не выдает изо...
Есть вариант восстановленной 3070 на заводе с гарантией в 3месяца, или же новая 4060 в ту же цену и вот хз что брать...
С 4к и dlss всё понятно, спасибо. Теперь HDR остался, оно нам надо? Вот бы так же доходчиво.
Для полноценного hdr нужен хороший экран, с яркостью не менее 1000 нит. Все они дорогие весьма. То, что есть в дешёвых не работает как положено. Кроме того, в некоторых играх, hdr реализован коряво изначально. А вообще хорошая штука)
Great work buddy 👍
С обновкой! Ваще, 4000 линейка по качеству значительно лучше, чем 3000. Отказались кажись (не видел, не слышал) от сдвоенных фаз (реальное зло). И в целом всё работает, так или иначе. Топовые версии будут тише и гнаться лучше, но стоит ли оно того? С красной стороны, 7900xtx не так стабильно. Референсов бракованных уже кажись и не осталось, но референсы ваще не гонятся из-за питания. Asrock phantom gaming - очень горячий мусор. Высокие лимиты питания, слабый охлад. А остальные нормально сделаны, хорошо.
Спасибо! В 40й линейке все так же, фазы у всех сдвоенные. В некоторых моделях еще и строенные попадаются.
Асус мониторы подгонит?
Очень понравилось разрешение 3440 на 1440 (21:9), широко, удобно.
Нормальных 21:9 мониторов в 4к пока нет =/
для этого и существует dldsr ;)
Интересные мысли про разрешение в играх надо признать
Спасибо и тебе, пойду дальше чекать твои видео, буду писать тонны комментов. Очень крутой канал, и ведь никто нигде мне не сказал - эй, есть хороший канал. Хочешь его?
Ну вот теперь после этого видео, ремонтяш, точно купит себе rtx 4090 ;) поздравляю с покупкой)
Чуж . В ред деад редемпеш 2 консольный порт не для пк. Который ужат в 720п в фул хд. Там не видно деталей не потому что там нет 4к. Просто выставляя 4к ты компенсируешь этот недостаток. Да и игра не очень детализированная. Ты зайди в комнату и присмотрись к деталям. Они довольно всратенькие, это даже как человек без синдрома ваномаса говорю. Там мало полигонов и мыльные текстурки. В некоторых играх есть преимущества, которые можно заметить только в 4к, но таких игр пока крупицы на самом деле. И это далеко не ред деад редемпшен 2
Есть в окружении моем человек который насмотрелся всяких ВИКоФФов и теперь бьет себя пяткой в грудь мол покупать можно только АСУС СТРИКС и МСИ СУПРАЙМ!!! У них компонентная база качественная!!)))))))
Про физикс, кстати ещё могу добавить: я сегодня переустанавливал дрова на видяху и он там идёт отдельной строкой! А на счёт RTX лучей: они не только облегчают работу разрабам, но и реально делают картинку более живой! Вам любой профессиональный художник или фотограф скажет, что освещение - это большая часть успеха картинки! Так всё что мы видим, это отражённый свет от поверхностей. И если он не искусственно создан, просто точечно распихан по углам, а есть реальное глобальное освещение, с отражениями и перломлениями, то конечная картинка всегда будет выглядеть более живой и настоящей. Если вы не видете разницы, значит вы счастливый человек, значит вам для счастья просто нужно гораздо меньше, а я вижу разницу и мне нужны лучи и всё остальное)
Для себя выбрал вариант 4K@60fps, купив 2080Ti в 2019 году. С тех пор на другие разрешения уже никогда не слезу.. но и в онлайншутаки не играю, поэтому 144 герца монитора до сих пор у меня нет. Сейчас продаю 3080Ti и буду брать 4080
В 144 герца даже котиков скроллить в интернете приятнее. Без шуток, я аж офигел, когда увидел.
4080 после 3080Ti?
@@ek2who да, прирост 30% с доплатой 40 тыс и карта новая, и dlss3.. 4090 слишком дорогая
@@Viktor_Barinov 130к напрямую у Ozon.
@@ek2who для меня Озон существует только для покупок мелкой и дешёвой ерунды. Их гарантию за гарантию не считаю. Сталкивался и не только я.
всё таки сложно воспринимать информацию когда картинка игры идёт))
послушал, задумался взять 4к монитор с 144 герцами... но эт ппц, карта 40 серии чёт уже не кажется такой дорогой :(
Если монитор QuadHd, вполне достаточно технологии dldsr. Найдите соответствующее видео на канале, не пожалеете
@@gerkonyoutube видеокарту просто выбираю, хочется 40 серию, но нужность её на квад хд с 144 герцами вызывает сомнение, но на 30 серии как то сидеть тоже уже не то (учитывая цены авито на то и то , 4070ти до 70 тыр)
видео посмотрю
50-я обещает самый сильный скачок производительности) Хотел 40-ю брать тоже, но пожалуй пока на 30 до 50 подожду)
Был монитор 4к 60 Гц. Хотел 144 Гц. Взял квадшд 144 Гц. После 4к картинка на нем такая стремная, что пришлось продать и опять взять 4к.
У меня примерно такая же история, но обратно на 4к менять не стал, благодаря dldsr. Картинка буквально чуть-чуть хуже чем с нативными 4к, зато 144Гц
Про 4К, про DLSS, RTX и разрабов полностью согласен, хорошо, что озвучиваешь это! Многие не понимают
Хотелось бы услышать твоем мнение, про G-Sync, так как года 3 назад, купил моник от Asus, с этой технологией, 165 Герц, 2К, 27 Дюймов и матрицей IPS. Теперь вот присматриваю также с G-Sync, но уже 4К и тоже 165 либо выше, с матрицей IPS, но уже хочу побольше, 32 дюйма (G-Sync есть разный, хотелось бы твое мнение)
Многие понимают, но не могут себе позволить, вот и подгорает.
Как-то давно немного переделывал локацию "Затон" в в X-Ray, а там есть вариант пробной компиляции без просчета теней от источников света для пробы игры в локации, потому что без света локация считалась примерно час, а в конечном качестве могла и больше суток, так вот:
Естественно без правильных теней игра выглядела так себе, к примеру прямоугольник стены на самом деле из двух треугольных полигонов, верхний треугольник кирпича был к примеру светлый, а нижний строго по диагонали был той же текстуры и темный, цилиндрические предметы вообще из-за разницы казались с треугольными вырезами и т.п.., НО немного побегав для проверки введенных изменений, я даже не сразу заметил, что зрение адаптировалось, и все тени и даже рейтрессинг стал рассчитываться в голове.
Возможно это не у всех, возможно для этого надо было детстве играть в деревянный кубики прибитые к полу, представляя, что это танки и корабли...
G-Sync апаратный слишком дорогой всё равно,если у тебя 4070-4090 то хватит любого имхо.
Какой монитор выбрал?Тоже ищу 31.5-34 дюймовый 4К с G-Sync
@@Neuromancer2023 пока не выбрал, сейчас использую ROG SWIFT PG279Q, купленный 3,5 года назад
Вот хотелось бы по качеству не менее худший, но в 4К и 31-32 Дюйма. Раз уж брать 4К, то побольше 😄
"Про 4К, про DLSS, RTX и разрабов полностью согласен, хорошо, что озвучиваешь это! Многие не понимают "
И ты не понимаешь.
Разрабам от RTX только головняка больше.
Сейчас у разработв RTX и так есть, они строят сцену и потом на мощных серверах запекают освещение и тени через RTX.
И дальше уже не нужно это тестировать, ты сразу видишь как оно будет выглядеть в любых условиях.
Да после прогона RTX рендера, кое где будут косяки с освещением, и нужно будет поставить доп. источники невидимые, это своего рода полировка.
А вот что бы RTX работал кореректно в реальном времени у игрока, нужно расставить все те же источники, нарисовать все те же модели, только еще и протестировать множество различных комбинаций, расположения источников света, предусмотреть разрушаемость объектов и источников света.
Т.е. примерно та же самая работа что и перед рендером с запеканием в текстуры но только с гораздо большим количеством неизвестных.
Уже лет 10 как весь свет и тени в играх считают через RTX а не художники руками, художники если что и делают так это правят косяки RTX, точнее косяки сцены которые выявляет RTX рендер.
Да полный переход на RTX уберет из пайплайна разработки рендеренг на RTX фермы с запеканием в текстуры, это сэконосит какое то время (но не человеческие ресурсы, так как это все автоматически проиходит).
Но в целом все последние движки уже и так дают возможность предпросмотра в реальном времени, пусть и в пониженом качестве, так что достаточно каждую ночь делать полный рендер, а в рабочем процессе использовать RTX предпросмор.
Но в то же время это сильно повысит требования к проработке сцены, так как теперь уже художник не контролирует что именно увидит игрок, могут быть разные настройки (разное качество), разные условия (разбили источник света, принесли новый, разбии стену, загородили окно другим объектом) и.т.п.
Уже не получится просто подрисовать тень там где по замыслу хуждожника нужна более мрачная атмосфера, нужно будет настраивать свет как это делают операторы при съемке фильма.
Вообще RTX и Запекание можно сравнить с Живым фото и обработкой фото.
С живым фото (RTX рендер на стороне игрока) если ты хочешь что бы у твоей модели не былло тени под носом и в морщинах, ты ставишь отражатели, подбираешь температуру света и т.п.
А вот в фотошопе (запекание в текстуры) ты можешь не особо заморачиваться а нарисовать как тебе нужно.
При RTX будет часто такая ситуация что например хочется что бы на барной стойке отражались цвета неоновой вывески, но очень сильный свет с потолка портит эффект, тогда ты делаешь свет слабее но тогда темно в баре, и особенно в дальнем углу, тогда тебе нужно поставить источник света еще и туда.
Запекая в текстуры ты можешь просто обработать результат, добавить насыщенности, поднять контраст и все.
Да и смоделями персонажей могут быть сложности слементами экипировки котоыре отбрасывают тень, или особенно с лицами.
@@stasbabakin1028 для сингла, а особено игр от сони, нужно брать 43.
Я вообще не понимаю как можно через эти 23 дюймовые форточки играть в игры типа детройт или хоразен...
Да я бы даже 55 поставил но места нет.
Соевновательные, там да запаришься головой крутить :) Для них что то до 32 брать
Посоветовали твоё видео посмотреть про линейку 40+, и ... просто приятнее было бы, если бы я смотрел на тебя, а не на геймплей.
Не знаю, какой характер носит твой канал, я так понял что-то про колду или иже с ним (вообще не играю в шутеры, и в онлайн), но тут просто сидел и смотрел именно на тебя, на твою реакцию когда ты говоришь те, или иные слова, и было интересно (ведь по эмоциям можно сразу понять, как человек относится к тому, или другому), и в маленьком экранчике это было смотреть просто не удобно.
А так, мимокрокодил, спасибо за видео, всё по пополчкам + сам работаешь в этой сфере, а личный опыт. как говорится, всегда приветствуется.
Лайк, естесвенно.
P.S. пошел по каналу, интересно стало что да как, и сразу натыкаюсь - 12400vs12700, а я тут как раз думаю брать 12900... просто как-то... Подпишусь еще пожалуй.
P.P.S. дошел до момента dls 3.0 и киберпанка.
Прям недавно видео смотрел, уже не помню кого, но чувак очень здраво рассудил - смотрите, у них был ведьмак 3, и они делали его с забегом наперед, и сейчас он смотрится всё равно хорошо. Без модов, не ремастеред, а даже оригинал смотрится то очень бодро, круто. Конечно, 10 летнюю игру вы сейчас не будете нахваливать но блин... ей 10 лет! 10! и они на своём движке создали невероятную картинку, которая без всяких скайрим модов смотрится и сейчас хорошо.
Да, каюсь, сам хотел взять 144 гц монитор, и плевать на 2-4к, но твоё видео изменило мой взгляд на этот вопрос. У самого 2060 Super.
Не думаю обновлять видеокарту в ближайший год-2 точно, но даже так, я просто ради прикола после того, как ты сказал, что можно играть как в 4к на говно мониторе в fullhd, пошел, поставил параметры, и...
Теперь я хочу, блин, 4к монитор, потому что я наконец то понял, зачем же он нужен. В чем разница была, и хорошо, что популярно объяснил, в чем разница между rtx и без rtx. У меня очень многие знакомые тоже сидят на rtx, и типа такие - ну, и в чем прикол? Я что, в лужи эти смотрю? Оно же и раньше было так.
Сделай небольшие прям вырезки, и заливай как шот-видео, или как это тут называется, чтобы до людей дошло, что - оно там не всё вот так, как ты думаешь.
P.P.P.S. Namaste, но ты тут как раз всё проигрываешь в какой то онлайн игре, я хз че это. Но это было печально.
Спасибо боатишка, как то даже спокойней стало! Психолог из тебя вышел бы хороший👍🙂
В декабре приобрел 4090 Game Rock обычную бес OC, пользуюсь не нарадуюсь. Использую через родной переходник, никаких нареканий к карте нету, работает как часы. С разъемом 12vhpwr все отлично. В играх потребление в среднем 300-350 ватт, карта в стоке. Только Portal RTX и Киберпанк 2077 могут загрузить ее на максимум 450 ватт. Температура чипа 63-64 градуса, хот спот +10. Вертушки даже на 50% не крутятся. В общем отличная карта
сделай андервольт, будет кушать максимум 200-250ватт и холодная.
@@user-yi3pk4zp3w да и стоковые температуры устраивают, не вижу в этом смысла, карта бесшумная практически а 63 градуса впринциппе нормально считаю, после 1080ти где 80+ были
Красава👍
Сам являюсь обладателем 4к144гц монитора, и в том же киберпанке без dlss в режиме производительность , моя 3080 не выдает достаточное количество кадров. Но покупка именно 4к была оправдана тем самым эффектом детализации картинки, про что и говорил Геркон. З.ы. планирую теперь продать 3080 и купить 4080.
Да лучше подождать 5000 линеку
@@morti.96 тоже об этом задумываюсь, но хочется сейчас и здесь, а не потом и когда-нибудь.
@@dmitrynewman6591 Если хочется, то надо брать, хз сколько нам всем тут осталось.
@@user-yi3pk4zp3w недолго уже, смотрел Рен тв, там сказали - или вулкан бахнет, или метеорит прилетит, но точняк - мы фсе умрём.
Купил карту 4080, а монитор 2560*1080 60гц, вот думаю перейти на 4к, вопрос стоит ли брать 144гц или 60 хватит? В кс-ы не играю, так киберпанк, атомик, и т.д.
PhysX - уже 2 года как только аппаратный у nvidia, 2 года назад ещё был выбор CPU или GPU но потом его убрали и оставили только аппаратное ускорение.
Вернулся, ураааа!!
Срочно требую стрим с реактом на новое большое разоблачение бригмана, там прям мякотки много хорошей :)))
ахаххахаха - 4090 показалась, поздравляю с железом.
пс. продолжил просмотр, заранее лайк поставив )
Со всеми этими мыслями про длсс живу последнее время и единственный человек который мыслит так же это ты, я серьезно, я даже удалился со всех гиг чатов и групп, меня не понимают и не слышат, вечные споры, какая то секта блеать… когда мне говорят что длсс и фср это аналоги, АНАЛОГИ!!! Я хочу человеку глаза выдавить ахахах
*20:00** - поспорю, лучше 2К 240 гц или 2К 165 гц, чем 4К 120 гц. и тем более 4К 70 гц*
*Про мыло в движении ты совсем забыл? Фото в статике в игре смотреть пришёл или играть?*
*8К Красивые пейзажи можно и из гугл скачать.*
Про мониторы 4К - а ничего, что на всех видеокартах nVidia, включая 4090, стоят устаревшие порты HDMI и DP, которые не способны без сжатия передавать 4К в 144 fps и выше? Лично я предпочту более высокую герцовку, а не более высокое разрешение. Поэтому для своей системы с 4090 и 13900к я использую монитор QHD 165Гц. Ну а разницы в качестве графики между 4К и QHD на мониторе я не замечаю, разве что шрифты в 4К меньше и их хуже читать)) Почему не использую FullHD? Потому что на 27 дюймах в FHD я вижу пиксели экрана, а на QHD - нет.
Браво кросавчег рассказал правду матку !
Я уже беспокоится стал, что пропал человек с экранов радара!)) С возвращением!!))
Никто сейчас не играет в 720p или 480p, большинство играет в 1080р, пусть и на минималках, но не ставят 720р разрешение, чтобы выставить настройки графики побольше. Все видят разницу между HD и FullHD. Соответственно и с 2к и 4к так будет. Нужно только подождать, пока народ пересядет на новые мониторы и новые видеокарты. Уже довольно активно пересаживается на 2к мониторы 12,44% (+1,27%), а 4 к мониторы только у 2,73% людей. Большинство же сидят пока на FulHD 65%.
у меня 4070ti и вот подскажите для какого она разрешения??? У меня 2к.
Для любого
Можешь в 8к играть на минимальных настройках в 20 кадров или в 720р и 500фпс
вижу геркона - ставлю лайк!
ну по сути в той которой больше транзисторов ту и надо брать
Потоковые процессоры же больше на логическую часть на рендер, как нагрузка идет
А транзисторы отвечают за скорость обработки этой нагрузки не?
Герконыч ну ты конечно прав, надо брать RTX 4090 и 80 дюймовый 4К 120 герц ТВ, и садится в метре от него, что бы рассматривать все вены и прыщи у глав героев, ну или на реалистичный ручеёк в RDR2 смотреть!
Использую 4к Олед 55" 120Гц с 2019года вместо монитора и желания менять на чтото другое до сих пор не возникало.
@@monstr3282 Хорошо, а как эта модель называется и в каком магазине её можно купить?
8к, 4к прошлый век 😂😂😂
Самое главное, чтобы дросселями не свистела, а так можно брать самую дешевую, темпы +- у всех одинаковые)
ruclips.net/video/N9HGN68zWK4/видео.html
Ты тут путаешь: "Не будет" и "Вы не заметите".
А точнее, эти просадки заменятся на артефакты.
DLSS3 хорошо работает там где и так все хорошо, просто позволяет рисовать повыше цифру. С таким же успехом на g-sync мониторе можно играть и в 40 и в 60 к/с и все будет плавно.
DLSS3 спасает в 2х случаях:
1. VR
2. VSYNC
По сути все сводится к тому что если к выводу кадра на монитор, кадр не готов, то будет выведен предыдущий, это мы и расцениваем как отсутсвие плавности, так как в этот момент FPS как бы падает в 2 раза, если такое происзодит не часто мы не замечаем, если более регулярно то замечаем уже как неплавную картинку.
А отклчюать VSYNC не кто не хочет иначе в такие моменты будут разрывы на изображении которые вообще не приятные.
И вот тут выручает DLSS3 так как тепрерь у нас картинка для вывода всегда есть. Но опять же это работает только на высоких FPS где мы уже не воспринимаем 1 кадр.
На тех же 40 FPS ошибки в предсказании очень заметны (т.е. DLSS нарисовала один кадр, и он кривой что само по себе плохо, потом приходит от видеокарты нормальный и это еще хуже на контрасте с первым).
Ну и понятное дело что на input lag это вообще никак не влияет, он будет по честному FPS. При этом 144 мониторы нужны как раз для того что бы максимально снизить инпутлаг.
А так получается, что в синглы и на 60 можно играть (там вообще все анимации заточены на 60) а в мультик от DLSS3 толку нет.
Плюс кадры от DLSS3 выведутся только тогда когда не будетр реального кадра для вывода.
Так что 120 кадров DLSS3 могут смотреться идеально на 60гц мониторе, если игра способна выдавать 50-65 кадров настоящих. При этом те же 144 к/с на мониторе 144 гц при реальных 50-65 к/с будут сыпать артефактами.
Поэтому если уж говорить о том что "я не вижу артефактов" то нужно говорить и о том какой реальный FPS и какая развертка.
Напрмиер:
Игра выдает 55-65 кадров, монитор 75 с G-sync /free sync
Лучше выбрать честное отобржение кадров на g-sync, что бы исключить артефакты.
Игра выдает 65-80 кадров, монитор 75 с G-sync /free sync.
Тут я бы предпочел DLSS3 так как большую часть времени будет выше развертки монитора, и DLSS3 кадров будет мало, что не даст артефактов, зато позволит максимально использовать герцовку матрицы.
(input lag будет одинаковый что с DLSS3 что без него, что касается плавности то уже 40 и 60 с трудом можно оиличить, 60 и 75 нужно прям приглядываться и уже замедлять, а выше вообще смысл толкьо в понижении input lag, чего опять же DLSS3 дать не может)
Из всех игр в которые играл с DLSS, артефакты и явно бросающийся в глаза гостинг видел только в War Thunder. Но там DLSS первого поколения вшит. Так что не удивительно. В играх с DLSS второго поколения нужно прям целенаправленно сидеть и искать косяки. Разве что во время релиза игр могут быть явные артефакты, когда дрова ещё допиленные не вышли. Но их можно и без DLSS вагон и маленькую тележку найти. На то и слово такое мерзкое "релиз" =D
А я и в Тундре никаких гостингов не вижу в 4К. Они, вроде как, уже давненько на вторую версию dlss перешли
@@gerkonyoutube Есть там гостинг, но иногда, от самзиков на днях видел и от антен танков.
@@gerkonyoutube буквально месяц назад играл и был гостинг у падающих деревьев. Причём жёсткий, размазывало листву к чертям, словно это артефакты. Ну мне и DLSS не нужен был, т.к. игра и без него отлично идёт. Просто ради интереса запускал. И это не единичный случай. А систематически происходило. Запускаю с DLSS. Сбиваю в бою деревья. Раз в несколько сбитых деревьев происходит гостинг. Т.е. повторяемость присутствует. Отключаешь DLSS. Всё в норме. Локации использовал одинаковые для сравнения. Может конечно это был баг. Всё-таки на 100% утверждать не могу, что это гостинг от самого DLSS.. Но наблюдал данную картину два патча подряд, с момента покупки RTX 3060.
@@MrJB327 да я тоже не спорю, но играю иногда именно с длсс, чисто из-за лучшего сглаживания и как-то не замечаю каких-то проблем с картинкой 🤷♂️
@@gerkonyoutube значит это был просто баг