-Шел 2023й год, люди до сих пор удивлялись бесконечному горизонту жадности Куртки.- Ага, удивлялись и шли покупать дешёвые карты Радеон от АМД, за 500-600 долларов из серии RX 7900, а что бы игры на них не тормозили, они выбивали себе оба глаза! 😄😅🤣
Меня цены еще на 10** поколение настолько поразили что до сих пор не отпускает. Глядя как средняя карта с РРЦ в 200 басов превратилась за 4 года в 400 возникает вопрос - это что такая сильная инфляция в США или остальному населению планеты так резко и сильно подняли ЗП?
Замена 1060 это 1660, 3050. 2060 и особенно 2060s это карты другого класса по сравнению с 1060, начнем хотя бы с того, что гпу 2060s в два с лишним раза больше по площади чем у 1060.
Плата за технологии, если при 14нм кремниевая пластина на 300мм^2стоит 900дол/шт то при 4нм 22тыс/дол и количество чипов с пластины не покрывает разницы в цене😅
@@danitch6848 да ты прав, только размер трафарета существенно не менялся , за счёт уменьшения разрешающей способности , растет итоговый размер кристалла, без существенных издержек,
Я из обзоров 4070 увидел, что мы получаем производительность 3080 при энергопотреблении в районе 200Вт, против ~300Вт у 3080. Все ) А технически это получилось благодаря тому, что новый техпроцесс 4нм (в купэ с доработками архитектуры) позволил чипам работать на в полтора раза большей частоте (чем в прошлом поколении), а так, обе, 3070-4070 имеют по 5888SPU.
прикиньте в начале 3070 разрывала в клочья 2080ти за счет производительности и цены? а теперь смотрите, 2080ти переиграет 3070ую за счёт видеопамяти ( у 3070 8 гб, а у 2080ти 11 гб ). прикиньте, да?
@@ИванВащенко-я7п Аварийный аварийный. Покатайся на нём на постоянной основе заметишь. И это несмотря на то что он у тебя в машине овердрайв только по маркетингу. Чтоб слупить с твоей жопки чуть больше денег за эту "классную" фишечку.
я себе ноут взял на 3070 буквально неделю назад. а до этого у меня был ноут на 1050. щас сижу на 3070 и в зуму играю. шарики пык-пык...бздынь-бздынь! пика-чака-зума! капец наркоманская игра. затягивает круче героина. вот для чего 3070 нужна оказывается. у меня там киберпанк и атомик харт куплены. я их купил чтоб новый ноут опробовать. опробовал. все летает на ультрах. и дальше я снова в зуму играю. довольный как слон. теперь могу всем хвалиться что у меня киберпанк летает. правда я в него не играл но знаю что могу и что он летает. кароч такой себе игрун из меня...
@Dungeon Master_72 я вот взял себе 2к Моник, разница заметна и подобная карта даже доту не вытянет. Хз как ты прошел киберпранк, но удовольствия визуального от этого вряд-ли получил
@@TheSK1PP кто прошел киберпанк? я прошел? я его только запустил и фпс посмотрел и температуру проца и видюхи и поиграл минут 15 и забросил. а то что там в2к разниц увидно..знаешь я этого не понимаю.. я разницу видел когда с денди на сегу перешел. потом видел разницу когда с сеги на первый пентиум. после 360го иксбокса я разницы все меньше и меньше замечал с каждым новым поколением консолей и процессоров. а когда мне говорят что есть разница между фулл хд и 2к и 4к то я просто ржу с этого. честно. это просто смешно. нукак бы разница-то мож и есть.. только не стоит она тех денег которые за нее просят. совершенно точно я не куплю ни новый комп ни новую приставку для того чтоб поиграть в киберпанк в 4к вместо фулл хд. графодрочерство какпо мне это тупиковая ветвь. когда все игрыстанут в4к тогда что? на8к дрочить начнешь? на16к? графика в игре это последнее что влияет на вовлечение. продажи нинтендо свитч в доказательство данной теории. вот честно... не знаю зачем новый ноут купил..сам не понимаю...лучше бы за эти деньги купил бы стимдек и прошитый свитч. это хоть новый опыт был бы... а теперь сижу с новым мощным ноутом и смотрю ютюб и в зуму играю...
2049 год, голографическая Куртка предлогает за 1000 кредитов купить его ИИ рассказ: ты закрываешь глаза и представляеш как у тебя все ультра, 1000 фпс летает Ведьмак 2077🤤
Как геймер, с одной стороны, соглашусь что rt override не так явно влияет если не знать, как вообще работает освещение. С другой стороны, как человек, который в 2011 году в 3дмаксе, с помощью maxvell render рендерил трассировкой пути одну картинку, разрешением 512*512, в течении 4 с половиной часов, а сейчас вижу эту же трассировку пути в реальном времени в FHD могу сказать только одно: ни**я себе!
@@ТоварищНовосельцев-ф8д я довольно давно перестал заниматься графикой) какое-то время ещё следил, удивлялся ещё, что появляются продукты, задействующие видеокарту. но до риалтайма всё равно не дотягивало
Я вот специально в киберпунке сравнивал растр с овердрайвом. Разница на лицо, как бы ни старались художники cdpr руками расставлять освещение. Недостатки растра лезут со всех щелей. С другой стороны, и недостатки овердрайва тоже лезут - слишком много шумов и лагов в тенях
@@PhilosophicalSock в том и дело, что специально. Для скринов и видосов - это топ технология, но в игре отличия между стандартной трассировкой и новой вообще незаметны, может в паре сцен отметишь, что стало лучше и все.
Надеюсь лет 5-10 ещё не будет технического прорыва в видеокартах, чтобы разработчики игр начали выдаивать не мощности видеокарты, а оптимизацию, для повышения качества графики
Когда вышли видеокарты 3000-й серии, появились слухи, что следующее поколение будет невероятным прорывом, такие же слухи появились недавно про 5000-ю серию. И вот оказывается, что 4000 действительно стала прорывом, но не столько по производительности, сколько по уровню цен. Что же будет с 5000 серией.
40 серия и стала прорывом, просто гни выпустили старшие линейки карт на младших чипах. 4070ti не что иное, как 4060. А 4080 не на топовом чипе, то, что должно было стать 4070ti.
@@DhuXn Этип топом пользуеттся меньшенство. К тому же там прирост и за счёт размера и видимо за счёт увеличения стоимости компонентов. Так то можно 2-х метровую карту за 10К долларов сделать и тоже будет прирост. У 3000 серии был серьезный прирост у средних по цене карт.
Ага. Я тв продавал 4к, ещё году этак в 2016 и тогда не было контента и было понятно что х вам а не контент. Мы продавцы думали ну вот, вот отключат аналоговое тв и запретят на продажи тв без DVBT2 тюнера. Но хер там каналам на цифру 1080р дорого переходить да и аналоговых тв а стране до куя. Контента нет Блю рей де факто мёртв, дорого да и онлайн сервисы а там и 720-1080 потянет. Вот и с играми такая же примерно куйня. P.S тв уже тогда могли картинку дорисовывать кадры из библиотеки добавлять😅
Я фиксил разрывы экрана через панель инвидиа.В параметрах 3д найдите "вертикальный синхроимпуль" и там поставьте "быстрый" тем самым разрывы пропадут.Не забудьте перезайти с игры. P.S. в рдр2 не помогло,в киберпанке работает
На мониторе с VRR/Г-синк/Фри-синк нет проблем. Я хз откуда они ее выдумали, в очередной раз собрали все проблемы из инета которые случились у 3 человек из 100000 и выдали это как проблемы.
За большие деньги с вашего кармана Нвидия готова избавить пользователей от тормозов, зависаний и проблем... тех проблем которые она же и создает своими чудесными лучами. Как говориться если вам хорошо живется без проблем, мы вам поможем и организуем их на ровном месте))
Никто не мешает вам купить карту от AMD, которые сейчас сильно дешевле, и никаких лучей и dlss у вас не будет. А нет лучей - нет проблем, по вашей логике.
Лучи - ненужная игрушка. У меня видеокарта 30й серии и лучи отключены абсолютно везде. Я ведь играть пришел, а не смотреть графический бенчмарк с сюжетом. Во время игры на эти отражения, тени и т.д. просто не обращаешь внимания уже спустя 10 минут геймплея.
@@draackul Как это не будет? А чего там (у амд) тогда русским по белому написано "Поддержка трассировки лучей - есть" в спецификациях? Тем более у них там своя амд - шная технология вместо длсс -ки вроде есть, хрен правда знаю как она там называется. Там тоже производитель не прочь денюжку покрупнее ухватить, рассказав сказки о "чудесах" графики нового поколения. Да и огнетушителя у меня дома нет, а он к покупке обязателен, если берешь видюху от амд ))
@@thecat5991 Эта шутка меня уже задолбала. Я ее уже раз десять наверное на этом канале слышал. Серьезно, сколько можно? Может быть Виталик думает, что с каждым разом эта шутка становится все смешнее и смешнее?
Я думаю, это картельный сговор производителей железа и софта. Иначе невозможно объяснить, почему графика толком не улучшилась с 2011 года, а софт стал еще более тормознутый и багованный и занимает в 10-100 раз больше места на носителях. Все эти никому не нужные "лучи" и 4-8к разрешение - способ растянуть смерть существующей архитектуры гпу еще лет на 10.
Да не, тут деградация самих разработчиков, раньше чтобы написать игру приходилось в дебри ядра залетать, а теперь этого не надо, а если сделал что то через жопу то говори чтобы видюху покупали новую и все
@@saurontheblack6566 согласен. Поэтому сейчас относительно старые игры (3-5 летние, типа того же Death Stranding или Arkham City) могут выглядеть лучше, чем некоторые современные поделки игроделов
Это не картельный сговор , а банальное удобство пользования , и общедоступность инструментов разработки, если по простому высокоуровневые языки программирования, которые позволяют без серьезных знаний делать приложения , ценой некоторого увеличения системных требований, например 3d модель для какой нибудь мебели , сегодня любой человек в анрил энжене может ее сделать, без знаний языка программирования, но системные требования для этой модели будут минимальными требованиями самого анрила, а не модели это где то процессор i3 и видеокарта уровня rtx 3050 и 16 Гб оперативки, просто для одной 3d модели(!) , Но если самому написать визуализатор,инструменты, библиотеки для этой цели, то достаточно будет минимальх требований самой винды процессор уровня селерон+4гб оперативки+графика уровня uhd610 , а теперь внимание вопрос сколько людей могут создать 3d модель в анрил энжене и сколько людей могут написать визуализатор и библиотеки для этой модели чтобы экономить ресурсы железа?
Ну во первых с 2015, во вторых увеличение размера игр связанно с повышением разрешения текстур А про лучи забавно читать тк когда то подобное говорили про шейдеры😅
Дело не в кривокукости индусов, а дело в том что сегодня не используется низкоуровневый язык программирования, который использует оптимально возможности железа, а используется высокоуровневый язык в котором железо с программой общаться через посредников что снижает возможный потенциал , но существенно ускоряет разработку и делает ее мение затратной , недостатки неэффективного использования ресурсов можно решить банальным улучшением качества самого железа , что в конечном итоге всем даёт плюсы , сегодня такой вектор развития индустрии,
Я рассматривал для себя 2060 и 2070 до покупки. Но когда я прикинул соотношение цены к производительности и затрачиваемой мощности, 20я серия просто оказалась для моих задач неконкурентной. Хотя для нейронок у неё больше тензорных ядер, внезапно. И в комплектации на 12Гб памяти она оказывается актуальна, чтобы гонять нейронки. Но есть проблемка: сейчас околонулевой шанс найти неотмайненную 2060
970 - 330$ - унижала 780ti за 700$ 1070 - 380$ - нереально унижала 980ti за 650 2070 - 500$ - до 1080ti за 700 как до Луны 3070 - 500$ - кое-как равна 2080ti, превращаясь в тыкву, когда не хватает 8гб памяти (почти во всех играх 2023) 4070 - 600$ - кое-как равна 3080 за 700$ в низких разрешениях, с треском сливаясь в 4К. К чему я это всё? Да к тому, что бить тревогу надо было на релизе Туринга в 2018г, но нет, ребятки делают вид, что Nvidia оборзела только сейчас.
А если учитывать, какие цены были на выходе 20 и 30 серии из-за майнинга. нынешняя 4070 выглядит богоподобно по цене. Но как было сказано в ролике "А ВОТ НА ВТОРИЧНОМ РЫНКЕ"0)))
@@sergtrav да нет, при майнинге цены были х2 выше нынешних. Сейчас цена окончательная для рынка. Что оптимальный гейминг всегда ( последние лет 10 ) был от 400-500$ за видяху. Может я в другом мире живу и не замечал, что были дешевле аналоги не с рук.
@@BuGyH Ну да, RX470 за 200$, RX480 и 1060 за 240$, 970 за 330, 1070 за 380 не были оптимальным геймингом и именно поэтому являлись самыми популярными картами в течение очень долгого времени.
Ребят, отличный выпуск! Спасибо! Я тут неделю назад поменял свою "старенькую ))" 8Гб RX580 Nitro+ на новенькую RX 6750 12 Гб (да, я не любитель зеленых по многим причинам). И я таки вам скажу - огонь! Во-первых цена, во-вторых энергопотребление и температура, в-третьих 12 Гб, в-четвертых у меня фуллХД моник на 144 Гц. с поддержкой всех амд-фич - и все летает на ультрах. Да, я ради интереса попробовал 2077 с трассировкой лучей - если коротко, то 70 фпс в максимальном качестве без углубления в настройки - просто включил все что можно включить. И не могу сказать что был шокирован картинкой - ну да, цветной туман, отражения и все такое - но во многих играх это будет скорее мешать, чем радовать. Без лучей - производительность космос, ставлю ограничение на 144 фпс, и часто даже охлаждение не крутится ) при этом блок питания остался на 650 Вт (!), проц Ryzen7 5800x. В таркове 144 фпс на ультрах, в хогвартсе еще не замерял (но он и на 580 вполне себе летал, кроме лютых глюков с водой). 580 дочке поставил, она наконец доросла до нормальных игр после роблокса = )
RX580, была в своё время отличной картой, которая стоила на 30% дешевле чем GTX1060(в одинаковом исполнении), а производительности сейчас её опережает за счёт 8Гб памяти. Такая же история сейчас и с RX6750XT, уже есть проекты(например Last of us), где она выдаёт стабильные 60 кадров на ультрах в QHD, а бедные 3070 и 3070ti, страдают от нехватки памяти которую зажал Хуанг и просаживаются до 40 кадров🤦 У меня есть две карты RX6700XT и RTX3090, и могу сказать, что с покупкой ты точно не ошибся, ибо ситуация с лучами ровным счётом такая как описана в видео, даже 3090 зачастую не вывозит лучи в QHD, так ещё и работают они нормально в единицах проектов, а картинка если и меняет то изменения, можно заметить только при сравнении скринов, а производительность обваливается. Ну и конечно RX6000, похолоднее и энергоэффективнее чем RTX3000.
Ну 70фпс на ультрах с трасировкой это конечно ты гонишь, у меня была такая карта в исполнении аурус, и с трасировкой на ультрах играть невозможно, я продал её из-за того что у амд есть микролаги и сглаживание плохое на прямых линиях и ещё температура перехода до 110 греется, щас взял 4070
Не всегда же. Насто***ет же ВСЕГДА играть в пиксельные игры. Помню как играл во всякие Dragon Age, Mass Effect и мечтал - вот эту игру бы, да на ультратехнологический фотореалистичный графон и вообще бы пушка была. Прошло 14 лет и такие игры особо никто не делает вообще в крупный бюджет. Про гофон вообще молчу.
моя 2060Super тормозит на пиксельной Cataclysm DDA (это сарказм, если кто-то не понял), но с включенном rtx в Кибербанке77 держит 30фпс в городе на ультрах (а вот это не шутка), ну да у меня 32гб рам, но это ж мелочи. Может, помимо видюхи вам не стоит экономить на матери и проце, чтобы хорошая стилистика была обеспечена еще и нормальной картинкой?
Я думаю многие неправильно смотрят на ситуацию. Если вспомнить времена до майнинга, мы получали не такой уж большой прирост производительности между поколениями, обычно 10-15%. А тут Двухтысячная линейка с конским приростом и спустя всего год Трехтысячная, что вообще нелогично с точки зрения маркетинга. Эти карты делались исключительно для майнеров, и если бы не они, мы бы еще пару лет ждали Трехтысячную линейку. А сейчас все, праздник кончился, возвращаемся к старой схеме.
Подача материала у вас отличная этот канал просто находка. Я бы ничего не менял. Звук, картинка и освещение, цветкор, монтаж, темы в видео, всё на достойном уровне, вы молодцы 😊
До сих пор считаю что для 2к гейминга вполне хватает и RTX 2070 Super Прошел на ней и RDR2, Киберпанк, GoW и Харайзен в высоких настройках и не испытывал проблем с кадрами. Линейки 20хх/30хх вполне хватает для некстген графики, просто нужно остановится на 3-5 лет, тогда разработчики будут поспевать. Почти все современные ААА проекты просто тупо не оптимизированы и тут никакая 40хх не поможет. Сейчас игровой проект ААА класса, делают примерно 3-4 года. За это время, технологии и карты меняются так же 3-4 раза. Это же ппц просто.
Они не видят смысла в оптимизации. Их волнует не конечный покупатель и его удовлетворение, а прибыль. Можно покупателю пообещать что угодно, он купит и всё. Всё держится на рекламе и обещаниях, а не качестве. И покупателю ещё предлагают доплатить за решение проблем. Это 5 букв, первая п. Или х, как вам больше нравится.
@@АннаБажина-ъ4ц Это вы про менеджеров, а разработчики бы и рады, но с учетом частого изменения технологий и давления со стороны менеджеров, они просто не успевают или им не дают закончить продукт. Либо менеджеры просто пытаются продавить ту или иную идею/механику, которая не была заранее оговорена на старте разработки, а крайними остаются разработчики, которым просто не хватило времени или нет технической возможности внедрить эти хотелки. Вывод - во всем виноваты менеджеры ))
@@GreatBAO2 разработчики в этом всём козлы отпущения. Так как именно им прилетает за плохо сделанные игры, которые им не дают довести до ума. Разработчики теряют работу, получают критику от игроков. А менеджеры забирают себе большую часть прибыли и думают дальше, как бы ещё собрать денег. А разработчиков на улицу, если прибыли было мало. Система говно, кушайте лопатой, покупатели. А бета-тестеры вообще скоро существовать перестанут. Лишние деньги, а пипл схавает. Тот же Киберпанк показал, что так можно делать. На релизе куча багов и тормозов, но через 2 года исправили, а люди рады, какая классная игра. Даже "2 придурка с камерой" похвалили Киберпанк в 2022. Зачем сразу делать нормально?
@@АннаБажина-ъ4ц Все верно. Разработчики всегда будут крайними в этих ситуациях, мне их честно жаль. Но это началось задолго до Киберпанка. Сейчас в памяти всплывает тот же No Man Sky (2016) который на старте получил кучу негатива из за слишком раннего релиза. Но разработчики молодцы, до сих пор выпускают бесплатные дополнения (вроде уже как порядка 25 крупных обновлений было) и тем самым поддерживают свой продукт. Так же можно вспомнить Ведьмака 3-го, история тоже переворачивалась с ног на голову из за поспешного выхода и дальнейшего допиливания до идеала. Но таких примеров мало, в основном это выпуск пары патчей, а дальше менеджеры просто не заинтересованы в поддержании продукта, пусть даже он и собрал на старте хорошие деньги и сформировал хорошую фанбазу.
@@GreatBAO2 да, лучше уж пусть допиливают, хоть через 2 года, хоть через 5. Чем бросать в воду говно и не пытаться его убрать, а ждать, что уплывёт и не вернётся обратно.
Лет 6 назад я взял себе GTX970. После моей уж не помню чего - просто феерия. Там шаг прям через пару ступеней был. Лет 5 назад я взял себе 1080ti (nvidia) за 20к, как щас помню. Доволен был как слон, всё просто летало, а уж какая она холодная была после амд'эхи... Прошлой осенью я взял 3080ti tuf (в промежутке был грейд системы в целом) ажно за 75к с учётом доставки. Новую, в плёночке.. и-и-и да! Вот да. Всё идёт, всё летает. Думал я, пока на 2077 не начали выходить эти обновы по 15-20 гигов.. не могу сказать, что графика прям радикально стала лучше. нет, для статической картинки, ради фото - да, можно найти местечко, всё врубить и сделать скрин, но в обычной игре - нет, это всё либо не заметно, либо пи*дец как нагружает систему. По итогу - для чего и для кого эти нововведения... массегмент сидит на более слабых компах, которые этот праздник жизни видит "через окно, стоя снаружи".. 4к серию я брать не буду точно. Слишком дорого и бесполезно (ну не 4090ti же брать когда она там появится, в самом деле), придётся ждать пятитысячную серию... но боюсь, что там цены будут вообще запредельные..
@@shining_buddha amd пока только обделывается с новыми картами. Не сказать, чтоб прям жиденько, но очень недалеко от этого (что лично меня очень огорчает, я был бы рад реальному конкуренту линейки нвидии), ну а бу я уже давно не беру - хрен знает кто и как пользовал это железо и в каком оно состоянии.. уж больно много патронов в барабане такой рулетки
Абсолютно согласен ребята, от первой и до последней фразы. У вас прекрасные, очень честные и справедливые выпуски. Всё отлично, спасибо Вам, так держать, всех благ и процветания всегда, везде и во всём 🤝🤝🤝
Абсолютно не согласен . Рынок порешает все так как ему нужно. А это нытье , то что тебе не продали то что ты хочешь , за столько за сколько хочешь. Они сделали , они и решают цены . Хош бери хош нет , ВСЕ!!!! в чем проблема ?
@@ВоваЦепин они делают, они решают, но так не делается, это скот кое отношение к людям, это просто отмывание бабла и это не правильно. Не согласен, это твоё право, гнись под них дальше. Это пидоры и проджекты давно уже под них гнутся, ещё с момента выхода киберпанка. Да с такой древней графикой игры от проджектов должны летать просто даже на 10 поколении карт. Здесь сразу видно умышленное завышение требований по играм, чтобы люди покупали новые карты у алчного Хуанга, ну и своим подсосам конечно же отламывал кусочек от этого пирога. Нормальные, адекватные, НЕ ПРОДАЖНЫЕ игроделы, никогда не будут завышать умышленно требования к играм, чтобы как можно больше людей смогли приобрести и поиграть комфортно в их проекты. Но грёбаные, продажные подсосы проджекты к категории адекватных уже давно не относятся. Вот и тормозят их мультяшные игры с графикой 2015 года даже на очень производительных системах. ПИ-ДО-РЫ одним словом.......
@@ВоваЦепин : нынче такое время , что "они" продают тебе то , что считают нужным и по нужным "им" ценам . Не нравится , то на … с пляжа , выбора у тебя нет . И с каждым разом всё жёстче и жёстче . Реалии жизни и так почти во всём .
@@Alexander_Sergeevich_80 Ну если они посчитаю нужным тебе кусок говна ( вот прям говна в прямом смысле ) продать , ты что возьмешь? Не возможно продать то что не востребовано , потому наверное все же они продают тебе то что ты ХОЧЕШЬ . плевав на то за сколько ты это хочешь . Вот рынок и порешал. Именно потребности определяют рынок , не спрос , ни предложение а только потребности . Если у тебя нет потребности в чем то , то продать тебе это не возможно . Ну если только под дулом пистолета , но там можно и просто ограбить. Примеров куча . На пример технология 3д , она крутая , каждый раз про нее вспоминают .То очки в 2000х зд , то мониторы зд на выставке . Потом сделали телеки 3д обьявив эру 3д. Потом снова очки но уже по новой технологии. И где все эти зд плюшки ? А сколько не рекламь , у людей в зд потребности то по сути нет. Побалуются один изз десяти , и потом пылится гаджет. Хотя реклама дикая и с насыщенностью ассортимента проблем нет. А монополия она не вечна . Ничего , ваять ниже техпроцесс уже никуда , сейчас побалуются ии вычислениями , поймут что там то же упирается . Вспомнят про сли и кросс фаер режимы . Комп будущего , это другие мат платы , который позволят компактно разместить 4-8 видео карт , и технологии позволяющие адекватно работать на таких связках. Если не изобретут новый вид чипов с легко доступной штамповкой . А это чую не изобретут. Так что геймерам нужно это осознать ,и просто перестать покупать то что уже устарело на писе своего могущества. И вот там нытья будет ой как много , новые мат платы , новые системы , новое ПО , под эти системы . А еще решить вопрос с компактностью уже не получится это 100% Забывайте потихоньку про ноуты , им жить осталось 5-8 лет , как проф решениям в поездках . Все остальные проф задачи будут на пк дома .
Улучшение освещения уже почти не приближает фотореализм. Нужны другие подходы. Например лицевая анимация. Как не освещая резиновую рожу, она остается резиновой. Вот этим пусть займутся нейросети.
+, да и прорывных технологий в физике объектов и персонажей уже давно не было. Нпс как ходили дубовые в какой-нибдуь гта4, так и ходят в кб2077, не говоря уже о жидкостях и разрушаемости
Толку то от суперкрутого освещения, когда текстуры вручную рисуют и материалы кое как настраивают. В таком случае и асфальт не выглядит как асфальт, и машины словно сделаны не из металла.
Так уже давно есть стандартизированные, спектрографами калибрированные библиотеки материалов, чтобы всё выглядело как в Реале, а против пластмассовых рож также давно имеется SSS(subsurface scattering) с путями лучей работает бомбически, но есть и шейдерные имплементации. Всё блин есть, но арт-директоров, похоже, чудо травка никак не отпускает. Хорошо, что от жёлтого Блума как в играх из 2000-ых избавились.
Сижу 5й год на MSI 1060 6Gb и ору в голос с людей, которые спорят о 2- 3 и 4й сериях... Товарищ, что раньше ржал надо мной мол нищеброд, за пол года в 4к спалил 2070 на своём старом компе и купил 3060 вместе с новым компом в 2 раза дороже и до сих пор просит меня пошаманить с настройками, то ФПС ему не хватает , то графоний мылом глаз мажет , я ему говорю играй в разрешении 1080р и не парься 😂 Р.s. у товарища есть PS 5 на которой онв 4к играет только в футбол и МК ...
Не знаю как у кого, но я в новом режиме овердрайв в первую очередь увидел пересвет картинки от настроек сияния. Это единственное что мне удалось отчётливо увидеть из изменений и это меня не сказать что б порадовало. Мои глаза не выдержат долгой игры с такой картинкой.
Такая же беда. Смотрел обзоры на RT Overdrive м видел в первую очередь повышение контрастности в кадре с темными и светлыми областями, из-за чего в темных областях ничего не видно, а в светлых слишком ярко для глаз. Если эти обзоры еще и на 50% яркости в настройках игры, то мои глаза тупо и минуты с лучами не выдержат, т.к. я в большинстве игр выставляю яркость в настройках в пределах 70-80%, чтобы нормально ориентироваться в пространстве
Скорее всего проблема не в железе, а современных ОС и драйверах, плохо сделанных ПО. Что имею веду? Разъясняю, для не понявшим. Для наглядности возьмём ОС Win10, в хорошо оптимизированном варианте, очищенном виде, его инсталлятор весить примерно 1 гигабайт. После инсталляции, в базовом варианте, занимает примерно 2-3 гигабайт. В том виде что идут от Майкрософт, просто беда, эти монстры огромны! При этом, просто драйвера на железо в инсталляторах занимают те же 1 гигабайт. Некоторые возразят, нет это не так, там упакованы драйвера на разное железо! Тогда попробуйте проведите эксперимент, вытащите все драйвера с текущего вашего железа и упакуйте в инсталлятор. Получите удивительные результаты, необходимые драйвера стали весит почти как оптимизированная ОС. Теперь поглядите на современное ПО, это же какие то монстры, занимающие кучу места и ресурсов железа. Для примера берём браузеры 2023 года и что видим? Да эти неповоротливые монстры выжирают оперативную память больше чем ОС! К чему я подвожу, то что сейчас творится это ужас. Как многие шутят, индусы делают дичь... 🤕
@@Andaletru Я не говорил, что они плохие, я говорил, что они упоротые. Я в игры ещё на ZX-Spectrum с 48 кб оперативки играл, мальчик, игр я повидал дохуя.
Раньше было такое У меня сейчас на руках 1080ti и 2080super Карта одинаковые по стоимости из разных поколений, разница +-2%, но есть ретрейсинг в 2080 А NVIDIA сравнивала 1080ti и 2080ti в рекламе, но 2080ti была изначально дороже 1080ti в момент выхода. Так что это было, просто повторяется!
@@ЛолКек-ш6й8э хейтили, только те, кто не купил, я купил 2070 в июне 2020 за 27к и играю сейчас на ней во все игры в 2560*1080 на ультра настройках. А видеокарте уже 5 лет! Я очень ей доволен.
@@ArchyVai0 Будем честны, rtx на 2080 далеко не все игры тянет в ретрейсинге. А dlss только 2.0 добавляет задержки в управлении и мылит картинку. В большинстве игр я отключал ретрейсинг, стабильные 100+ фпс важнее. И между поколениями прошло 3 года, а разницы на фпс нет. До этого рост фпс был около 20% между поколениями. Я бы лучше получил на 20% фпс больше, чем сомнительный dlss 2.0 и еле-живой ретрейсинг.
@@ArchyVai0 Так я и 1080ti на ультрах играю и тоже 2к, она и фпс больше показывает чем твоя 2070. Её ещё и с очень хорошей скидкой купил, точно дешевле чем 2070 стоила в момент выхода) Мы же карту сравниваем с аналогами, точнее с прошлым поколением. И 20-тая серия была прям провальная. Особенно смешно, что я купил 1080ti по цене 2060 на распродаже, а по фпсу она как 2080))
Это верно, 40хх была изобретена на мощностях 30хх и с более экономной элементом базой, чтобы стричь майнеров ещё больше, но случилось другое и теперь нужно придумать софт, который только для 40хх, хотя это гоуно и так бы пошло на 20хх и 30хх. Скорее бы этот период в игровой индустрии прошел уже
Соль в том, что и 4090 и 4070ti рвут в клочья предыдущую серию, но только не совсем так, как игрокам интересно. Рвут они в области матричных вычислений, в обучении и применении нейросетей. Это новый бум на замену майнерского. В играх нейросети - это та самая дорисовка и апскейл. И всё. Даже на анимацию ещё ничего не завезли. В игроделии - возможно какие-то АИ-ассистенты, но тоже не слыхал хайпа, видимо ещё не вышло в релиз. 24:14 Нвидия видит всё правильно. Они понимают, что компании захотят экономить на человеческом труде. И сэкономить помогут нейросети. А значит нужны железяки, которые эти нейронки хорошо крутят и сдача в аренду супержелезяк, на которых выгодно обучать нейронки. В итоге игра, на которую визуально кажется, что сильно больше труда потрачено, будет стоить почти так же. Интерес хуанга - это продажа и сдача в аренду железа крупным игрокам рынка а не игрокам в игрушки.
Пля, чувак, какие 300к? Ты поплыл? У нас(в России) не одна видеокарта не стоила когда-либо, дороже 150к(не беря в расчёт 90-ый индекс, который покупают для рендринга на дому).
Учитывая непредсказуемые скачки курса, у вас - всё же не показатель. Хотя сам, признаться, на 1070 сижу. 30ки - бу брать изначально не вариант, а новую - уже непонятно, есть ли смысл, если 4070 при той же производительности меньше кушает и греется.
@@LAIN_87 Майнинг бум.3070 стоила в районе 150к.3080 бывало за 250 тысяч переваливала.В моменте 3090 стоила 350к+.Я сам цены по приколу мониторил и помню что да как.
Вы ещё забыли упомянуть, что нвидия всегда в видеокарты ложит памяти ровно столько, сколько хватает по нижней планке, чтобы в следующем поколении добавить чуть-чуть. В итоге уже сейчас 3070 годится только для fullhd, выше видеопамяти не хватает в нативном разрешении.
Не для разрешения, а не для оптимизированных игр нужна память. Сейчас RE 4 жрёт 12-14гб при максимальных настройках, а графика как в RE2. Пришлось тени на высокие ставить и текстуры высокие на 2гб. в итоге стала 5.5гб. жрать что всё равно много для такой графики.
Но можно же купить видеокарту от конкурента, например как это сделал Виталик, который в захлёб хвалил АМД, и говорил что следующей картой после RTX 3080 у него будет карта от АМД Радеон RX 7900 XTX, там памяти много! А простому игроку в видеоигры можно приобрести мощную RX 6800 за недорого, у которой 16 Гб памяти!
Глазом не видишь, а сердцем понимаешь - это отлить в граните. Виталь, ты погугли еще, что такое LoDы например, или изучи основы 3D графики. Вот смотришь ты на дальний объект, и все вроде красиво, и разницы ты не видишь, а сердцем понимаешь, что детализация то там раз в 5 ниже, чем если бы этот объект был бы перед тобой. Ненастоящее, подделка! А еще видеокарты умеют снижать детализацию в тех частях кадра которые скажем сильно затемнены,, ты этого как бы не видишь, но сердцем то понимаешь, что видеокарта детализацию снизила, а еще например мир вокруг тебя он не отрисовывается. Вот идешь ты идешь по карте, птички поют, все красиво, а повернул камеру и понимаешь сердцем, что птичек то уже больше нету, видеокарта их уже не отрисовывает. Мир вокруг ненастоящий!111 Жесть, как же вы сову то на глобус натягиваете. Инвидиа вам тоже на халяву видеокарты не подарила что ли, как и Проджекты ключи от Киберпанка вот у вас и горит так?
Тоже орнул с этого "не видишь, но сердечко чувствует". Такой адовой доёбки ещё не встречал. Пытается изобразить боль даже там, где её в принципе не может быть
У меня 3070. Rtx не включаю вообще. Поначалу включал, но потом понял, что фпс куда дороже чем то, во что надо всматриваться. Тем более в некоторых играх искусственное отражение выглядит даже лучше чем с rtx.
И вообще смешно, как эти двое опять близняшек вспомнили с их "ИДЕАЛЬНОЙ" оптимизацией. Только вот этим двум не говорите, что на выходе киберпанка, если так же вырубить ртх - то игра шла хорошо для своего размера. Просто современная AAA игра вырезает к херам RTX - все, гении оптимизации)0))) Уровень журналистики мое почтение
Нвидия всегда так делала. Добавляла технологию которая тормозила на топовых картах. Чтобы купивший топ, сразу купил новый топ когда он выйдет. Раньше это был физикс, сейчас рт. А до этого T&L.
DLSS и лучи очень сильно привязаны к дровам. Может до такого дойти, что лучи/dlss будут на всех картах, но нужно будет подписку в драйвере оплатить за доп функции. P.S. DLSS в играх кстати очень заметен опытному пользователю на глаз. Даже в режиме "качество".
В 4К вообще DLSS ссанина ещё та. Артифакты, мыло и прочие вытекающие. Пока что лучше нативного разрешения ничего не придумали, за РЕЕЕЕДКИМ исключением можно разок включить, но это когда разрабы на столько рукажопы что TAA к примеру сломан в хламину.
Карту один раз купил. А потом покупаешь нове дрова 1080, потом 2080 3080 и далее. Цифры меняються в свойствах. И все бинго. Можно завод закрыть, зачем это устаревшее производство. Бинго. Ну если не купил дрова, будет тормозить, прям в коде прописать на каких играх. Купил опять в дамках)
Хуанг всё объяснил же. Видеокарта мощнее, значит стоить должна дороже. 5090 по этой логике 3000$+ будет стоить. Копать надо в направлении софтописателей. Нанять людей с плётками (или поставить автомат под управлением ИИ), чтобы раз в 30 минут хлестал программистов плёткой.
Человеческий глаз больше 30фпс не видит и я обосную сейчас своё высказывание. Если взять 30 белых листов в ворде и на одной из них поставить чёрную точку крутить их в 30 кадров в секунду то ты точно не заметишь это чёрную точку не как В доме у каждого у вас обычные лампочки мигают 30кадров в секунду, но вы не видите мерцание. А, тогда почему вы в 30фпс в играх видим эти проседы это потому что объектов на картинке слишком много и по этому вы думаете что видите больше 30fps и да не все одеты в игре крутятся в 30фпс и поэтому вы видите прадеды, но это не так человеческий глаз не видит больше 30фпс и точка.
Просто надо еще дополнительно патч за ту же цену докупить и тогдаааааа, возмооооооожно, тормозить не будет, но вы должны понять, и войти в положение, компания Нвидия маленькая, денег особо нет, так что, подобное простительно. Это как компании Майкрософт и Сони нынче в суде, пытаются доказать, какие они маленькие, и ущербные, прямо видишь это, и пожалеть хочется чисто по человечески 🤗
Спасибо вам большое за это прекрасный и прикольный ролик) Я очень люблю ваш канал) Вы реально одни из лучших и главное вы не продаетесь- это очень ценное качество. Я тоже владею RTX 3060 это просто обалденная карта. Вот в прямом смысле все тянет и на самых высоких настройках. Все просто идеально. И чувство такое приятное, когда не тормозит и выдает хороший фпс, все просто четко. А графика , словно в кино играешь) Я тоже считаю, что RTX 3060 еще дооолго будет рулить)
Я брал 670 за 12к, 970 за 20, 1070 за 30 от приличных вендоров, 3070 уже за 51к, прирост почти всегда был +50%. сейчас норм апгрейд только 4070ti за 80? Пошла nvidia с такими ценами нах - буду ждать 5070 - там пусть и за 80к но хотя бы прирост будет х2.
Хуанг переоценил свои возможности, когда увидел, что люди покупают карты за 50-100к и выше.)) Может он просто не знал про майнинг? Либо просто подумал, ну раз люди тогда покупали видео карты, по другой причине, значит и сейчас купят, без причины ведь, если тогда были деньги, значит и сейчас найдутся.)))) Производительности мало? А давно все на 4к гейминг перешли и +200 и выше герцовые мониторы? Чтобы требовать Хунга ещё больше производительности?) Так что сидите там на своих квад хд и фул хд.) И покупайте 30 серию за реально норм деньги для своих 144 герцовых мониторов.) Кстати, тоже подумываю 3060 взять только не за 40к , но мне уже пора проц менять:( Видео карта уже не поможет. А вот за 25 взял бы 3060 новую для фул хд. Ладно, на 50х серии Хуанг спустится с небес и сбавит цену как на 10х было с 900х если конечно маркетинговый отдел и инженеры не придумают новую фичу, а то лучами уже никого не удивить. Поры бы уже что-то новое внедрять. Например новые анимации, с использованием искусственного интеллекта, типа использующееся скелет который полностью моделировал в рил тайме супер реалистические анимации, копируя наши движения, или вообще мимику лица, но это уже не много другое. Или может уже пора физику довести до ума. Или вообще пора бы уже внедрять в искусственный интеллект нейронную сеть в игры. С нелинейным сюжетом, чтоб на каждое твое действия нейронка постоянно давала свои разные варианты. Ладно, блин, я спалил концепцию новой части Half-Life 3. Хорошо что никто не дочитает этот комент до конца и не узнает этот спойлер.
Я с 9-го поколения покупаю 70-е версии. Люблю изучать продукт перед покупкой, поэтому ответственно заявляю: каждая 70-я версия не просто была производительней 80-й версии прошлого поколения, а производителей на десяток или 2 процента. При этом цена ощутимо росла только у "жадной до денег" 2070. Особенно наглядно этот прирост производительности выражался у 1070 и 3070. А эта новая какашка 4070 еле-еле борется с 3080, чаще ей уступая. При этом на 100 баксов дороже. Те, кто покупал 70-ю версию, уже не рассматривают её к покупке, а те, кто покупал раньше топ, уже купили себе 4090. Эта карта не имеет своего покупателя, и потому идёт дорогой дальней... Я же настолько опечалился и состоянием игр на ПК, и ценой на видеокарты, что психанул, и купил себе год назад PS5. И вы знаете... Я уже полгода Стим не открывал, потому что ПК-гейминг меня потерял, скорее всего, очень надолго...
Ну, кому лень подкрутить настройки - тем мало. Тупо выкрутить на ультра многого не надо. Тогда уж консоль проще купить где всё за юзера настроили и юзай как дали. А уж руки разрабов выпремлять дело их руководителей. На оптимизацию положили болтище практически все. Вот Мандфиш молодцы - Атомик Харт летает на всём чём можно. Вот в том же RE4 (БЕЗ ЛУЧЕЙ) игра использует столько видеопамяти сколько доступно, всё ОК. Если есть больше, то буферизирует больше данных, но максимум до 12 гигов (и то в 4К, в 1440p меньше), а на той же 3070 не больше 7 гигов.
@@edegors да, в консоли же стоит аналог RX 6700xt с 16гб видеопамяти.... Что-то подобное было в эпоху kepler и GCN, через пару лет, требования к видеопамяти стали тупо 3гб, которые были на амуде и соснолях, а кеплер с 2гб сосат. Прохождение вульфенштайна в 30фпс в 800x600 на gtx 770 2gb было незабываемо
Забавно 😀, но многие современные игры буду "проходиться" также, как сказал Миша: МЫ БУДЕМ ИХ ПРОСМАТРИВАТЬ В ШИКАРНОМ КАЧЕСТВЕ, с коментами от разных блогеров 😃😃😃
Не понимаю возмущения . Рынок порешал и еще порешает . Че гнать на продавца , за то что он продает свой товар за столько , за сколько хочет ? Да , труды должны быть оплачиваемые . Если майнеры соскочили , рынок ужался , то вариантов развития событий много . В железе всегда были повышения цен , когда спрос падал не во время . Он упал не во время . Понижения цен были , когда была жесткая конкуренция , и при этом спрос маленький , но сейчас жесткой конкуренции нет , за счет того что чипов и процессоров ( последних 6-5 нанометров ) на всех не хватает , фабрики и без майнеров загружены на полную . Ждите когда выйдут 2 нанометра , или когда 5-6 нанометров станет полно фабрик , вот тогда и дешевле станет.
10:10 насколько я понял, проблемы не в том, чтобы сделать меньше, а в том, что частицы начинают себя вести по другой физике. То бишь, по физике частиц, или квантовой физике, а это не подходит для существующих технологий. Именно поэтому все так возбуждаются от слов про квантовый компьютер. Не из-за того, что он там какие-то чудеса показывает, а потому что он может работать с частицами, что позволяет делать технологии ещё меньше. Но могу и ошибаться, поскольку уже довольно таки давно слушал выступление на эту тему.
По поводу транзисторов я не особо понял, что вам не нравится - rtx3070 5888spu (Transistors - 17,400 million), rtx4070 5888spu (Transistors - 35,800 million). При этом площади чипов 392мм против 295мм у новинки.
У 4070 чип от 4070ти. Ты привел кол-во транзисторов для чипа 4070ти. У 4070 часть чипа отключена, но транзисторы указываются все. Проверь характеристики 4070ти
Вопрос на что пошел бюджет транзисторов (понятно что 4070 урезан), но 2х по транзисторам и +30% по частоте к 3070 дает +50-70% на 4070ti. Получается что эффективная производительность в пересчете на транзистор и частоту только падает…
Держим фронт товарищи. Инсайдеры из Невидии подтверждают этот факт, что компания специально приучает нас к завышенным ценам, так как у них почти монополия (90%рынка), они идут с опережением по софту и фичам И, САМОЕ ГЛАВНОЕ, игровой рынок для них давно уже не главный,они также предлагают cloud gaming, они по полной вкладываются в A.I. суперкомп. решения. Повторяю, держим фронт и пропускаем целиком Экспериментально Ценовую 40 серию, что бы повлиять на резултаты этого ценового эксперимента. Тот факт что AMD тормозит процы с мощной встроенной графикой (ддр5 уже пришла) тоже косвенно подтверждает подозрения на полусговор или что AMD тоже решило подстроиться под ценовой эксперимент нвидии. HODOR - HOLD THE DOOR.
"Nvidia не является драйвером графических технологии, а им является epic" - бред сказали. epic и другие не будут даже пытаться замахнутся на что-то большое, если впринципе на это не будет мощностей. В том числе трасировки в реалтайме- а нвидия всё таки первая показала, что это возможно, в том числе с помощью специальных ядер в видеокарте и специальных алгоритмов оптимизации. И уже спустя года все остальные подтянулись. Тоже самое и с длсс
Так вот кто меня от...издил во дворе. Я думал гопники, а это сервис Нвидии, потому что я написал в техподдержку, что Гарри Поттер на моей 4090 просадки до 40фпс даёт. А я дурак заявление написал. Надо забрать. Ибо сервис отличный. Работает! Спасибо Хуангу и техподдержке! 🥰
В этом и смысл нвидиа.Они на твоей топовой 3060 показывают в играх хуевую производительность чтобы ты пошёл и купил их никому не нужные 4000 ртх.Нвидиа хотят каждый год продавать видюхи по 1000 баксов там за рубежом при том что люди едва покупают консоли по 500 баксов каждые 6 лет.Так консоль это консоль,купили всё.А купить видюху за косарь это только начало
Сделайте обзор на то, как русофобская SEGA втихаря убрала у DLC к Warhammer III русский язык, хотя он был уже сделан и раньше он был в описании на странице магазина. И вдобавок ОТКАЗАЛОСЬ переводить все последующие DLC к Warhammer 3!
Нет лучей - нет проблемы. Ну да, а попытка всунуть в уже готовые игры технологии, которым в этих играх не развернуться, как не могут развернуться современные движки в ремейках старых игр, работать не будет, но вот насчет успешности 40-ой серии, с одной стороны я считаю, что сейчас имея разрешение 1080\1440p брать карту мощнее 3070 смысла нет, слабее 3050 тоже нет, а 1440p начинать с 3060. Просто и так все хорошо, ультра настройки от высоких хрен отличишь, а дорогие карты с высоким TDP менее надежны и на вырост брать смысла нет, там поменяется все, проще будет нового середняка взять. Но рост производительности 40-ой серии относительно 30-ой вообще-то неплохой, и если сейчас 40-ая серия излишня, т. к. в ней нет младших решений, то когда эти решения появятся, то будет 4060, которая будет мощнее 3060 на 30-40% и может даже TDP будет поменьше, 30-ые карты на складах кончатся, цены неизбежно устаканятся, и народ будет брать. Т. е. с чипами там все нормально. Да и 99 млрд. транзисторов в 4090 как-то не свидетельствуют о стагнации тех. процесса. У меня тут немного другие мысли есть, что скоро геометрию, текстурирование и т. п. даже младшие чипы будут грубой силой решать, и вот тут освещение становится ключевым параметром. Другое дело, что в ближайшие пару лет никакого рынка для 50-ой серии не прослеживается. И искусственные попытки сделать в нескольких хитовых, но уже пройденных играх режимы, тормозящие на топ. картах, тут ни на что не повлияют. Скоро про обнову "Киберпанка" забудут, "Ведьмак"-3 будут со смаком проходить в 1080p на 3060 на средних, текстуры в макс, выглядит ведь все отлично. Условный новый Crysis погоды не сделает. Ну сколько таких игр будет? Одна? Две? Три?
Михаил упомянул об отсутствии резких скачков качества графики в современных играх. Полностью согласен. Даже сейчас, возвращаясь к старым играм по типу DOOM или Hexen с лончерами под винду, но со старыми вадами, без текстурных паков в высоком разрешении, ловишь себя на мысли, что игра 93 года по графике не очень отличается от некоторых современных поделок. Только тогда процы были с частотой 33 и 66 МГц. И видеокарты с 512 кБ или 1 мегабайтом видеопамяти.
На самом деле надо ждать 9090. З.Ы. Полкупаю видеокарту - выбор остановил на RX6650, т.к. по всем метрикам она, похоже, равна 3060Ти, но дешевле ее. и не надо нам никакого RTX.
@@talaran6934 у АМД "пока" нет такого ;) Но вообще, по-моему все эти уменьшения отклика это просто маркетинг. Тем более что я не играю в соревновательные шутеры ) З.Ы. Ни разу не видел пинг до игрового сервера меньше 50 мс (ну кроме локальных ерверов линейки), поэтому все эти приколы с 5мс вс 30мс задержкой системы мне кажутся раздутыми.
Last of us, dead space, Hogwarts, re4, forspoken тайтлы ААА, и это только те которые вышли с начала этого года, на 3080 в разрешении 2к не идут на макс настройках с лучами в 60 фпс. Не говоря у же о том , что у всех выше перечисленных игр потребление видеопамяти колеблется от 12 до 18 гб vram, дальше больше, активно разрабатывают игры на UE 5 , которые будут выходить в этом году, которые достаточно ресурсоемкие...
Как это нет? Начиная с лета с Dying Light 2 и дальше - Plague Tale Requiem, Callisto Protocol, Dead Space Remake, Hogwarts Legacy, Atomic Heart (хоть он даже и на Паскалях идёт ОК) и RE4 Remake. Другой вопрос интересуют ли эти игры.
RTX 4050 опускается в ультра бюджетный сегмент - где там RX6400, 6500XT, - 1660super/ti, intel ARC A380, GTX 1650, 1650 super задача проста новой карточкой выбить конкурентов, ведь сейчас если синие допилят дрова то кроме 1660 у них там конкурентов нет по характеристикам. NVIDIA если верить релизу по ТТХ сделала копию ARC A380. RTX 4060 - тут уже Intel поджали сегмент 2060/2060 super, 3060, 3050, RX 6600, RX6650 - самый топовый ARC спокойно с ними конкурирует, а по части трассировки чуть ли не NVIDIA уделывает саму же. Либо вариант номер 2 - по 4050 - NVIDIA давно не делала нормальных ультра бюджеток - обрубок 1630 это затычка конченная, 1650 / 1650 super - устарели безнадежно, 1050 ti тоже самое что 1650, у AMD обрубок RX6400, и 6500ХТ либо старье типа RX570 или 580 на 8 GB(последние в ДНС до сих пор продают), и INTEL ARC A380 - копия по характеристикам но с кривыми драйверами, но синие стараются от версии к версии допиливают драйвера на ARC. А кто то от CDPR ожидал чего то нормального?! Снова в очередной раз патч делающий Киберпанк более кривым. Да и кто то в это до сих пор играет?! Прошел его пару раз, самое сложное это ближе к середине игры желание завязать - он настолько уныл и скучен, что просто капец, этот ужасный стелс, враги которые не как Скайриме растут вместе с тобой, а замирают и ты тупо с пистолета ваншотишь все живое или кулаками забиваешь или скриптами. Там не графику надо менять. RT ей не поможет стать интересной.
Купил 3070 в упадок цен за 40 тысяч в хорошем исполнении - и это даже по сегодняшним меркам цена в 500 долларов, при курсе 80. Заходя в днс наблюдаю такую картину - 4070 от 65-70 тысяч за хуангпушкугонку, А ЭТО СУК НУ НЕ КАК НЕ 600, БАКСОВ 900. НАХ ОНА НУЖНА С ТАКОЙ ПРОИЗВОДИТЕЛЬНОСТЬЮ. Все
Виталик, что ты бомбишь? )) Раньше Нвидия зарабатывала на майнерах, а теперь она зарабатывает только на игроках ) И нив какие клочья 3070 не разрывала 2080ti, они примерно одинаковые. У меня обе данных карты в руках были лично и я их обе тестил.
Взял как раз недавно "народную" 3060. И был очень озадачен как "прекрасно" работает пропиетарная технология нвидии... случайно включил в СР2077 Amd fsr (она кстати встает автоматом на пресете "впечетляющие") и получил + 30-40 фпс по сравнению с аналогичными настройками и длсс. Это как вообще?
Мы же все знаем что Нвидиа "пазаботится" в скором времени о 2000 серии, не так ли 😉. Процесс пошёл, новый РТ режив в Киберпанке уже отыквил Тьюринг, совпадение? Не думаю 🤗
Во-первых, есть инфляция. Почему-то сравнивается цена двухлетних карт с текущими. Хотя инфляция только за последний год доходила до 8.5% годовых. Во-вторых, Энергопотребление и шум меньше при той же производительности. В-третьих, это не цены высокие, а люди в России бедные. Себе купил rtx4080 и новую систему на i5-13600k, 32 gb DDR 5 6200, SSD wd sn850x. Для игр в 1440р в 165гц хватает. Хотя после выхода в Киберпанк overdrive FPS на максималках чуть больше 100. Что тоже вполне играбельно. Уверен что следующая самая популярная видеокарта через 2 года после своего выхода станет rtx4060. Как всегда и было с хх60 версиями.
Не понимаю этого горения, все видеокарты есть в продаже, и 30 серия и 40, что по цена/качество устраивает - то и покупайте. Никто ж 30-ю серию при выпуске 40-й не убрал с полок магазинов. По технологиям, DLSS 3 (FRAME GEN) реально дает нормально играть в игры где производительность в попе? Да, реально. Мне, как потребителю, в общем то плевать КАК оно там это делает, я вижу как в том же киберпанке с полным включённым RT 50 кадров превращаются в 80, и при этом играть ПРИЯТНО, и картинка плавная + ничего не мылит (какое нах там сердце вам что-то подсказывает?). DLSS 2 + повышение резкости действительно улучшает производительность и практически не мылит картинку? Да, именно так. И чего тогда ныть? Работают эти технологии? Да, работают.
@Nemezida Revenge 123 ну так Вы ж написали, что и 3080 и 3090 уже НИГДЕ нет, я думал Вы ВЕЗДЕ глянули))) А по факту все сейчас можно купить, по более-менее адекватным ценам (по сравнению с ценами год назад). Просто удивляют эти товарищи в ролике, ведя беседу так, что складывается впечатление - у каждого человека дома должен стоять топовый ПК, а если КАЖДЫЙ человек не может этого себе позволить, то виноваты все вокруг, и разработчики железа в частности, ибо цены задирают))
Уже лет 20 покупаю новую видяху через поколение. Вот и в этот раз 40я серия идет заведомо лесом, 3060Ti еще вполне актуальна на ближайшие пару лет, ждемс 5060 году в 25
У меня вообще была 770 и на всё хватало до выхода RDR2 на ПК. Хотя на самом деле на неё на минималках тоже хватало, но на минималках на игру смотреть было больно. В связи с этим купил 2060 Super, рассчитываю что её как минимум на столько же хватит.
Включите Vsync в настройках драйвера, тогда не будет разрывов при включенном DLSS3. Тоже долго не мог понять, почему при включенном DLSS3 (frame generator) блокируется включение Vsync в играх
Оно отключается потому что всинк работает только с реальными кадрами, сгенеренные идут в обход цпу. Полностью проблему это не устранит(может еще что вылезет). Или вы думаете просто так в играх отключается VSYNC? Это рекомендация самой нвидия для данной технологии.
@@ephecaff9149 нужно тестить, я просто костылями не пользуюсь на своей 4080. Причем тесты нужны профессиональные с аппаратурой для моников, смотреть есть ли стробинг, задержки и так далее. Мне кажется там будет какой то косяк, например с задержками, раз нвидия так сделала по умолчанию.
@@ephecaff9149 G-sync проблему решает частично, если монитор с G-sync 2-ой версии и выше. И игры почти его не поддерживают. Или бывает, что поддерживают, но проблему не решают.
Ну не слова о том, что энергопотребление 40 серии в 2 раза ниже аналогов в 30. Можно бесконечно говорить, что да, мы переплачиваем, это так. Но с другой стороны, чем ниже стресс работа оборудования - тем дольше она проживет. Ты сейчас переплачиваешь за то, чтобы просто у тебя лет 5 не было проблем от слова совсем с видюхой. Уже даже не нужно менять термопасты, потому что они не высушиваются так быстро. Палка о двух концах, нвидия как раз идет правильным путем. Все до 4070 выдает адекватную оценку с точки зрения производительности/долголетия. Вот что будет с 4060, действительно непонятно. Для кого и для чего она. 4070 сейчас на рынке самая адекватная видеокарта за свои деньги. Экономия в одном месте, трата в другом. И плюсов в 40 серии больше, чем в 30. То что тебе не нужно брать голдовый 750-800 ват на 3070, а уже хватает 550-600 ватного бп на 4070 - это уже огромный скачек для всей индустрии. Ибо меньше будет элементарно поломок. Как всегда объективности в ролике мало. Видно чем лучше 40 серия, но об этом умолчат. Только про длс 3 говорят. Это действительно крутая фича, а в совокупности с потреблением уровня 3050 на 4080 - это етить какой скачок.
К теме не относится, но хочу рассказать о случившемся со мной приколе с падением ФПС в игре, может ещё кому-нибудь будет полезно узнать) Обновил я, значится, ПК и взял видеокарту 3060, стали игры просто летать (по большей части не самые новые). Начал я играть в Elden Ring, всё было более менее норм, и тут я заметил, что настройки графики чуть понизились на автомате (есть там такая настройка), выставил на максимум (только без трассировки) и тут вдруг ФПС упад до +/- 40. Я сначала не понял прикола, настраивал и так, и сяк, в итоге пришел к тому, что на максималках игра летает только в том случае, если поставить разрешение экрана на Full HD вместо 2к. Я подрасстроился и уже начал серьёзно думать о том, чтобы купить моник в Full HD, ибо знал, что 3060 была не самым лучшим решением для 2к, просто не было возможности взять получше, но тут, внезапно, проблема оказалась не в мониторе. У меня падал ФПС потому, что тупо был развёрнут на весь экран грёбаный браузер с множеством открытых страниц! Обычно я слушаю Ютуб на фоне во время игры, и теперь, если просто свернуть браузер, даже не выключая, то ФПС возвращается обратно на 60 :) Конечно, я не спец в этом деле, и, возможно, это было даже очевидно, но я с таким явлением столкнулся впервые. Так что вот захотел поделиться, вдруг кто тоже этого не знает и столкнулся с такой проблемой)
Была похожая проблема в метро исход на5700 хт.Но упор там был в проц, и5 4670к на тот момент(загрузка цпу под сотку). Закрыл браузер и все ок. Думаю у тебя тоже был упор в цпу
RTX 3060 народная видеокарта?!!! 12 гиговая версия сейчас в ДНС и других магазинах стоит больше 30 тысяч рублей! Это дёшево, да? Хорошо живёте, олигархи! Лет шесть назад GTX 1060 6 гб стоила 14 - 17 тысяч руб., без проблем тащила все актуальные на ту пору игры, вот это была действительно народная видеокарта, почти идеальная в соотношении цены, производительности и обЪёма видеопамяти.
По сути,не народная конечно,но и тут поверь такое себе,у меня 3070ti и сказать,что это круто?Нет,ни в одной игре современной нет супер высоких кадров,за исключением русских проектов типа атомик или вартандер,такое чувство что нвидиа специально карты замедляет драйверами.
При выходе новой видеокарты дрова старых видюх будут их замедлять в конкретных играх. PS. А вы замечали, что в киберпанке на РТХ тени тянутся за машинами ещё метров 10 как плащи?
Rtx 4080. С включенным DLAA + новые лучи около 20 фпс. С включенным длсс3 60 фпс, но инпут лаг хуже чем при облачном гейминге, абсолютно неиграбельно. Это для всех тех, кто твердил что длсс3 повышает инпут лаг незначительно. Включать длсс вместо длаа даже не предлагайте, у меня кровь из глаз идёт от мыла киберпанка без длаа.
@@Al_Necв 1440р на 4090 тоже огромный инпут лаг с длсс3+длаа+новые лучи. Не знаю как ты его мог не заметить. По старым лучам согласен. Абсолютно здоровые 120 фпс без инпут лага и точно такой же картинкой
Закон Мура мёртв, теперь закон Хуанга. Каждые 2 года цена на видеокарты удваивается
В топ!
Ваша игра разорвана в клочья
Мне больше показалось что хуанг убил такое явление как улучшение производительности за доллар
При этом еще делать меньше шину ,и урезать видео память )
Это еще с времен apple пошло
Шел 2023й год, люди до сих пор удивлялись бесконечному горизонту жадности Куртки.
В 2055 до сих пор жалуются
Потому что амуде не может в конкуренцию в сфере GPU и он @хуел.
@@Juggernaut_PC в 2077 привыкли 🤣
@@Tcyme007 в 2077 уже видеокарты в виде имплантов, но всё равно как 3 зп сук😢
-Шел 2023й год, люди до сих пор удивлялись бесконечному горизонту жадности Куртки.-
Ага, удивлялись и шли покупать дешёвые карты Радеон от АМД, за 500-600 долларов из серии RX 7900, а что бы игры на них не тормозили, они выбивали себе оба глаза! 😄😅🤣
Меня цены еще на 10** поколение настолько поразили что до сих пор не отпускает. Глядя как средняя карта с РРЦ в 200 басов превратилась за 4 года в 400 возникает вопрос - это что такая сильная инфляция в США или остальному населению планеты так резко и сильно подняли ЗП?
Замена 1060 это 1660, 3050. 2060 и особенно 2060s это карты другого класса по сравнению с 1060, начнем хотя бы с того, что гпу 2060s в два с лишним раза больше по площади чем у 1060.
Плата за технологии, если при 14нм кремниевая пластина на 300мм^2стоит 900дол/шт то при 4нм 22тыс/дол и количество чипов с пластины не покрывает разницы в цене😅
@@ctas8464 у 1060 вообще 200мм2 на 16нм. У 3060 - 276мм2 на 8нм. У 2060 445(!)мм2 на 16/12 нм.
@@danitch6848 да ты прав, только размер трафарета существенно не менялся , за счёт уменьшения разрешающей способности , растет итоговый размер кристалла, без существенных издержек,
@@danitch6848 2060s это условный аналог Series X/ PS5?
Я из обзоров 4070 увидел, что мы получаем производительность 3080 при энергопотреблении в районе 200Вт, против ~300Вт у 3080. Все ) А технически это получилось благодаря тому, что новый техпроцесс 4нм (в купэ с доработками архитектуры) позволил чипам работать на в полтора раза большей частоте (чем в прошлом поколении), а так, обе, 3070-4070 имеют по 5888SPU.
у 4070 еще кэш л2 36 мб появился. видимо для длсс3)
прикиньте в начале 3070 разрывала в клочья 2080ти за счет производительности и цены?
а теперь смотрите, 2080ти переиграет 3070ую за счёт видеопамяти ( у 3070 8 гб, а у 2080ти 11 гб ). прикиньте, да?
Ну ещё греется меньше градусов на 5-7
@@robot_0121 это если в 2к играть)
@@robot_0121 никогда 3070 не разрывала 2080ти, где то 3070 показывала +1-3фпс, где то наоборот
Поправочка. Овердрайв это не перезагрузка, а перегрузка. По сути термин подразумевает аварийный режим функционирования.
изнурять
run down, exhaust, wear, harass, fatigue, overdrive
задергать
overdrive, begin to pull
noun
ускоряющая передача
overdrive
@@pro100V Нихера не понятно, но оочень интересно.
Ага у меня в машине режим Овердрайв, только он почему то не аварийный...
@@ИванВащенко-я7п Аварийный аварийный. Покатайся на нём на постоянной основе заметишь. И это несмотря на то что он у тебя в машине овердрайв только по маркетингу. Чтоб слупить с твоей жопки чуть больше денег за эту "классную" фишечку.
Только тридцатую серию большинство смогло себе позволить только недавно. На старте получить карту по адекватной цене был тот еще квест.
я себе ноут взял на 3070 буквально неделю назад. а до этого у меня был ноут на 1050. щас сижу на 3070 и в зуму играю. шарики пык-пык...бздынь-бздынь! пика-чака-зума! капец наркоманская игра. затягивает круче героина. вот для чего 3070 нужна оказывается. у меня там киберпанк и атомик харт куплены. я их купил чтоб новый ноут опробовать. опробовал. все летает на ультрах. и дальше я снова в зуму играю. довольный как слон. теперь могу всем хвалиться что у меня киберпанк летает. правда я в него не играл но знаю что могу и что он летает. кароч такой себе игрун из меня...
@Dungeon Master_72 я вот взял себе 2к Моник, разница заметна и подобная карта даже доту не вытянет. Хз как ты прошел киберпранк, но удовольствия визуального от этого вряд-ли получил
Я себе сейчас только 20 серию смог позволить 😂
@@TheSK1PP кто прошел киберпанк? я прошел? я его только запустил и фпс посмотрел и температуру проца и видюхи и поиграл минут 15 и забросил. а то что там в2к разниц увидно..знаешь я этого не понимаю.. я разницу видел когда с денди на сегу перешел. потом видел разницу когда с сеги на первый пентиум. после 360го иксбокса я разницы все меньше и меньше замечал с каждым новым поколением консолей и процессоров. а когда мне говорят что есть разница между фулл хд и 2к и 4к то я просто ржу с этого. честно. это просто смешно. нукак бы разница-то мож и есть.. только не стоит она тех денег которые за нее просят. совершенно точно я не куплю ни новый комп ни новую приставку для того чтоб поиграть в киберпанк в 4к вместо фулл хд. графодрочерство какпо мне это тупиковая ветвь. когда все игрыстанут в4к тогда что? на8к дрочить начнешь? на16к? графика в игре это последнее что влияет на вовлечение. продажи нинтендо свитч в доказательство данной теории. вот честно... не знаю зачем новый ноут купил..сам не понимаю...лучше бы за эти деньги купил бы стимдек и прошитый свитч. это хоть новый опыт был бы... а теперь сижу с новым мощным ноутом и смотрю ютюб и в зуму играю...
@Dungeon Master_72 у меня была 760,она уже ничего не вывозила, поэтому взял 3060
Ждем 4020, с дорисовкой несуществующих сцен))
С нарисовкой несуществующих игр посредством нейросетей с ноля. Разработка же дорожает как никак.
2049 год, голографическая Куртка предлогает за 1000 кредитов купить его ИИ рассказ: ты закрываешь глаза и представляеш как у тебя все ультра, 1000 фпс летает Ведьмак 2077🤤
@@Propan4260 но даже там киберпункт тормозит))
@@vitobozow Потому что, добавили SuperOverdrive
@@vitobozow правильно, иначе не продаст новый рассказ ti на самых современных бархатных тягах за 1100 кредитов🤩
Надо было на ролик нарисовать фингал, для экспозиции.
Для ролика можно было и реально щёлкнуть 😂
скетч писался после видео, видимо, надо смотреть на Мишу на Стриме,
Как геймер, с одной стороны, соглашусь что rt override не так явно влияет если не знать, как вообще работает освещение. С другой стороны, как человек, который в 2011 году в 3дмаксе, с помощью maxvell render рендерил трассировкой пути одну картинку, разрешением 512*512, в течении 4 с половиной часов, а сейчас вижу эту же трассировку пути в реальном времени в FHD могу сказать только одно: ни**я себе!
Ну тогда-то мы рендерили на процессорах, а теперь всё на чипах, которые изначально сделаны для решения матриц и векторов. Так что нормально всё
@@ТоварищНовосельцев-ф8д я довольно давно перестал заниматься графикой) какое-то время ещё следил, удивлялся ещё, что появляются продукты, задействующие видеокарту. но до риалтайма всё равно не дотягивало
Сейчас на видюхе простые сцены можно отрендерить за секунды, которые на 16-ядерном проце занимают минуты.
Я вот специально в киберпунке сравнивал растр с овердрайвом.
Разница на лицо, как бы ни старались художники cdpr руками расставлять освещение.
Недостатки растра лезут со всех щелей.
С другой стороны, и недостатки овердрайва тоже лезут - слишком много шумов и лагов в тенях
@@PhilosophicalSock в том и дело, что специально. Для скринов и видосов - это топ технология, но в игре отличия между стандартной трассировкой и новой вообще незаметны, может в паре сцен отметишь, что стало лучше и все.
Надеюсь лет 5-10 ещё не будет технического прорыва в видеокартах, чтобы разработчики игр начали выдаивать не мощности видеокарты, а оптимизацию, для повышения качества графики
Ага, согласен, а то из Плейстейшен 5 выдавили всю её мощь, что даже выпустили порт The Last of Us. Part 1, с минимальными отличиями от консолей!
@@Igor-Bond играю в 2к 140 фпс на 3080ти, на консолях же 15-30 фпс с мыльными текстурками, но видимо им не привыкать
@@victork5613 это ты про какую игру?
@@KooKy35 Он наверное про The Last of Us. Part 1, на низких настройках, с DLSS производительность! Но у него зато текстуры на Ультра! 😆🤣
@@KooKy35 КС 1.6 )
Ема, саундтрек из Крайзиса 2... Вот это ностальгия
А Виталий в роли Дженсена Хуанга получился круто
Это Хуанг в роли Виталия
@@Korialstraz92 ахаха, реально
Когда вышли видеокарты 3000-й серии, появились слухи, что следующее поколение будет невероятным прорывом, такие же слухи появились недавно про 5000-ю серию. И вот оказывается, что 4000 действительно стала прорывом, но не столько по производительности, сколько по уровню цен. Что же будет с 5000 серией.
dlss 4.0 будет где нарисуют миллион ФПСов
40 серия и стала прорывом, просто гни выпустили старшие линейки карт на младших чипах. 4070ti не что иное, как 4060. А 4080 не на топовом чипе, то, что должно было стать 4070ti.
Прорыв был - прорыв пуканов
То есть 2ух кратный прирост производительности от топа это не прорыв?))
@@DhuXn Этип топом пользуеттся меньшенство. К тому же там прирост и за счёт размера и видимо за счёт увеличения стоимости компонентов. Так то можно 2-х метровую карту за 10К долларов сделать и тоже будет прирост. У 3000 серии был серьезный прирост у средних по цене карт.
Я на все это смотрю и делаю логичный вывод что никакой эры 4к в ближайшее 5 лет еще не настанет
У кого как. У кого деньги есть и 4к есть.
4K уже давно наступила, просто не включайте лучи.
@@Al_Nec совершенно верно!👍
@@Al_Nec вот вот
Ага. Я тв продавал 4к, ещё году этак в 2016 и тогда не было контента и было понятно что х вам а не контент. Мы продавцы думали ну вот, вот отключат аналоговое тв и запретят на продажи тв без DVBT2 тюнера. Но хер там каналам на цифру 1080р дорого переходить да и аналоговых тв а стране до куя. Контента нет Блю рей де факто мёртв, дорого да и онлайн сервисы а там и 720-1080 потянет. Вот и с играми такая же примерно куйня. P.S тв уже тогда могли картинку дорисовывать кадры из библиотеки добавлять😅
Я фиксил разрывы экрана через панель инвидиа.В параметрах 3д найдите "вертикальный синхроимпуль" и там поставьте "быстрый" тем самым разрывы пропадут.Не забудьте перезайти с игры.
P.S. в рдр2 не помогло,в киберпанке работает
На мониторе с VRR/Г-синк/Фри-синк нет проблем. Я хз откуда они ее выдумали, в очередной раз собрали все проблемы из инета которые случились у 3 человек из 100000 и выдали это как проблемы.
Вот да. Вертикальная синхронизация решает. Просто один раз включить в панели Nvidia и забыть. И проблем с разрывом кадра больше не будет.
За большие деньги с вашего кармана Нвидия готова избавить пользователей от тормозов, зависаний и проблем... тех проблем которые она же и создает своими чудесными лучами. Как говориться если вам хорошо живется без проблем, мы вам поможем и организуем их на ровном месте))
За Ваши деньги любой Хуанг лучи добавит.
Никто не мешает вам купить карту от AMD, которые сейчас сильно дешевле, и никаких лучей и dlss у вас не будет. А нет лучей - нет проблем, по вашей логике.
Лучи - ненужная игрушка.
У меня видеокарта 30й серии и лучи отключены абсолютно везде. Я ведь играть пришел, а не смотреть графический бенчмарк с сюжетом. Во время игры на эти отражения, тени и т.д. просто не обращаешь внимания уже спустя 10 минут геймплея.
@@draackul Как это не будет? А чего там (у амд) тогда русским по белому написано "Поддержка трассировки лучей - есть" в спецификациях? Тем более у них там своя амд - шная технология вместо длсс -ки вроде есть, хрен правда знаю как она там называется. Там тоже производитель не прочь денюжку покрупнее ухватить, рассказав сказки о "чудесах" графики нового поколения.
Да и огнетушителя у меня дома нет, а он к покупке обязателен, если берешь видюху от амд ))
@@dns972001 да ладно...что за дикие выдумки
Почему у этих гениев нет Оскаров и звёзд на аллее славы? Эти скетчи- пушка какая-то!
ни 1 Миша при съемке скетча - не пострадал,
@@dima_patriot_42rus77 Это самое главное!)
Скетч идиотский. Загуглите сколько кадров может действительно увидить глаз человека. Ответ вас удивит.
@@EnkiSumergod а не допускаешь, что это ради шутки сказано в юмористическом скетче?
@@thecat5991 Эта шутка меня уже задолбала. Я ее уже раз десять наверное на этом канале слышал. Серьезно, сколько можно? Может быть Виталик думает, что с каждым разом эта шутка становится все смешнее и смешнее?
Я думаю, это картельный сговор производителей железа и софта. Иначе невозможно объяснить, почему графика толком не улучшилась с 2011 года, а софт стал еще более тормознутый и багованный и занимает в 10-100 раз больше места на носителях. Все эти никому не нужные "лучи" и 4-8к разрешение - способ растянуть смерть существующей архитектуры гпу еще лет на 10.
Да не, тут деградация самих разработчиков, раньше чтобы написать игру приходилось в дебри ядра залетать, а теперь этого не надо, а если сделал что то через жопу то говори чтобы видюху покупали новую и все
@@saurontheblack6566 согласен. Поэтому сейчас относительно старые игры (3-5 летние, типа того же Death Stranding или Arkham City) могут выглядеть лучше, чем некоторые современные поделки игроделов
Это не картельный сговор , а банальное удобство пользования , и общедоступность инструментов разработки, если по простому высокоуровневые языки программирования, которые позволяют без серьезных знаний делать приложения , ценой некоторого увеличения системных требований, например 3d модель для какой нибудь мебели , сегодня любой человек в анрил энжене может ее сделать, без знаний языка программирования, но системные требования для этой модели будут минимальными требованиями самого анрила, а не модели это где то процессор i3 и видеокарта уровня rtx 3050 и 16 Гб оперативки, просто для одной 3d модели(!) , Но если самому написать визуализатор,инструменты, библиотеки для этой цели, то достаточно будет минимальх требований самой винды процессор уровня селерон+4гб оперативки+графика уровня uhd610 , а теперь внимание вопрос сколько людей могут создать 3d модель в анрил энжене и сколько людей могут написать визуализатор и библиотеки для этой модели чтобы экономить ресурсы железа?
Ну во первых с 2015, во вторых увеличение размера игр связанно с повышением разрешения текстур
А про лучи забавно читать тк когда то подобное говорили про шейдеры😅
Дело не в кривокукости индусов, а дело в том что сегодня не используется низкоуровневый язык программирования, который использует оптимально возможности железа, а используется высокоуровневый язык в котором железо с программой общаться через посредников что снижает возможный потенциал , но существенно ускоряет разработку и делает ее мение затратной , недостатки неэффективного использования ресурсов можно решить банальным улучшением качества самого железа , что в конечном итоге всем даёт плюсы , сегодня такой вектор развития индустрии,
Хорошо что все забыли про 20ю серию, никто уже не унижает, а мощности с лихвой хватает😊
С лихвой? Лолчто
@@DmitryIsc199 А что он не так сказал?
@@DmitryIsc199 А что тебя не устроило в его заключении?
Про 20-ю хоть и забыли, но 2000-ю всё ещё покупают! 😆🤣
Я рассматривал для себя 2060 и 2070 до покупки.
Но когда я прикинул соотношение цены к производительности и затрачиваемой мощности, 20я серия просто оказалась для моих задач неконкурентной.
Хотя для нейронок у неё больше тензорных ядер, внезапно.
И в комплектации на 12Гб памяти она оказывается актуальна, чтобы гонять нейронки.
Но есть проблемка: сейчас околонулевой шанс найти неотмайненную 2060
970 - 330$ - унижала 780ti за 700$
1070 - 380$ - нереально унижала 980ti за 650
2070 - 500$ - до 1080ti за 700 как до Луны
3070 - 500$ - кое-как равна 2080ti, превращаясь в тыкву, когда не хватает 8гб памяти (почти во всех играх 2023)
4070 - 600$ - кое-как равна 3080 за 700$ в низких разрешениях, с треском сливаясь в 4К.
К чему я это всё? Да к тому, что бить тревогу надо было на релизе Туринга в 2018г, но нет, ребятки делают вид, что Nvidia оборзела только сейчас.
А если учитывать, какие цены были на выходе 20 и 30 серии из-за майнинга. нынешняя 4070 выглядит богоподобно по цене. Но как было сказано в ролике "А ВОТ НА ВТОРИЧНОМ РЫНКЕ"0)))
@@BuGyH Только вот майнинг помер, а цены остались.
@@sergtrav да нет, при майнинге цены были х2 выше нынешних. Сейчас цена окончательная для рынка. Что оптимальный гейминг всегда ( последние лет 10 ) был от 400-500$ за видяху. Может я в другом мире живу и не замечал, что были дешевле аналоги не с рук.
@@BuGyH Ну да, RX470 за 200$, RX480 и 1060 за 240$, 970 за 330, 1070 за 380 не были оптимальным геймингом и именно поэтому являлись самыми популярными картами в течение очень долгого времени.
@@sergtrav ну в рознице таких цен не видел, особенно на старте продаж.
Ребят, отличный выпуск! Спасибо! Я тут неделю назад поменял свою "старенькую ))" 8Гб RX580 Nitro+ на новенькую RX 6750 12 Гб (да, я не любитель зеленых по многим причинам). И я таки вам скажу - огонь! Во-первых цена, во-вторых энергопотребление и температура, в-третьих 12 Гб, в-четвертых у меня фуллХД моник на 144 Гц. с поддержкой всех амд-фич - и все летает на ультрах. Да, я ради интереса попробовал 2077 с трассировкой лучей - если коротко, то 70 фпс в максимальном качестве без углубления в настройки - просто включил все что можно включить. И не могу сказать что был шокирован картинкой - ну да, цветной туман, отражения и все такое - но во многих играх это будет скорее мешать, чем радовать. Без лучей - производительность космос, ставлю ограничение на 144 фпс, и часто даже охлаждение не крутится ) при этом блок питания остался на 650 Вт (!), проц Ryzen7 5800x. В таркове 144 фпс на ультрах, в хогвартсе еще не замерял (но он и на 580 вполне себе летал, кроме лютых глюков с водой). 580 дочке поставил, она наконец доросла до нормальных игр после роблокса = )
RX580, была в своё время отличной картой, которая стоила на 30% дешевле чем GTX1060(в одинаковом исполнении), а производительности сейчас её опережает за счёт 8Гб памяти. Такая же история сейчас и с RX6750XT, уже есть проекты(например Last of us), где она выдаёт стабильные 60 кадров на ультрах в QHD, а бедные 3070 и 3070ti, страдают от нехватки памяти которую зажал Хуанг и просаживаются до 40 кадров🤦
У меня есть две карты RX6700XT и RTX3090, и могу сказать, что с покупкой ты точно не ошибся, ибо ситуация с лучами ровным счётом такая как описана в видео, даже 3090 зачастую не вывозит лучи в QHD, так ещё и работают они нормально в единицах проектов, а картинка если и меняет то изменения, можно заметить только при сравнении скринов, а производительность обваливается. Ну и конечно RX6000, похолоднее и энергоэффективнее чем RTX3000.
Ну 70фпс на ультрах с трасировкой это конечно ты гонишь, у меня была такая карта в исполнении аурус, и с трасировкой на ультрах играть невозможно, я продал её из-за того что у амд есть микролаги и сглаживание плохое на прямых линиях и ещё температура перехода до 110 греется, щас взял 4070
Пора уже понять что не графика делает игру хорошей, а стилистика - даже если эта стилистика пиксельная)
Не всегда же. Насто***ет же ВСЕГДА играть в пиксельные игры. Помню как играл во всякие Dragon Age, Mass Effect и мечтал - вот эту игру бы, да на ультратехнологический фотореалистичный графон и вообще бы пушка была. Прошло 14 лет и такие игры особо никто не делает вообще в крупный бюджет. Про гофон вообще молчу.
@@belomorcanal Ну, я не сказал что ВСЕ нужно пиксельное - для примера)А то если у тебя фотореалистичное 8К на экране, а стилистика хрень...)
моя 2060Super тормозит на пиксельной Cataclysm DDA (это сарказм, если кто-то не понял), но с включенном rtx в Кибербанке77 держит 30фпс в городе на ультрах (а вот это не шутка), ну да у меня 32гб рам, но это ж мелочи. Может, помимо видюхи вам не стоит экономить на матери и проце, чтобы хорошая стилистика была обеспечена еще и нормальной картинкой?
@@flomancer4378 ну в целом да, арт дизайн > графооон
Игры фромов и игры нинтендо это наглядно демонстрируют
Persona 5 с пс3 передаёт привет
Гордость взяла за свою 3060 ti 😢 А то уже начинал комплексовать на фоне 40 серии , спасибо вернули уверенность в свою видюху 😊
у меня 3080 лаптоп живем норм😊
@@Kurt12345 плюсую. Лаптоп на 40й покупать ещё за 3-4 штуки чёт не горит.
Эээээ Я только в январе поменял 1060 на 3060. Не надо ее унижать))))
@@Andrew-79 поддерживаю, 3060 очень хорошая карта, холодная, многое может и за электричество лишнего не набегает.
Комплекс из-за видюхи? Печально! Сочувствую!
Я думаю многие неправильно смотрят на ситуацию. Если вспомнить времена до майнинга, мы получали не такой уж большой прирост производительности между поколениями, обычно 10-15%. А тут Двухтысячная линейка с конским приростом и спустя всего год Трехтысячная, что вообще нелогично с точки зрения маркетинга. Эти карты делались исключительно для майнеров, и если бы не они, мы бы еще пару лет ждали Трехтысячную линейку. А сейчас все, праздник кончился, возвращаемся к старой схеме.
Подача материала у вас отличная этот канал просто находка. Я бы ничего не менял. Звук, картинка и освещение, цветкор, монтаж, темы в видео, всё на достойном уровне, вы молодцы 😊
До сих пор считаю что для 2к гейминга вполне хватает и RTX 2070 Super
Прошел на ней и RDR2, Киберпанк, GoW и Харайзен в высоких настройках и не испытывал проблем с кадрами.
Линейки 20хх/30хх вполне хватает для некстген графики, просто нужно остановится на 3-5 лет, тогда разработчики будут поспевать.
Почти все современные ААА проекты просто тупо не оптимизированы и тут никакая 40хх не поможет.
Сейчас игровой проект ААА класса, делают примерно 3-4 года. За это время, технологии и карты меняются так же 3-4 раза. Это же ппц просто.
Они не видят смысла в оптимизации. Их волнует не конечный покупатель и его удовлетворение, а прибыль. Можно покупателю пообещать что угодно, он купит и всё. Всё держится на рекламе и обещаниях, а не качестве. И покупателю ещё предлагают доплатить за решение проблем. Это 5 букв, первая п. Или х, как вам больше нравится.
@@АннаБажина-ъ4ц Это вы про менеджеров, а разработчики бы и рады, но с учетом частого изменения технологий и давления со стороны менеджеров, они просто не успевают или им не дают закончить продукт.
Либо менеджеры просто пытаются продавить ту или иную идею/механику, которая не была заранее оговорена на старте разработки, а крайними остаются разработчики, которым просто не хватило времени или нет технической возможности внедрить эти хотелки.
Вывод - во всем виноваты менеджеры ))
@@GreatBAO2 разработчики в этом всём козлы отпущения. Так как именно им прилетает за плохо сделанные игры, которые им не дают довести до ума. Разработчики теряют работу, получают критику от игроков. А менеджеры забирают себе большую часть прибыли и думают дальше, как бы ещё собрать денег. А разработчиков на улицу, если прибыли было мало. Система говно, кушайте лопатой, покупатели. А бета-тестеры вообще скоро существовать перестанут. Лишние деньги, а пипл схавает. Тот же Киберпанк показал, что так можно делать. На релизе куча багов и тормозов, но через 2 года исправили, а люди рады, какая классная игра. Даже "2 придурка с камерой" похвалили Киберпанк в 2022. Зачем сразу делать нормально?
@@АннаБажина-ъ4ц Все верно. Разработчики всегда будут крайними в этих ситуациях, мне их честно жаль.
Но это началось задолго до Киберпанка.
Сейчас в памяти всплывает тот же No Man Sky (2016) который на старте получил кучу негатива из за слишком раннего релиза. Но разработчики молодцы, до сих пор выпускают бесплатные дополнения (вроде уже как порядка 25 крупных обновлений было) и тем самым поддерживают свой продукт.
Так же можно вспомнить Ведьмака 3-го, история тоже переворачивалась с ног на голову из за поспешного выхода и дальнейшего допиливания до идеала.
Но таких примеров мало, в основном это выпуск пары патчей, а дальше менеджеры просто не заинтересованы в поддержании продукта, пусть даже он и собрал на старте хорошие деньги и сформировал хорошую фанбазу.
@@GreatBAO2 да, лучше уж пусть допиливают, хоть через 2 года, хоть через 5. Чем бросать в воду говно и не пытаться его убрать, а ждать, что уплывёт и не вернётся обратно.
Лет 6 назад я взял себе GTX970. После моей уж не помню чего - просто феерия. Там шаг прям через пару ступеней был.
Лет 5 назад я взял себе 1080ti (nvidia) за 20к, как щас помню. Доволен был как слон, всё просто летало, а уж какая она холодная была после амд'эхи...
Прошлой осенью я взял 3080ti tuf (в промежутке был грейд системы в целом) ажно за 75к с учётом доставки. Новую, в плёночке.. и-и-и да! Вот да. Всё идёт, всё летает. Думал я, пока на 2077 не начали выходить эти обновы по 15-20 гигов.. не могу сказать, что графика прям радикально стала лучше. нет, для статической картинки, ради фото - да, можно найти местечко, всё врубить и сделать скрин, но в обычной игре - нет, это всё либо не заметно, либо пи*дец как нагружает систему. По итогу - для чего и для кого эти нововведения... массегмент сидит на более слабых компах, которые этот праздник жизни видит "через окно, стоя снаружи"..
4к серию я брать не буду точно. Слишком дорого и бесполезно (ну не 4090ti же брать когда она там появится, в самом деле), придётся ждать пятитысячную серию... но боюсь, что там цены будут вообще запредельные..
Амуде или бу рынок)
@@shining_buddha amd пока только обделывается с новыми картами. Не сказать, чтоб прям жиденько, но очень недалеко от этого (что лично меня очень огорчает, я был бы рад реальному конкуренту линейки нвидии), ну а бу я уже давно не беру - хрен знает кто и как пользовал это железо и в каком оно состоянии.. уж больно много патронов в барабане такой рулетки
Абсолютно согласен ребята, от первой и до последней фразы. У вас прекрасные, очень честные и справедливые выпуски. Всё отлично, спасибо Вам, так держать, всех благ и процветания всегда, везде и во всём 🤝🤝🤝
жаль доводов, кроме "нам так кажется, считать ничего не будем, просто дадим поверхностное мнение" нет... В целом таков девиз их профессии)
Абсолютно не согласен . Рынок порешает все так как ему нужно. А это нытье , то что тебе не продали то что ты хочешь , за столько за сколько хочешь. Они сделали , они и решают цены . Хош бери хош нет , ВСЕ!!!! в чем проблема ?
@@ВоваЦепин они делают, они решают, но так не делается, это скот кое отношение к людям, это просто отмывание бабла и это не правильно. Не согласен, это твоё право, гнись под них дальше. Это пидоры и проджекты давно уже под них гнутся, ещё с момента выхода киберпанка. Да с такой древней графикой игры от проджектов должны летать просто даже на 10 поколении карт. Здесь сразу видно умышленное завышение требований по играм, чтобы люди покупали новые карты у алчного Хуанга, ну и своим подсосам конечно же отламывал кусочек от этого пирога. Нормальные, адекватные, НЕ ПРОДАЖНЫЕ игроделы, никогда не будут завышать умышленно требования к играм, чтобы как можно больше людей смогли приобрести и поиграть комфортно в их проекты. Но грёбаные, продажные подсосы проджекты к категории адекватных уже давно не относятся. Вот и тормозят их мультяшные игры с графикой 2015 года даже на очень производительных системах. ПИ-ДО-РЫ одним словом.......
@@ВоваЦепин : нынче такое время , что "они" продают тебе то , что считают нужным и по нужным "им" ценам . Не нравится , то на … с пляжа , выбора у тебя нет . И с каждым разом всё жёстче и жёстче . Реалии жизни и так почти во всём .
@@Alexander_Sergeevich_80 Ну если они посчитаю нужным тебе кусок говна ( вот прям говна в прямом смысле ) продать , ты что возьмешь? Не возможно продать то что не востребовано , потому наверное все же они продают тебе то что ты ХОЧЕШЬ . плевав на то за сколько ты это хочешь . Вот рынок и порешал. Именно потребности определяют рынок , не спрос , ни предложение а только потребности . Если у тебя нет потребности в чем то , то продать тебе это не возможно . Ну если только под дулом пистолета , но там можно и просто ограбить. Примеров куча . На пример технология 3д , она крутая , каждый раз про нее вспоминают .То очки в 2000х зд , то мониторы зд на выставке . Потом сделали телеки 3д обьявив эру 3д. Потом снова очки но уже по новой технологии. И где все эти зд плюшки ? А сколько не рекламь , у людей в зд потребности то по сути нет. Побалуются один изз десяти , и потом пылится гаджет. Хотя реклама дикая и с насыщенностью ассортимента проблем нет. А монополия она не вечна . Ничего , ваять ниже техпроцесс уже никуда , сейчас побалуются ии вычислениями , поймут что там то же упирается . Вспомнят про сли и кросс фаер режимы . Комп будущего , это другие мат платы , который позволят компактно разместить 4-8 видео карт , и технологии позволяющие адекватно работать на таких связках. Если не изобретут новый вид чипов с легко доступной штамповкой . А это чую не изобретут. Так что геймерам нужно это осознать ,и просто перестать покупать то что уже устарело на писе своего могущества. И вот там нытья будет ой как много , новые мат платы , новые системы , новое ПО , под эти системы . А еще решить вопрос с компактностью уже не получится это 100% Забывайте потихоньку про ноуты , им жить осталось 5-8 лет , как проф решениям в поездках . Все остальные проф задачи будут на пк дома .
Улучшение освещения уже почти не приближает фотореализм. Нужны другие подходы. Например лицевая анимация. Как не освещая резиновую рожу, она остается резиновой. Вот этим пусть займутся нейросети.
+, да и прорывных технологий в физике объектов и персонажей уже давно не было. Нпс как ходили дубовые в какой-нибдуь гта4, так и ходят в кб2077, не говоря уже о жидкостях и разрушаемости
Толку то от суперкрутого освещения, когда текстуры вручную рисуют и материалы кое как настраивают. В таком случае и асфальт не выглядит как асфальт, и машины словно сделаны не из металла.
Так уже давно есть стандартизированные, спектрографами калибрированные библиотеки материалов, чтобы всё выглядело как в Реале, а против пластмассовых рож также давно имеется SSS(subsurface scattering) с путями лучей работает бомбически, но есть и шейдерные имплементации. Всё блин есть, но арт-директоров, похоже, чудо травка никак не отпускает. Хорошо, что от жёлтого Блума как в играх из 2000-ых избавились.
Сижу 5й год на MSI 1060 6Gb и ору в голос с людей, которые спорят о 2- 3 и 4й сериях...
Товарищ, что раньше ржал надо мной мол нищеброд, за пол года в 4к спалил 2070 на своём старом компе и купил 3060 вместе с новым компом в 2 раза дороже и до сих пор просит меня пошаманить с настройками, то ФПС ему не хватает , то графоний мылом глаз мажет , я ему говорю играй в разрешении 1080р и не парься 😂
Р.s. у товарища есть PS 5 на которой онв 4к играет только в футбол и МК ...
а не проще радеоны покупать? 6000 и 7000 вполне хорошие и конкурентноспособные видяхи. сижу на 7900хтх и не нарадуюсь
Не знаю как у кого, но я в новом режиме овердрайв в первую очередь увидел пересвет картинки от настроек сияния. Это единственное что мне удалось отчётливо увидеть из изменений и это меня не сказать что б порадовало. Мои глаза не выдержат долгой игры с такой картинкой.
Такая же беда. Смотрел обзоры на RT Overdrive м видел в первую очередь повышение контрастности в кадре с темными и светлыми областями, из-за чего в темных областях ничего не видно, а в светлых слишком ярко для глаз. Если эти обзоры еще и на 50% яркости в настройках игры, то мои глаза тупо и минуты с лучами не выдержат, т.к. я в большинстве игр выставляю яркость в настройках в пределах 70-80%, чтобы нормально ориентироваться в пространстве
Скетч в этот раз пушка, уставший за рулем подняли настроение, лайк👍
Скорее всего проблема не в железе, а современных ОС и драйверах, плохо сделанных ПО.
Что имею веду? Разъясняю, для не понявшим. Для наглядности возьмём ОС Win10, в хорошо оптимизированном варианте, очищенном виде, его инсталлятор весить примерно 1 гигабайт. После инсталляции, в базовом варианте, занимает примерно 2-3 гигабайт. В том виде что идут от Майкрософт, просто беда, эти монстры огромны! При этом, просто драйвера на железо в инсталляторах занимают те же 1 гигабайт. Некоторые возразят, нет это не так, там упакованы драйвера на разное железо! Тогда попробуйте проведите эксперимент, вытащите все драйвера с текущего вашего железа и упакуйте в инсталлятор. Получите удивительные результаты, необходимые драйвера стали весит почти как оптимизированная ОС. Теперь поглядите на современное ПО, это же какие то монстры, занимающие кучу места и ресурсов железа. Для примера берём браузеры 2023 года и что видим? Да эти неповоротливые монстры выжирают оперативную память больше чем ОС! К чему я подвожу, то что сейчас творится это ужас. Как многие шутят, индусы делают дичь... 🤕
В киберпанке забавно наблюдать супер-пупер освещение на фоне кривой физики и анимаций😅
Рэгдолл там особенно упоротый, такие позы трупов я не видел нигде и никогда.
@@Alex.ushakoff видал и похуже. Маловато ты игр видел, видимо...
я как увидел трассировку на сетчатых участках в ролике,просто в осадок выпал,а стоит ли вообще включать рт...)
@@Andaletru Я не говорил, что они плохие, я говорил, что они упоротые. Я в игры ещё на ZX-Spectrum с 48 кб оперативки играл, мальчик, игр я повидал дохуя.
@@Alex.ushakoff если видел много игр, то не пори херни. Тем более в старых играх рекдолы были такие, что просто кровь из глаз.
Купил 3060ти за 1к$ во время бума, да, вот такой я везучий)
Раньше было такое
У меня сейчас на руках 1080ti и 2080super
Карта одинаковые по стоимости из разных поколений, разница +-2%, но есть ретрейсинг в 2080
А NVIDIA сравнивала 1080ti и 2080ti в рекламе, но 2080ti была изначально дороже 1080ti в момент выхода.
Так что это было, просто повторяется!
А ничего что 2080 имеет РТХ и ДЛСС, в которых полностью уничтожает 1080? И до сих пор тянет все.
20 серию в момент выхода хейтили все кто не лень, у нвидии обычно через одно поколение годные карты получаются
@@ЛолКек-ш6й8э хейтили, только те, кто не купил, я купил 2070 в июне 2020 за 27к и играю сейчас на ней во все игры в 2560*1080 на ультра настройках. А видеокарте уже 5 лет! Я очень ей доволен.
@@ArchyVai0 Будем честны, rtx на 2080 далеко не все игры тянет в ретрейсинге. А dlss только 2.0 добавляет задержки в управлении и мылит картинку.
В большинстве игр я отключал ретрейсинг, стабильные 100+ фпс важнее.
И между поколениями прошло 3 года, а разницы на фпс нет. До этого рост фпс был около 20% между поколениями. Я бы лучше получил на 20% фпс больше, чем сомнительный dlss 2.0 и еле-живой ретрейсинг.
@@ArchyVai0 Так я и 1080ti на ультрах играю и тоже 2к, она и фпс больше показывает чем твоя 2070. Её ещё и с очень хорошей скидкой купил, точно дешевле чем 2070 стоила в момент выхода)
Мы же карту сравниваем с аналогами, точнее с прошлым поколением. И 20-тая серия была прям провальная.
Особенно смешно, что я купил 1080ti по цене 2060 на распродаже, а по фпсу она как 2080))
40я серия создавалась под майнинг, всё просто хочешь оборудование на 20% производительнее? плати на 20% больше, честно же
Майнеры ещё выживают?
@@destroy1440 они были на пике жизни, когда 40я задумывалась. а вот когда вышла - тут другой вопрос:D
Это верно, 40хх была изобретена на мощностях 30хх и с более экономной элементом базой, чтобы стричь майнеров ещё больше, но случилось другое и теперь нужно придумать софт, который только для 40хх, хотя это гоуно и так бы пошло на 20хх и 30хх. Скорее бы этот период в игровой индустрии прошел уже
майнеры делали деньги из воздуха, не работали и богатели. Могли 4090 за год отбить... дармоеды,
С таким подходом условно говоря мы могли бы довольствоваться ртх4010 по цене 8800ультра, а ртх 4090 стоила бы вообще 20к+ доларов
Майнинг бум показал что цена карт не имеет значения. Новый бум нейронок и искусственного интеллекта требует соответствующих gpu.
Соль в том, что и 4090 и 4070ti рвут в клочья предыдущую серию, но только не совсем так, как игрокам интересно.
Рвут они в области матричных вычислений, в обучении и применении нейросетей.
Это новый бум на замену майнерского.
В играх нейросети - это та самая дорисовка и апскейл. И всё. Даже на анимацию ещё ничего не завезли.
В игроделии - возможно какие-то АИ-ассистенты, но тоже не слыхал хайпа, видимо ещё не вышло в релиз.
24:14
Нвидия видит всё правильно. Они понимают, что компании захотят экономить на человеческом труде. И сэкономить помогут нейросети. А значит нужны железяки, которые эти нейронки хорошо крутят и сдача в аренду супержелезяк, на которых выгодно обучать нейронки.
В итоге игра, на которую визуально кажется, что сильно больше труда потрачено, будет стоить почти так же.
Интерес хуанга - это продажа и сдача в аренду железа крупным игрокам рынка а не игрокам в игрушки.
Вы начали добавлять в саундтрек скетчей ностальгию! Сльозы!!! ❤❤❤
Про стоимость 30-й линейки очень "смешно", учитывая, что там РРЦ даже близко не было, 3080 стоила в районе 300к в моменте у нас.
я брал 3070 за 55к в ноябре, ррц было 48к если не ошибаюсь.
Пля, чувак, какие 300к? Ты поплыл?
У нас(в России) не одна видеокарта не стоила когда-либо, дороже 150к(не беря в расчёт 90-ый индекс, который покупают для рендринга на дому).
Учитывая непредсказуемые скачки курса, у вас - всё же не показатель.
Хотя сам, признаться, на 1070 сижу. 30ки - бу брать изначально не вариант, а новую - уже непонятно, есть ли смысл, если 4070 при той же производительности меньше кушает и греется.
@@LAIN_87 Майнинг бум.3070 стоила в районе 150к.3080 бывало за 250 тысяч переваливала.В моменте 3090 стоила 350к+.Я сам цены по приколу мониторил и помню что да как.
@@КириллСеменов-и3ж Подтверждаю. Когда RTX 3060 стоила 60+
Вы ещё забыли упомянуть, что нвидия всегда в видеокарты ложит памяти ровно столько, сколько хватает по нижней планке, чтобы в следующем поколении добавить чуть-чуть. В итоге уже сейчас 3070 годится только для fullhd, выше видеопамяти не хватает в нативном разрешении.
Памяти как раз хватает.на разрешение как раз много памяти не надо, на экранку плюс буферы. Обсчет картинки больше.
Действительно, зачем куча памяти, чтобы держать инфу о куче пикселей для отрисовки
На встройках видеопамяти ваще нет
Не для разрешения, а не для оптимизированных игр нужна память. Сейчас RE 4 жрёт 12-14гб при максимальных настройках, а графика как в RE2.
Пришлось тени на высокие ставить и текстуры высокие на 2гб. в итоге стала 5.5гб. жрать что всё равно много для такой графики.
Но можно же купить видеокарту от конкурента, например как это сделал Виталик, который в захлёб хвалил АМД, и говорил что следующей картой после RTX 3080 у него будет карта от АМД Радеон RX 7900 XTX, там памяти много! А простому игроку в видеоигры можно приобрести мощную RX 6800 за недорого, у которой 16 Гб памяти!
Глазом не видишь, а сердцем понимаешь - это отлить в граните. Виталь, ты погугли еще, что такое LoDы например, или изучи основы 3D графики. Вот смотришь ты на дальний объект, и все вроде красиво, и разницы ты не видишь, а сердцем понимаешь, что детализация то там раз в 5 ниже, чем если бы этот объект был бы перед тобой. Ненастоящее, подделка! А еще видеокарты умеют снижать детализацию в тех частях кадра которые скажем сильно затемнены,, ты этого как бы не видишь, но сердцем то понимаешь, что видеокарта детализацию снизила, а еще например мир вокруг тебя он не отрисовывается. Вот идешь ты идешь по карте, птички поют, все красиво, а повернул камеру и понимаешь сердцем, что птичек то уже больше нету, видеокарта их уже не отрисовывает. Мир вокруг ненастоящий!111 Жесть, как же вы сову то на глобус натягиваете. Инвидиа вам тоже на халяву видеокарты не подарила что ли, как и Проджекты ключи от Киберпанка вот у вас и горит так?
Тоже орнул с этого "не видишь, но сердечко чувствует". Такой адовой доёбки ещё не встречал.
Пытается изобразить боль даже там, где её в принципе не может быть
Закон Мура мёртв............Да здравсвует Хуанг !!! ))))) Лайк , подписка , колокольчик !!!
предлагаю ждать 66690. Тут уже точно не прогадаем. И по всем параметрам! Спасибо за информацию и за мнение! Здоровья вам!
Скорее людишки друг друга перебьют, чем дождёмся такой видюхи.
Уже есть 6650XT, имбовая карта за свои деньги
@@keesou это не достает до моей дьявольской карты)
@@Draks13_ Ну у меня 6600 от Асрока, с 3060 может потягаться спокойно, а даже в нативе превосходит её
Я давно читал что Nvidia , хотела поднять среднюю стоимость видеокарт с 350 доларов до 600-700 , вот как бы и делает 🤷♂️
У меня 3070. Rtx не включаю вообще. Поначалу включал, но потом понял, что фпс куда дороже чем то, во что надо всматриваться. Тем более в некоторых играх искусственное отражение выглядит даже лучше чем с rtx.
Про отражение чистая правда.
И вообще смешно, как эти двое опять близняшек вспомнили с их "ИДЕАЛЬНОЙ" оптимизацией. Только вот этим двум не говорите, что на выходе киберпанка, если так же вырубить ртх - то игра шла хорошо для своего размера. Просто современная AAA игра вырезает к херам RTX - все, гении оптимизации)0))) Уровень журналистики мое почтение
Нвидия всегда так делала. Добавляла технологию которая тормозила на топовых картах. Чтобы купивший топ, сразу купил новый топ когда он выйдет. Раньше это был физикс, сейчас рт. А до этого T&L.
И вывод какой? Не надо ничего делать? Деды же играли на атари2600, так хули нам выёбываться с этими лучами, да?
Только сел есть и не было ничего на ютубе посмотреть, как вышел ваш ролик. Очень вовремя!
Пока ролик идёт, можно стол съесть.
а я на толчок,
DLSS и лучи очень сильно привязаны к дровам. Может до такого дойти, что лучи/dlss будут на всех картах, но нужно будет подписку в драйвере оплатить за доп функции.
P.S. DLSS в играх кстати очень заметен опытному пользователю на глаз. Даже в режиме "качество".
графон с DLSS просто г***о
Недавно обновил эти драйвера и моя 3080 начала орать как ебанутая
В 4К вообще DLSS ссанина ещё та. Артифакты, мыло и прочие вытекающие. Пока что лучше нативного разрешения ничего не придумали, за РЕЕЕЕДКИМ исключением можно разок включить, но это когда разрабы на столько рукажопы что TAA к примеру сломан в хламину.
Удалите коммент, пока NVIDIA не преисполнилась, читая комментарии к роликам IXBT.
Карту один раз купил. А потом покупаешь нове дрова 1080, потом 2080 3080 и далее. Цифры меняються в свойствах. И все бинго. Можно завод закрыть, зачем это устаревшее производство. Бинго. Ну если не купил дрова, будет тормозить, прям в коде прописать на каких играх. Купил опять в дамках)
Хуанг всё объяснил же. Видеокарта мощнее, значит стоить должна дороже. 5090 по этой логике 3000$+ будет стоить.
Копать надо в направлении софтописателей. Нанять людей с плётками (или поставить автомат под управлением ИИ), чтобы раз в 30 минут хлестал программистов плёткой.
Человеческий глаз больше 30фпс не видит и я обосную сейчас своё высказывание.
Если взять 30 белых листов в ворде и на одной из них поставить чёрную точку крутить их в 30 кадров в секунду то ты точно не заметишь это чёрную точку не как
В доме у каждого у вас обычные лампочки мигают 30кадров в секунду, но вы не видите мерцание.
А, тогда почему вы в 30фпс в играх видим эти проседы это потому что объектов на картинке слишком много и по этому вы думаете что видите больше 30fps и да не все одеты в игре крутятся в 30фпс и поэтому вы видите прадеды, но это не так человеческий глаз не видит больше 30фпс и точка.
Хохма в том, что неросети тоже сильно привязаны к закону мура, а значит на этом поприще тоже революционных подвижек ждать не стоит.
Просто надо еще дополнительно патч за ту же цену докупить и тогдаааааа, возмооооооожно, тормозить не будет, но вы должны понять, и войти в положение, компания Нвидия маленькая, денег особо нет, так что, подобное простительно. Это как компании Майкрософт и Сони нынче в суде, пытаются доказать, какие они маленькие, и ущербные, прямо видишь это, и пожалеть хочется чисто по человечески 🤗
Торможение это изюминка ❤
У каждой карточки должна быть изюминка и маленькое черное платье 😄
В нём есть что-то для каждого
отрицательное ускорение
Если игра не тормозит - значит недостаточно технологична, пастген, а то и вообще инди!
Спасибо вам большое за это прекрасный и прикольный ролик) Я очень люблю ваш канал) Вы реально одни из лучших и главное вы не продаетесь- это очень ценное качество. Я тоже владею RTX 3060 это просто обалденная карта. Вот в прямом смысле все тянет и на самых высоких настройках. Все просто идеально. И чувство такое приятное, когда не тормозит и выдает хороший фпс, все просто четко. А графика , словно в кино играешь) Я тоже считаю, что RTX 3060 еще дооолго будет рулить)
3060 уровень 2060 super
@@ЛеоБелью вообще нет с ней проблем как по маслу все идет)
Там память hynix отваливается
С ностальгией и лёгкой печалью вспоминаю времена, когда покупал GTX 570 за 12к и это был предтоп...
10 лет я сидел на 660 купленной за 6500
Я брал 670 за 12к, 970 за 20, 1070 за 30 от приличных вендоров, 3070 уже за 51к, прирост почти всегда был +50%. сейчас норм апгрейд только 4070ti за 80? Пошла nvidia с такими ценами нах - буду ждать 5070 - там пусть и за 80к но хотя бы прирост будет х2.
Хуанг переоценил свои возможности, когда увидел, что люди покупают карты за 50-100к и выше.)) Может он просто не знал про майнинг? Либо просто подумал, ну раз люди тогда покупали видео карты, по другой причине, значит и сейчас купят, без причины ведь, если тогда были деньги, значит и сейчас найдутся.))))
Производительности мало? А давно все на 4к гейминг перешли и +200 и выше герцовые мониторы? Чтобы требовать Хунга ещё больше производительности?) Так что сидите там на своих квад хд и фул хд.) И покупайте 30 серию за реально норм деньги для своих 144 герцовых мониторов.) Кстати, тоже подумываю 3060 взять только не за 40к , но мне уже пора проц менять:( Видео карта уже не поможет. А вот за 25 взял бы 3060 новую для фул хд.
Ладно, на 50х серии Хуанг спустится с небес и сбавит цену как на 10х было с 900х если конечно маркетинговый отдел и инженеры не придумают новую фичу, а то лучами уже никого не удивить. Поры бы уже что-то новое внедрять. Например новые анимации, с использованием искусственного интеллекта, типа использующееся скелет который полностью моделировал в рил тайме супер реалистические анимации, копируя наши движения, или вообще мимику лица, но это уже не много другое.
Или может уже пора физику довести до ума.
Или вообще пора бы уже внедрять в искусственный интеллект нейронную сеть в игры. С нелинейным сюжетом, чтоб на каждое твое действия нейронка постоянно давала свои разные варианты.
Ладно, блин, я спалил концепцию новой части Half-Life 3. Хорошо что никто не дочитает этот комент до конца и не узнает этот спойлер.
Я с 9-го поколения покупаю 70-е версии. Люблю изучать продукт перед покупкой, поэтому ответственно заявляю: каждая 70-я версия не просто была производительней 80-й версии прошлого поколения, а производителей на десяток или 2 процента. При этом цена ощутимо росла только у "жадной до денег" 2070. Особенно наглядно этот прирост производительности выражался у 1070 и 3070.
А эта новая какашка 4070 еле-еле борется с 3080, чаще ей уступая. При этом на 100 баксов дороже. Те, кто покупал 70-ю версию, уже не рассматривают её к покупке, а те, кто покупал раньше топ, уже купили себе 4090. Эта карта не имеет своего покупателя, и потому идёт дорогой дальней...
Я же настолько опечалился и состоянием игр на ПК, и ценой на видеокарты, что психанул, и купил себе год назад PS5. И вы знаете... Я уже полгода Стим не открывал, потому что ПК-гейминг меня потерял, скорее всего, очень надолго...
вотиидинах и не возвращайся
есть одна проблема - малое количество видеопамяти
Ну, кому лень подкрутить настройки - тем мало. Тупо выкрутить на ультра многого не надо. Тогда уж консоль проще купить где всё за юзера настроили и юзай как дали. А уж руки разрабов выпремлять дело их руководителей. На оптимизацию положили болтище практически все. Вот Мандфиш молодцы - Атомик Харт летает на всём чём можно. Вот в том же RE4 (БЕЗ ЛУЧЕЙ) игра использует столько видеопамяти сколько доступно, всё ОК. Если есть больше, то буферизирует больше данных, но максимум до 12 гигов (и то в 4К, в 1440p меньше), а на той же 3070 не больше 7 гигов.
@@edegors да, в консоли же стоит аналог RX 6700xt с 16гб видеопамяти.... Что-то подобное было в эпоху kepler и GCN, через пару лет, требования к видеопамяти стали тупо 3гб, которые были на амуде и соснолях, а кеплер с 2гб сосат. Прохождение вульфенштайна в 30фпс в 800x600 на gtx 770 2gb было незабываемо
Забавно 😀, но многие современные игры буду "проходиться" также, как сказал Миша: МЫ БУДЕМ ИХ ПРОСМАТРИВАТЬ В ШИКАРНОМ КАЧЕСТВЕ, с коментами от разных блогеров 😃😃😃
Не понимаю возмущения . Рынок порешал и еще порешает . Че гнать на продавца , за то что он продает свой товар за столько , за сколько хочет ? Да , труды должны быть оплачиваемые . Если майнеры соскочили , рынок ужался , то вариантов развития событий много . В железе всегда были повышения цен , когда спрос падал не во время . Он упал не во время . Понижения цен были , когда была жесткая конкуренция , и при этом спрос маленький , но сейчас жесткой конкуренции нет , за счет того что чипов и процессоров ( последних 6-5 нанометров ) на всех не хватает , фабрики и без майнеров загружены на полную . Ждите когда выйдут 2 нанометра , или когда 5-6 нанометров станет полно фабрик , вот тогда и дешевле станет.
10:10 насколько я понял, проблемы не в том, чтобы сделать меньше, а в том, что частицы начинают себя вести по другой физике. То бишь, по физике частиц, или квантовой физике, а это не подходит для существующих технологий. Именно поэтому все так возбуждаются от слов про квантовый компьютер. Не из-за того, что он там какие-то чудеса показывает, а потому что он может работать с частицами, что позволяет делать технологии ещё меньше.
Но могу и ошибаться, поскольку уже довольно таки давно слушал выступление на эту тему.
4060 конечно ржач. Кастрировали во всем
4056 с 6 гигами ещё не видел ) Баксов эдак за 300 без ндс
Топовые видеокарты если кто помнит раньше стоили 500 долларов и это считалось много, а тут за 700 говорят ))
НУ раньше и 500 долларов были, как сейчас 700)) инфляция собака такая
770gtx,предтоп, покупал на старте за 450 долларов.
По поводу транзисторов я не особо понял, что вам не нравится - rtx3070 5888spu (Transistors - 17,400 million), rtx4070 5888spu (Transistors - 35,800 million). При этом площади чипов 392мм против 295мм у новинки.
Хотят больше площади очевидно ) Что бы 300 ватт и все дела
@@MrYatagan Ааа )
У 4070 чип от 4070ти. Ты привел кол-во транзисторов для чипа 4070ти. У 4070 часть чипа отключена, но транзисторы указываются все. Проверь характеристики 4070ти
Вопрос на что пошел бюджет транзисторов (понятно что 4070 урезан), но 2х по транзисторам и +30% по частоте к 3070 дает +50-70% на 4070ti. Получается что эффективная производительность в пересчете на транзистор и частоту только падает…
@@anatolyg3708 у 4000х кэша гораздо больше, туда транзисторы и пошли судя по всему.
Держим фронт товарищи. Инсайдеры из Невидии подтверждают этот факт, что компания специально приучает нас к завышенным ценам, так как у них почти монополия (90%рынка), они идут с опережением по софту и фичам И, САМОЕ ГЛАВНОЕ, игровой рынок для них давно уже не главный,они также предлагают cloud gaming, они по полной вкладываются в A.I. суперкомп. решения.
Повторяю, держим фронт и пропускаем целиком Экспериментально Ценовую 40 серию, что бы повлиять на резултаты этого ценового эксперимента. Тот факт что AMD тормозит процы с мощной встроенной графикой (ддр5 уже пришла) тоже косвенно подтверждает подозрения на полусговор или что AMD тоже решило подстроиться под ценовой эксперимент нвидии.
HODOR - HOLD THE DOOR.
"Nvidia не является драйвером графических технологии, а им является epic" - бред сказали. epic и другие не будут даже пытаться замахнутся на что-то большое, если впринципе на это не будет мощностей. В том числе трасировки в реалтайме- а нвидия всё таки первая показала, что это возможно, в том числе с помощью специальных ядер в видеокарте и специальных алгоритмов оптимизации. И уже спустя года все остальные подтянулись. Тоже самое и с длсс
Монополия нвидиа дает о себе знать
Так вот кто меня от...издил во дворе. Я думал гопники, а это сервис Нвидии, потому что я написал в техподдержку, что Гарри Поттер на моей 4090 просадки до 40фпс даёт. А я дурак заявление написал.
Надо забрать. Ибо сервис отличный. Работает!
Спасибо Хуангу и техподдержке! 🥰
офигенно ведёте выпуски. не так давно наткнулся на вас и смотрю всё чаще и чаще
Спасибо вам,отговорили покупать сороковую серию,буду дальше радоваться своей 3060!
В этом и смысл нвидиа.Они на твоей топовой 3060 показывают в играх хуевую производительность чтобы ты пошёл и купил их никому не нужные 4000 ртх.Нвидиа хотят каждый год продавать видюхи по 1000 баксов там за рубежом при том что люди едва покупают консоли по 500 баксов каждые 6 лет.Так консоль это консоль,купили всё.А купить видюху за косарь это только начало
Сделайте обзор на то, как русофобская SEGA втихаря убрала у DLC к Warhammer III русский язык, хотя он был уже сделан и раньше он был в описании на странице магазина. И вдобавок ОТКАЗАЛОСЬ переводить все последующие DLC к Warhammer 3!
Нет лучей - нет проблемы. Ну да, а попытка всунуть в уже готовые игры технологии, которым в этих играх не развернуться, как не могут развернуться современные движки в ремейках старых игр, работать не будет, но вот насчет успешности 40-ой серии, с одной стороны я считаю, что сейчас имея разрешение 1080\1440p брать карту мощнее 3070 смысла нет, слабее 3050 тоже нет, а 1440p начинать с 3060. Просто и так все хорошо, ультра настройки от высоких хрен отличишь, а дорогие карты с высоким TDP менее надежны и на вырост брать смысла нет, там поменяется все, проще будет нового середняка взять. Но рост производительности 40-ой серии относительно 30-ой вообще-то неплохой, и если сейчас 40-ая серия излишня, т. к. в ней нет младших решений, то когда эти решения появятся, то будет 4060, которая будет мощнее 3060 на 30-40% и может даже TDP будет поменьше, 30-ые карты на складах кончатся, цены неизбежно устаканятся, и народ будет брать. Т. е. с чипами там все нормально. Да и 99 млрд. транзисторов в 4090 как-то не свидетельствуют о стагнации тех. процесса. У меня тут немного другие мысли есть, что скоро геометрию, текстурирование и т. п. даже младшие чипы будут грубой силой решать, и вот тут освещение становится ключевым параметром. Другое дело, что в ближайшие пару лет никакого рынка для 50-ой серии не прослеживается. И искусственные попытки сделать в нескольких хитовых, но уже пройденных играх режимы, тормозящие на топ. картах, тут ни на что не повлияют. Скоро про обнову "Киберпанка" забудут, "Ведьмак"-3 будут со смаком проходить в 1080p на 3060 на средних, текстуры в макс, выглядит ведь все отлично. Условный новый Crysis погоды не сделает. Ну сколько таких игр будет? Одна? Две? Три?
Immortals of Aveum. Ожидается одна из первых игрулька на UE5.
Чекни её требования. Нет рынка для 50ой серии? Ага, щаз
Вас очень интересно слушать как подкаст, когда дома какими-нибудь делами по домашнему хзяйству занимаешься.
4056 за 300 баксов, 4068 за 400$ и это без НДС и наценки ))
"Это будет ролик, полный боли и разочарования!" - а кто здесь видел другие ролики??? Проплаченная реклама близняшек не в счёт))))
Михаил упомянул об отсутствии резких скачков качества графики в современных играх.
Полностью согласен.
Даже сейчас, возвращаясь к старым играм по типу DOOM или Hexen с лончерами под винду, но со старыми вадами, без текстурных паков в высоком разрешении, ловишь себя на мысли, что игра 93 года по графике не очень отличается от некоторых современных поделок. Только тогда процы были с частотой 33 и 66 МГц. И видеокарты с 512 кБ или 1 мегабайтом видеопамяти.
На самом деле надо ждать 9090.
З.Ы. Полкупаю видеокарту - выбор остановил на RX6650, т.к. по всем метрикам она, похоже, равна 3060Ти, но дешевле ее. и не надо нам никакого RTX.
в кс 2 обещают добавить нвидиа рефлекс (меньше отклик) , у амд нет подобного , не знаю насколько это важно но тем не менее
@@talaran6934 у АМД "пока" нет такого ;)
Но вообще, по-моему все эти уменьшения отклика это просто маркетинг. Тем более что я не играю в соревновательные шутеры )
З.Ы. Ни разу не видел пинг до игрового сервера меньше 50 мс (ну кроме локальных ерверов линейки), поэтому все эти приколы с 5мс вс 30мс задержкой системы мне кажутся раздутыми.
Не знаю как rtx 4080 и т.д но популярность rtx 4090 лежит вне игрового сообщества. Где она раскрывает все свои возможности.
О том и речь. 4090 либо для работы либо для богатых энтузиастов.
А где игры, для которых покупать хотя бы 30ую серию нужно? А нет их...(с)
Last of us, dead space, Hogwarts, re4, forspoken тайтлы ААА, и это только те которые вышли с начала этого года, на 3080 в разрешении 2к не идут на макс настройках с лучами в 60 фпс. Не говоря у же о том , что у всех выше перечисленных игр потребление видеопамяти колеблется от 12 до 18 гб vram, дальше больше, активно разрабатывают игры на UE 5 , которые будут выходить в этом году, которые достаточно ресурсоемкие...
@@sergzub_ Так и есть.
Как это нет? Начиная с лета с Dying Light 2 и дальше - Plague Tale Requiem, Callisto Protocol, Dead Space Remake, Hogwarts Legacy, Atomic Heart (хоть он даже и на Паскалях идёт ОК) и RE4 Remake. Другой вопрос интересуют ли эти игры.
@@edegors Если ни одна из перечисленных не интересует, то вопрос к игроку, а не к играм. Наверно, слишком старый дед уже
Как сидел на 1060 так и сижу, меня устраивает. Возможно через лет 5 , возьму 3060 б/у за 100$ 😁
Обожаю таких людей которые отвечают, а меня мое устраивает😂 эт не тролинг если че
Держи в курсе
RTX 4050 опускается в ультра бюджетный сегмент - где там RX6400, 6500XT, - 1660super/ti, intel ARC A380, GTX 1650, 1650 super задача проста новой карточкой выбить конкурентов, ведь сейчас если синие допилят дрова то кроме 1660 у них там конкурентов нет по характеристикам. NVIDIA если верить релизу по ТТХ сделала копию ARC A380.
RTX 4060 - тут уже Intel поджали сегмент 2060/2060 super, 3060, 3050, RX 6600, RX6650 - самый топовый ARC спокойно с ними конкурирует, а по части трассировки чуть ли не NVIDIA уделывает саму же.
Либо вариант номер 2 - по 4050 - NVIDIA давно не делала нормальных ультра бюджеток - обрубок 1630 это затычка конченная, 1650 / 1650 super - устарели безнадежно, 1050 ti тоже самое что 1650, у AMD обрубок RX6400, и 6500ХТ либо старье типа RX570 или 580 на 8 GB(последние в ДНС до сих пор продают), и INTEL ARC A380 - копия по характеристикам но с кривыми драйверами, но синие стараются от версии к версии допиливают драйвера на ARC.
А кто то от CDPR ожидал чего то нормального?! Снова в очередной раз патч делающий Киберпанк более кривым. Да и кто то в это до сих пор играет?! Прошел его пару раз, самое сложное это ближе к середине игры желание завязать - он настолько уныл и скучен, что просто капец, этот ужасный стелс, враги которые не как Скайриме растут вместе с тобой, а замирают и ты тупо с пистолета ваншотишь все живое или кулаками забиваешь или скриптами. Там не графику надо менять. RT ей не поможет стать интересной.
Купил 3070 в упадок цен за 40 тысяч в хорошем исполнении - и это даже по сегодняшним меркам цена в 500 долларов, при курсе 80. Заходя в днс наблюдаю такую картину - 4070 от 65-70 тысяч за хуангпушкугонку, А ЭТО СУК НУ НЕ КАК НЕ 600, БАКСОВ 900. НАХ ОНА НУЖНА С ТАКОЙ ПРОИЗВОДИТЕЛЬНОСТЬЮ. Все
Виталик, что ты бомбишь? )) Раньше Нвидия зарабатывала на майнерах, а теперь она зарабатывает только на игроках )
И нив какие клочья 3070 не разрывала 2080ti, они примерно одинаковые. У меня обе данных карты в руках были лично и я их обе тестил.
Взял как раз недавно "народную" 3060. И был очень озадачен как "прекрасно" работает пропиетарная технология нвидии... случайно включил в СР2077 Amd fsr (она кстати встает автоматом на пресете "впечетляющие") и получил + 30-40 фпс по сравнению с аналогичными настройками и длсс. Это как вообще?
Ну это полный бред, что-то ты явно перепутал. FSR 100% не даст больше фпс чем DLSS на одной и той же видеокарте
Правда по итогу 2080Ti сейчас рвет 3070 😁 Все таки 2080Ti иммет 11гб и как оказалось это решает сейчас.
Да ты просто тигр со своей 2080. Смотри не порвись от школьного завтрака
Мы же все знаем что Нвидиа "пазаботится" в скором времени о 2000 серии, не так ли 😉. Процесс пошёл, новый РТ режив в Киберпанке уже отыквил Тьюринг, совпадение? Не думаю 🤗
@@vega7481 Кстати новый режим Овердрайв Включается в новом киберпанке на ней, 18фпс в ФХД, с ДЛСС авто - 35-50фпс, для посмотреть вполне хватило
@@Denis_OnLine из отчёта DF ясно, что тьюринги в этом режиме сильно позади на фоне амперов, что очень удивительно
Во-первых, есть инфляция. Почему-то сравнивается цена двухлетних карт с текущими. Хотя инфляция только за последний год доходила до 8.5% годовых. Во-вторых, Энергопотребление и шум меньше при той же производительности. В-третьих, это не цены высокие, а люди в России бедные. Себе купил rtx4080 и новую систему на i5-13600k, 32 gb DDR 5 6200, SSD wd sn850x. Для игр в 1440р в 165гц хватает. Хотя после выхода в Киберпанк overdrive FPS на максималках чуть больше 100. Что тоже вполне играбельно. Уверен что следующая самая популярная видеокарта через 2 года после своего выхода станет rtx4060. Как всегда и было с хх60 версиями.
Не понимаю этого горения, все видеокарты есть в продаже, и 30 серия и 40, что по цена/качество устраивает - то и покупайте. Никто ж 30-ю серию при выпуске 40-й не убрал с полок магазинов.
По технологиям, DLSS 3 (FRAME GEN) реально дает нормально играть в игры где производительность в попе? Да, реально. Мне, как потребителю, в общем то плевать КАК оно там это делает, я вижу как в том же киберпанке с полным включённым RT 50 кадров превращаются в 80, и при этом играть ПРИЯТНО, и картинка плавная + ничего не мылит (какое нах там сердце вам что-то подсказывает?). DLSS 2 + повышение резкости действительно улучшает производительность и практически не мылит картинку? Да, именно так. И чего тогда ныть? Работают эти технологии? Да, работают.
@Nemezida Revenge 123 Вот прям сейчас у нас тут в DNS есть 3080 за 62к
А на ОЗОНе и 3090 в достатке от 75к.
@Nemezida Revenge 123 ну так Вы ж написали, что и 3080 и 3090 уже НИГДЕ нет, я думал Вы ВЕЗДЕ глянули))) А по факту все сейчас можно купить, по более-менее адекватным ценам (по сравнению с ценами год назад). Просто удивляют эти товарищи в ролике, ведя беседу так, что складывается впечатление - у каждого человека дома должен стоять топовый ПК, а если КАЖДЫЙ человек не может этого себе позволить, то виноваты все вокруг, и разработчики железа в частности, ибо цены задирают))
Уже лет 20 покупаю новую видяху через поколение. Вот и в этот раз 40я серия идет заведомо лесом, 3060Ti еще вполне актуальна на ближайшие пару лет, ждемс 5060 году в 25
У меня 2060 6г. И вот чтото не видно, на что можно счас адекватно обновиться.
@@selyukm 3070-3080 хороший вариант и цены более-менее адекватные
@@selyukm я с 2080 на 4070-Ti перехожу.
@@selyukm 3070 ti.
У меня вообще была 770 и на всё хватало до выхода RDR2 на ПК. Хотя на самом деле на неё на минималках тоже хватало, но на минималках на игру смотреть было больно. В связи с этим купил 2060 Super, рассчитываю что её как минимум на столько же хватит.
Включите Vsync в настройках драйвера, тогда не будет разрывов при включенном DLSS3. Тоже долго не мог понять, почему при включенном DLSS3 (frame generator) блокируется включение Vsync в играх
Оно отключается потому что всинк работает только с реальными кадрами, сгенеренные идут в обход цпу. Полностью проблему это не устранит(может еще что вылезет). Или вы думаете просто так в играх отключается VSYNC? Это рекомендация самой нвидия для данной технологии.
А FreeSync/G-sync проблему не решает?
@@ephecaff9149 нужно тестить, я просто костылями не пользуюсь на своей 4080. Причем тесты нужны профессиональные с аппаратурой для моников, смотреть есть ли стробинг, задержки и так далее.
Мне кажется там будет какой то косяк, например с задержками, раз нвидия так сделала по умолчанию.
@@ephecaff9149 G-sync проблему решает частично, если монитор с G-sync 2-ой версии и выше. И игры почти его не поддерживают. Или бывает, что поддерживают, но проблему не решают.
@@ЖеняВольнов-з2р MSI MAG281URF - gsync работает идеально с генератором кадров. Уже и забыл про вертикальную синхронизацию
Ну не слова о том, что энергопотребление 40 серии в 2 раза ниже аналогов в 30. Можно бесконечно говорить, что да, мы переплачиваем, это так. Но с другой стороны, чем ниже стресс работа оборудования - тем дольше она проживет. Ты сейчас переплачиваешь за то, чтобы просто у тебя лет 5 не было проблем от слова совсем с видюхой. Уже даже не нужно менять термопасты, потому что они не высушиваются так быстро. Палка о двух концах, нвидия как раз идет правильным путем. Все до 4070 выдает адекватную оценку с точки зрения производительности/долголетия. Вот что будет с 4060, действительно непонятно. Для кого и для чего она. 4070 сейчас на рынке самая адекватная видеокарта за свои деньги. Экономия в одном месте, трата в другом. И плюсов в 40 серии больше, чем в 30. То что тебе не нужно брать голдовый 750-800 ват на 3070, а уже хватает 550-600 ватного бп на 4070 - это уже огромный скачек для всей индустрии. Ибо меньше будет элементарно поломок.
Как всегда объективности в ролике мало. Видно чем лучше 40 серия, но об этом умолчат. Только про длс 3 говорят. Это действительно крутая фича, а в совокупности с потреблением уровня 3050 на 4080 - это етить какой скачок.
К теме не относится, но хочу рассказать о случившемся со мной приколе с падением ФПС в игре, может ещё кому-нибудь будет полезно узнать)
Обновил я, значится, ПК и взял видеокарту 3060, стали игры просто летать (по большей части не самые новые). Начал я играть в Elden Ring, всё было более менее норм, и тут я заметил, что настройки графики чуть понизились на автомате (есть там такая настройка), выставил на максимум (только без трассировки) и тут вдруг ФПС упад до +/- 40. Я сначала не понял прикола, настраивал и так, и сяк, в итоге пришел к тому, что на максималках игра летает только в том случае, если поставить разрешение экрана на Full HD вместо 2к.
Я подрасстроился и уже начал серьёзно думать о том, чтобы купить моник в Full HD, ибо знал, что 3060 была не самым лучшим решением для 2к, просто не было возможности взять получше, но тут, внезапно, проблема оказалась не в мониторе.
У меня падал ФПС потому, что тупо был развёрнут на весь экран грёбаный браузер с множеством открытых страниц! Обычно я слушаю Ютуб на фоне во время игры, и теперь, если просто свернуть браузер, даже не выключая, то ФПС возвращается обратно на 60 :)
Конечно, я не спец в этом деле, и, возможно, это было даже очевидно, но я с таким явлением столкнулся впервые. Так что вот захотел поделиться, вдруг кто тоже этого не знает и столкнулся с такой проблемой)
Была похожая проблема в метро исход на5700 хт.Но упор там был в проц, и5 4670к на тот момент(загрузка цпу под сотку). Закрыл браузер и все ок. Думаю у тебя тоже был упор в цпу
@@DefaultName-ro6gi у меня сейчас стоит Ryzen 7 5800X, не знаю, в нем ли дело или в карте, не особо разбираюсь в этом
RTX 3060 народная видеокарта?!!! 12 гиговая версия сейчас в ДНС и других магазинах стоит больше 30 тысяч рублей! Это дёшево, да? Хорошо живёте, олигархи! Лет шесть назад GTX 1060 6 гб стоила 14 - 17 тысяч руб., без проблем тащила все актуальные на ту пору игры, вот это была действительно народная видеокарта, почти идеальная в соотношении цены, производительности и обЪёма видеопамяти.
По сути,не народная конечно,но и тут поверь такое себе,у меня 3070ti и сказать,что это круто?Нет,ни в одной игре современной нет супер высоких кадров,за исключением русских проектов типа атомик или вартандер,такое чувство что нвидиа специально карты замедляет драйверами.
Спасибо . Вы выразили наши общие впечатления ...)
iXBT, хорош, давай, давай, вперёд! Контент в кайф, можно ещё? Вообще красавчики!
Подписываюсь под каждым твоим словом!!!! 👍👍👍
При выходе новой видеокарты дрова старых видюх будут их замедлять в конкретных играх.
PS. А вы замечали, что в киберпанке на РТХ тени тянутся за машинами ещё метров 10 как плащи?
Это от DLSS гостинг.
@@Александр-ш8ж6ж Нет. Без DLSS играл. Да и странно было бы, картинка просто масштабируется, а не изменяется.
"Раньше такого говна не было" это же хорошо, не было и вот оно есть, с нами
Rtx 4080. С включенным DLAA + новые лучи около 20 фпс. С включенным длсс3 60 фпс, но инпут лаг хуже чем при облачном гейминге, абсолютно неиграбельно. Это для всех тех, кто твердил что длсс3 повышает инпут лаг незначительно.
Включать длсс вместо длаа даже не предлагайте, у меня кровь из глаз идёт от мыла киберпанка без длаа.
Инпутлага на 4090 не заметил, но с DLAA картинка в разы выглядит лучше, чем с DLSS. Лучше включить старые лучи и DLAA.
@@Al_Necв 1440р на 4090 тоже огромный инпут лаг с длсс3+длаа+новые лучи. Не знаю как ты его мог не заметить. По старым лучам согласен. Абсолютно здоровые 120 фпс без инпут лага и точно такой же картинкой