У меня друг сидит на rx550 2gb и не ноет, он понимает, что видеокарта старая и не брезгует понизить пресет, а обновляться он планирует тогда когда срок жизни его видеокарты истечёт. Учитесь нытики, видеокарту можно использовать и 10 лет при желании, а если вы думаете, что купили рх 550 или 650 ti 200 лет назад и она обязана тянуть киберпанк с лучами в 4к, ну чтож...соболезную.
Ну и конечно соболезную нытикам которые застряли в 2015 и думают, что за 30к можно собрать машину для убийств и играть 10 лет спокойно, но только потом ноют "а пачиму на маей 1050 ti нету диэлэсэс? Хде 60 фепесоф в кибирпанки? "
@@rev_one да прост прикалывают челики которые сидят на 3060 и ноют "ааа а пасиму у миня нетю диэлэсэс тлиноль?" Они так говорят, будто Куртка заставляет их переходить на 4000 серию, хотя я вообще не вижу смысла с 30хх на 40хх переходить. Никто тебя не принуждает, ну а если так хочется пощупать новые технологии, то продавай свою 3060, и бери 4060, какие вопросы?
🤣😂🤣😂🤣 Загугли cyberpunk path tracing и попробуй найти там 1070 ti. 🤣😂🤣😂🤣 "1070 ti" и "на абсолютных ультрах" в одном предложении уже много лет как не актуально
@@mad24md И к чему это было? Или ты только узнал что трассировки пути, да и впринципе поддержки ртх нету на 1070ти? Возможно ты один из тех самых школьников которым мама не купила 4090 и теперь они срут всё подряд? Советую посмотреть обзоры на 1070ти в киберпанке с включенным фср на качество, может тогда поймёшь что она ещё что-то но тянет в современных реалиях. А про трассировку пути и речи идти не может по понятным причинам. Так что в следующий раз хорошо подумай прежде чем что-то написать)
@TermoyaderniyXuesos3000 Сам же написал про "на абсолютных ультрах", какие там могут быть ультра если релиз 1070 ti был в далёком 2017 году и она не поддерживает Ray tracing, DLSS, Mesh shaders. Даже днищенская 3050 нагибает 1070 ti. 4090 мама мне не купила, но я сам на релизе купил себе 4070.
Каким образом с fsr падает производительность, если это апскейлер для повышения кадровой частоты? Каким образом АМД могла украсть длсс у энвидии и назвать его fsr, если апскейлинг существовал задолго до dlss и широко использовался на консолях, откуда и растут уши фср) Энвидия добавила аппаратную часть в механизм масштабирования) забавно, что техно блогер этого не понимает)
@@rev_one так технологии работают по разному) как АМД украла dlss?) если fsr работает иначе, без использования отдельной аппаратной части) тебе ещё раз повторить, что апскейлинг существовал раньше чем появился длсс и преимущественно на консолях, на железе АМД кстати) так по твоей же логике, кто и у кого тогда украл?) Может интелл тоже украли dlss в своём xess (который и производительность особо не повышает и в целом довольно сырой как и все, что касается графики у интел) может ue5 украл dlss со своим собственным tsr? препаратами какими-то закидываешься?)
Первая версия FSR была аналогична первой версии DLSS,только работала хуже, вторая версия FSR так же была скопирована с DLSS 2 версии. У интел XeSS работает лучше чем FSR. Есть же гугл,есть же тесты, зачем такой бред писать?
@@rev_one как fsr скопирована с dlss, если работает иначе?) ты увидел сходство в програмном коде? Если да то поделись, я уверен юр.отдел энвидии не оставит это безнаказанным. Xess лучше fsr2 потому, что не АМД?) как можно украсть технологию если твоя работает иначе, а сам принцип работы существовал задолго до.
@@rev_oneу длсс алгоритм обрабатывает нейронка, у фср просто компиляция из разных методов масштабирования и апскейла с сглаживанием. Ничего общего между ними кроме итогового результата нет, дср и т.п на амд железе появился раньше, они уже есть как минимум на трех поколениях консолей. Получается нвидия украла технологию у консолей на амд железе 😂 Умпа-лумпа в очередной раз блистаешь IQ хлеба и нулевой мат. частью.
@@rev_one так ты в этом контексте говоришь, что с fsr падает производительность) а fsr - это апскейлер для увеличения кадровой частоты (как я уже и писал), который исполняется програмно, так как с ним падает производительность, если он создан для её повышения?) И разве не нормальна ситуация со 100% загрузкой ГПУ в игре, если нет упора в вертикальную синхронизацию и процессор ?)
@@pcBoyarin этот апскейлер дает всё же чуть лучшую, сглаженную картинку, чем например нативные 720р, чтобы этого добится работает некий код/скрипты, а значит часть вычеслительных ресурсов чипа обрабатывают эти скрипты - отсюда потеря производительности по сравнению с нативным маленьким разрешением. DLSS же работает на отдельных, специально для этого и созданных физически существующих конвеерах использующих машинное обучение
когда я перешел с 60 герц на 170 то я чуть прифигел от того насколько это было плавно. Глаза стали намного меньше уставать, и даже когда я поставил 60 герц чуть поиграл в кс а потом выставил 120 герц то разница была очень сильно видна. Короче, рекомендую обновить герцовку монитора если у вас 60 герц
Был у меня кибер пук, через какое то время игра перестала загружаться, я пробовал скачать те файлы, на которую указвали ошибки при запуске, но всё было без успешным, удалил, через какое то время скачал обновлённую версию, и вы знаете , сохранёнки игры остались, вот как то так...
а забили хёй почему ? зачем что-то придумывать если конкурент выпускает то что хорошо работает у тебя ? нвидиа конечно попробовала выпустить NIS (Nvidia Image Scaling) работает также но включается на уровне драйвера .только NIS пока на уровне 2 фср остался -активно его не разрабатывают ... так, что можно сказать что не забывают об GTX . и RT (лучики) работает на 1080 в некоторых играх можно включить в ограниченном режиме - правда там фпс будет 20 максимум но пощупать можно
скорее всего всем похуй, но у меня карточка 3050 ASUS, купил новую и дешево, меньше 200 долларов. в интернете её жестко хейтят, высмеивают, мол, лучи не тянет, полное говно. а как по мне ничего плохого, дешевая, DLSS поддерживает (а это действительно та самая волшебная пилюля), холодная, памяти 8 gddr6 - что еще надо работяге? да, на 2к на ней не замахнешся, на 144 фпс тоже не особо, разве что онлайн-игры (у меня быстрый монитор) играл в Last of Us - был реально впечатлен графикой как ребенок. если залочить игру на 60 кадров в инспекторе то как раз хватает мощности на высокие настройки + DLSS на качество (кстати даже лучше как по мне чем натив) + лучи. как же круто они преображают игру! фонарик очень прикольно от воды отражается, особенно в темноте, детализованные отражения в лужах воды, даже крови. правда для такого дела пришлось обновить камень с R5 1600 до R5 5500 - тоже бомж-вариант, но как раз хватает
вместо того, чтобы реально объяснить, почему этого нет на старых видюхах, взял да обосрал чуваков. И похуй, что лучи можно запустить нативно, даже на 980, если просто вырубить скрипт в игре, который отвечает за проверку видюхи. Короче, я хз чё ты пытался сказать, но если то что видюха 10 летней давности не имеет скриптика позволяющего запустить лучи, и что на 60 герцовом монике нельзя получить 144гц, то спасибо кэп
Здравствуйте! Не знаю на сколько вам нужны идеи для видео, но вот пару идей: 1) (ОЗУ) Стоит ли переходить на DDR 5 или пока стоит остаться на DDR 4. Чувствуется ли реально разница между ними 2) Переходить ли на плашки M2 для хранения/работы/игр или все же пока стабильнее SSD + HDD 3) Не знаю как это правильно описать... Какие игровые настройки лучше выключить/включить, чтобы убрать мыло и лишние нагрузки. Так сказать, включить максимальное качество без блюров, размытостей и т.п.
Приветствую, спасибо за идеи, но это все было сказано в видео "советы по сборке пк до 1000$" DDR5 стоит брать если частота от 6000мгц,дабы почувствовать разницу. SSD М2 быстрее обычных 2.5 SATA, минус SSD любого в топ что в случае поломки он забирает с собой все файлы и востановить нельзя, а на HDD можно востановить, поэтому SSD + HDD необходимость) SSD хороши под игры/програмы/виндвовс, но личные файлы все стоит хранить на HDD)
бро какие моды ? какие файлы зашел в игру активировал ползунок это на щет fsr в некоторых играх нету длсс есть только фср .2 моды нужны только на картах типо 20-30 rtx чтоб заменить генератор кадров dlss 3.5 на fsr 3 fg (motion fluid). ибо в 2 генераторах кадров нет разницы . я вот использую от Nukenin и играю во все игры с дорисоваными кадрами стало приятнее играть
Dlss прсчитывается аппаратно, тогда как фср - это програмная фишка У видях с архитектурой пасхаль и ниже тупо нет тензорных ядер, вот и не могут они в длсс Видос выжат буквально из ничего
@@rev_one fsr, в отличии от dlss, не требует специальных физических компонентов в видеокарте для работы К вопросу о том, чем "аппаратное" отличается от "програмного"
Хотел бы посмотреть на того, кто покупает игры по несколько тыщ за штуку. Неужели есть такие, кому некуда девать деньги. Наверное только в Москве и Питере. Остальная часть страны живёт от зарплаты до зарплаты.
Основная мысь правельная, длсс не возможен из за его архитектуры которая требует аппаратные блоки тезор, запустить его можно и на обычных ядрах, только в таком слкчае фпс упадет раза в 2-4 Но вот про пиратки вы совсем уж перегнули) обновить их легче легкого, и сохранения не удоляются при удалееии игры, так как они хранятся как правило в аппдате либо документах, а если игра гог, то там даже облако работает, кстати пиратка форзы 5(и более старых), там даже онлайн работает через официальные сервера, все как положено и даже лаунчер есть с автообновлением игры)))
Господа эксперты, не помню задавал такой вопрос или нет, но ГТА 5 на ультрах в 15 фпс, не сказать , что мой комп навороченный, но и не скажешь, что слабенький, i5 10400f , 32 гб озу 2666, RTX 3060 12 гб , требовательные игры стоят на ссд м2 500 гб , а не требовательные на вд хард 1 тб , система так же на ссд но сата 120 гб вин 10 про, буду благодарен, за адекватные ответы
Почему стандарт? Сейчас даже телефоны и планшеты в 90-120гц выпускают, телевизоры тоже уже как пару лет переходят на 120гц. Высокая герцовка добавляет плавность от чего меньше дергается картинка и меньше устают глаза.
@@rev_one это костыль для амоледа, что бы глаза меньше уставали, и что бы в шедевростендофф играть. На пк же больше 60 герц мониторы нужны только для онлайн игр, а вообще, я уже долго сижу на 60 герцах, есть тел с 120 герцами, ну во первых раздницы особо не почувствовал, во вторых и изза резвости 60 герц картинки как будто реакция лучше, агрессивнее наводка на противника, может это у меня одного так.
Не согласен, сначала поменял телефон на 90гц, листать тот же браузер или чаты стало намного приятнее, потом мониторы заменил на 144гц, небо и земля, как будто новый опыт от использования ПК, игры само собой, но тот же браузер, да и впринципе все стало куда приятнее и стало меньше усталости глаз. 90-120гц на телефоне/планшете и 144гц+ на ПК это немного разное восприятие, на большом экране - больше ощущается плавность. Ради эксперимента пару месяцев назад решил поменять настройки и ограничить везде частоту до 60гц - если в двух словах то я даже 10 минут не смог выдержать, очень все дерганое и противное.
@@rev_one ну незнаю, пока нету моника 144 герц, и разницы не чувствую, может ещё зависит от качества матрицы, всё же дешёвые 144 герц хуже дорогих 144 или 240, но пока видеоконтент снимают в основном в 60 ФПС, и смысла переходить пока не вижу, да и комп у меня дешман) может к лету появится уже получше.
Дело не в контенте, а в том что все приложения будут в 144гц или более в зависимости от монитора, те же фильмы снимают в 24фпс, поэтому в видосиках и прочем контенте не надо больше 24фпс. А по поводу качества матрицы - герцовка и качество это 2 отдельные характеристики, плавность картинки будет одинаковой что на IPS что на OLED при 144гц. Есть еще пунк скорости отклика матрицы GTG/MPRT, но то уже другая тема.
Пиратские копии игр отлично работают и обновляются, а если нет, то скачаешь новую версию заново. А сохранения нужно просто перенести. СтОит разобраться, где они лежат, и всё будет просто. Смешное заявление про то, что пиратки не обновляются и сэйвы пропадают.
Желаю автору тоже развиться, а не пенять на других. Ну и матчасть пойти выучить. В-первых, Ray Tracing Nvidia сама открыла на GTX картах, и там он работает на обычных CUDA ядрах, хоть и медленно и толку от этого особо нет кроме какой-нибудь 1080Ti с минимальными лучами, ну или софте для рендера, где важна сама возможность. Во-вторых, есть большая разница между возможностями железа, вроде того же монитора, который физически не может работать на частоте сильно большей, чем есть и возможностей программных, которые позволяют делать карту быстрее. Тот же Re-BAR можно добавить и на 20-ю и 10-ю серии, обновлением VBIOS, но Nviida это сделала только с 30-й. На тех же многострадальных RX400/500 можно программно получить 20% производительности сверху, за счёт S.A.M. и многопоточной обработки. В-третьих, яблочная компания поддерживает старые аппараты столько, сколько не поддерживает большинство производителей смартфонов на Android. Да и с настольной техникой у них поддержка довольно долгая.
В России не привыкли выкидывать на помойку то, что работает. Выкидывают только тогда, когда сломается. Так что не надо всем навязывать свои барские замашки. Если железо позволяет работать на компе, смотреть фильмы, сидеть в инете и играть в старые игры, то с чего бы выкидывать его и покупать новое железо? Это неэффективное использование потраченных денег. Поэтому при покупке компа нужно брать не самое дешевое, чтобы не несколько лет хватило.
ну бро 980 даже без фср у товарища киберпанк на высоких тянет ... а эти технологии маштабирования - это костыль чтоб хоть както играть с лучами ибо лучи раняют фпс до пола . что длсс что фср это для лучей придумали - ни кто в здравом уме не будет включать эти штуки чтоб мылить картинку (пример дота включи разницы в фпс что она включена что нет не заметишь . только с фср мылит
Согласен на счот того что, что купил тем и пользуся и восхвалять генирацию от амд такое себе потому что много ебли с костыльными настройками. Мне например проще понизить настройки и играть если игра того стоит, так как не люблю ковыряться в компе лишний раз в поисках кой то левой производительности. Но самый главный посыл (мое мнение) заключается в том что современные новинки игр не стоют тех денег которые просят за их производительность на ультра либо высоких настройках. Сами игры гавно. Либо я уже старый😂
все что я понял из самого видео, и из комментариев оставленных автором, автор собственно живет в прошлом, fsr мылит, dlss добавляет "детали", хоть это и сопоставимые технологии которые буквально делают одни и те же вещи разными способами, однако на данный момент, fsr 3 уделывает dlss 3 (можно ознакомиться со сравнением в 4k с rtx 4090 immortals of aveum), но честно говоря делать выводы сейчас еще рано, технология не обкатана, но в этом ярком примере длсс показывает себя хуже чем "мыльный" fsr, ладно это еще можно опустить, но видео пиздец какое бесполезное, какая никакая мысль находится в самом конце, буквально в последней минуте, а если человек якобы не понял посыл видео, автор просто напросто пишет человеку что он не понял суть))) гениально, заслужил лишь дизлайк, потерянного времени пятикратно жаль
Ты прочитал 1 коментарий, вырвал оттуда фразу "fsr мыло а dlss добавляет детали" и говоришь " из коментариЕВ оставленныХ автором", неплохо однако... "Если человек ЯКОБЫ непонял посыл видео то автор напишет что он непонял суть" и в чем тут собственно проблема? А точнен где я не прав если человек тупой и не понимает о чем речь? Потерянного времени тебе жалко? 5 минут? Ты коментарий писал дольше чем видео смотрел... Вообщем и целом ты обратил внимание на 1 коментарий вместо того что бы почитать большую часть или хотя бы те которые в топе и с полезной информацией, отрицаешь факт мыла fsr и жалуешься что потратил 5 минут?
Вообще-то .. Dlss уже включается программно и на старых картах... Все прошито и работает ... Ненадо умничать как в видео ... Этот чел вообще представленмютя не имеет как все работает
по поводу FSR да он работает на любых картах,лиш бы была эта функция в поддержке игры,а вот костыли нужны тока для DLSS на старых картах через FSR,только толку что от DLSS и от FSR,так как XeSS оказался по лучше,а если по чесному все эти модные штучки тока потому что разрабы игр тупо обленились,если разобрать что же такое на самом деле все эти нововедения,то окажется все то что тупо отключение старх продвинутых наработак,лиш бы якобы повысить попугаии,смешно да и только следить за всеми этими продвижениями якобы технологией идущих назад в 00,по поводу герцовки мониторов ты видать отстал от жизни так как они и 120-140 были в мохнатые годы,народу хватала на трубах 75,а выше нужно было тока для технологии 3d vision,смешно смотреть на людей которые утверждают якобы мегагерци монитора дают прибавку к фпс
У меня друг сидит на rx550 2gb и не ноет, он понимает, что видеокарта старая и не брезгует понизить пресет, а обновляться он планирует тогда когда срок жизни его видеокарты истечёт.
Учитесь нытики, видеокарту можно использовать и 10 лет при желании, а если вы думаете, что купили рх 550 или 650 ti 200 лет назад и она обязана тянуть киберпанк с лучами в 4к, ну чтож...соболезную.
Ну и конечно соболезную нытикам которые застряли в 2015 и думают, что за 30к можно собрать машину для убийств и играть 10 лет спокойно, но только потом ноют "а пачиму на маей 1050 ti нету диэлэсэс? Хде 60 фепесоф в кибирпанки? "
Харош,просто нечего добавить, в закреп)
@@rev_one да прост прикалывают челики которые сидят на 3060 и ноют "ааа а пасиму у миня нетю диэлэсэс тлиноль?" Они так говорят, будто Куртка заставляет их переходить на 4000 серию, хотя я вообще не вижу смысла с 30хх на 40хх переходить. Никто тебя не принуждает, ну а если так хочется пощупать новые технологии, то продавай свою 3060, и бери 4060, какие вопросы?
сумбурный и нелогичный ролик. автору желаю больше времени тратить на фактчекинг
1:02 Ну кстати моя 1070ти тянет киберпук в 1080р на абсолютных ультрах, правда с фср на качество, но всё-же ниже 60 фпс не опускается)
🤣😂🤣😂🤣 Загугли cyberpunk path tracing и попробуй найти там 1070 ti. 🤣😂🤣😂🤣
"1070 ti" и "на абсолютных ультрах" в одном предложении уже много лет как не актуально
@@mad24mdсделай тоже самое на 4090 в 4к для которых она позиционируется 😂
@@mad24md И к чему это было? Или ты только узнал что трассировки пути, да и впринципе поддержки ртх нету на 1070ти? Возможно ты один из тех самых школьников которым мама не купила 4090 и теперь они срут всё подряд? Советую посмотреть обзоры на 1070ти в киберпанке с включенным фср на качество, может тогда поймёшь что она ещё что-то но тянет в современных реалиях. А про трассировку пути и речи идти не может по понятным причинам. Так что в следующий раз хорошо подумай прежде чем что-то написать)
@TermoyaderniyXuesos3000 Сам же написал про "на абсолютных ультрах", какие там могут быть ультра если релиз 1070 ti был в далёком 2017 году и она не поддерживает Ray tracing, DLSS, Mesh shaders. Даже
днищенская 3050 нагибает 1070 ti.
4090 мама мне не купила, но я сам на релизе купил себе 4070.
@@mad24md Ясно, тебе уже ничего не поможет...
Каким образом с fsr падает производительность, если это апскейлер для повышения кадровой частоты? Каким образом АМД могла украсть длсс у энвидии и назвать его fsr, если апскейлинг существовал задолго до dlss и широко использовался на консолях, откуда и растут уши фср)
Энвидия добавила аппаратную часть в механизм масштабирования) забавно, что техно блогер этого не понимает)
Ну да, поэтому DLSS появился в 2019 году а FSR спустя 2 года в 2021, ничего не украли - просто амд долго думают.
@@rev_one так технологии работают по разному) как АМД украла dlss?) если fsr работает иначе, без использования отдельной аппаратной части) тебе ещё раз повторить, что апскейлинг существовал раньше чем появился длсс и преимущественно на консолях, на железе АМД кстати) так по твоей же логике, кто и у кого тогда украл?)
Может интелл тоже украли dlss в своём xess (который и производительность особо не повышает и в целом довольно сырой как и все, что касается графики у интел) может ue5 украл dlss со своим собственным tsr? препаратами какими-то закидываешься?)
Первая версия FSR была аналогична первой версии DLSS,только работала хуже, вторая версия FSR так же была скопирована с DLSS 2 версии.
У интел XeSS работает лучше чем FSR.
Есть же гугл,есть же тесты, зачем такой бред писать?
@@rev_one как fsr скопирована с dlss, если работает иначе?) ты увидел сходство в програмном коде? Если да то поделись, я уверен юр.отдел энвидии не оставит это безнаказанным. Xess лучше fsr2 потому, что не АМД?) как можно украсть технологию если твоя работает иначе, а сам принцип работы существовал задолго до.
@@rev_oneу длсс алгоритм обрабатывает нейронка, у фср просто компиляция из разных методов масштабирования и апскейла с сглаживанием. Ничего общего между ними кроме итогового результата нет, дср и т.п на амд железе появился раньше, они уже есть как минимум на трех поколениях консолей. Получается нвидия украла технологию у консолей на амд железе 😂 Умпа-лумпа в очередной раз блистаешь IQ хлеба и нулевой мат. частью.
Каким образом технология масштабирования fsr нагружает ГПУ?)
Да вообще никак, технологии по воздуху работают а не с помощью видеокарты...
Как можно настолько глупые вопросы задавать?
@@rev_one так ты в этом контексте говоришь, что с fsr падает производительность) а fsr - это апскейлер для увеличения кадровой частоты (как я уже и писал), который исполняется програмно, так как с ним падает производительность, если он создан для её повышения?)
И разве не нормальна ситуация со 100% загрузкой ГПУ в игре, если нет упора в вертикальную синхронизацию и процессор ?)
@@pcBoyarin, да это же очередной диллетант, который создал канал, чтобы нести в массы свою субъективщину
@@rev_one а мне казалось FSR/DLSS наоборот разгружает GPU который рендерит картинку в меньшем разрешении
@@pcBoyarin этот апскейлер дает всё же чуть лучшую, сглаженную картинку, чем например нативные 720р, чтобы этого добится работает некий код/скрипты, а значит часть вычеслительных ресурсов чипа обрабатывают эти скрипты - отсюда потеря производительности по сравнению с нативным маленьким разрешением. DLSS же работает на отдельных, специально для этого и созданных физически существующих конвеерах использующих машинное обучение
когда я перешел с 60 герц на 170 то я чуть прифигел от того насколько это было плавно. Глаза стали намного меньше уставать, и даже когда я поставил 60 герц чуть поиграл в кс а потом выставил 120 герц то разница была очень сильно видна. Короче, рекомендую обновить герцовку монитора если у вас 60 герц
Полностью согласен)
Сонсольщики радуются когда есть 30 стабильных фпс 🤣
@@mad24md+ , при этом рассказывают как это классно 😂
@@mad24md у меня друг на иксбоксе в гта 5 в 30 фпс играет и говорит что это имба
Был у меня кибер пук, через какое то время игра перестала загружаться, я пробовал скачать те файлы, на которую указвали ошибки при запуске, но всё было без успешным, удалил, через какое то время скачал обновлённую версию, и вы знаете , сохранёнки игры остались, вот как то так...
а забили хёй почему ? зачем что-то придумывать если конкурент выпускает то что хорошо работает у тебя ? нвидиа конечно попробовала выпустить NIS (Nvidia Image Scaling) работает также но включается на уровне драйвера .только NIS пока на уровне 2 фср остался -активно его не разрабатывают ... так, что можно сказать что не забывают об GTX . и RT (лучики) работает на 1080 в некоторых играх можно включить в ограниченном режиме - правда там фпс будет 20 максимум но пощупать можно
В 20фпс нельзя "пощупать" лучи, это неиграбельно
скорее всего всем похуй, но у меня карточка 3050 ASUS, купил новую и дешево, меньше 200 долларов. в интернете её жестко хейтят, высмеивают, мол, лучи не тянет, полное говно. а как по мне ничего плохого, дешевая, DLSS поддерживает (а это действительно та самая волшебная пилюля), холодная, памяти 8 gddr6 - что еще надо работяге? да, на 2к на ней не замахнешся, на 144 фпс тоже не особо, разве что онлайн-игры (у меня быстрый монитор)
играл в Last of Us - был реально впечатлен графикой как ребенок. если залочить игру на 60 кадров в инспекторе то как раз хватает мощности на высокие настройки + DLSS на качество (кстати даже лучше как по мне чем натив) + лучи. как же круто они преображают игру! фонарик очень прикольно от воды отражается, особенно в темноте, детализованные отражения в лужах воды, даже крови.
правда для такого дела пришлось обновить камень с R5 1600 до R5 5500 - тоже бомж-вариант, но как раз хватает
Супер, все конструктивно и по полочкам, жалт в закреп можно только один комент
вместо того, чтобы реально объяснить, почему этого нет на старых видюхах, взял да обосрал чуваков. И похуй, что лучи можно запустить нативно, даже на 980, если просто вырубить скрипт в игре, который отвечает за проверку видюхи. Короче, я хз чё ты пытался сказать, но если то что видюха 10 летней давности не имеет скриптика позволяющего запустить лучи, и что на 60 герцовом монике нельзя получить 144гц, то спасибо кэп
Ты не понял сути видео
Здравствуйте! Не знаю на сколько вам нужны идеи для видео, но вот пару идей:
1) (ОЗУ) Стоит ли переходить на DDR 5 или пока стоит остаться на DDR 4. Чувствуется ли реально разница между ними
2) Переходить ли на плашки M2 для хранения/работы/игр или все же пока стабильнее SSD + HDD
3) Не знаю как это правильно описать... Какие игровые настройки лучше выключить/включить, чтобы убрать мыло и лишние нагрузки. Так сказать, включить максимальное качество без блюров, размытостей и т.п.
Приветствую, спасибо за идеи, но это все было сказано в видео "советы по сборке пк до 1000$"
DDR5 стоит брать если частота от 6000мгц,дабы почувствовать разницу.
SSD М2 быстрее обычных 2.5 SATA, минус SSD любого в топ что в случае поломки он забирает с собой все файлы и востановить нельзя, а на HDD можно востановить, поэтому SSD + HDD необходимость)
SSD хороши под игры/програмы/виндвовс, но личные файлы все стоит хранить на HDD)
@@rev_one О как, спасибо за пояснение. Пойду пересмотрю "советы по сборке ПК до 1000$"
озвучка видео топовая, каком-то мере смешная, удачи в развитий канала)
Спасибо)
Привет автор можешь выпускать ролик про трасеровка лучи в игры!
Задумался покупка 4060!
Бери RTX 4060Ti
@@rev_one а лучше сразу 4090, похуй же какой бюджет у человека. Насрать, что ti версия на 10к дороже, мы же тут криптомилионеры.
бро какие моды ? какие файлы зашел в игру активировал ползунок это на щет fsr в некоторых играх нету длсс есть только фср .2 моды нужны только на картах типо 20-30 rtx чтоб заменить генератор кадров dlss 3.5 на fsr 3 fg (motion fluid). ибо в 2 генераторах кадров нет разницы . я вот использую от Nukenin и играю во все игры с дорисоваными кадрами стало приятнее играть
Если нейминг - "костыли" нравится больше, то можешь юзать его вместо модов.
@@rev_one так чел объективно прав, по поводу модов и костылей ты выдал полнейшую хуйню, таким же образом можно считать все прочие апскейлы модами
Глагол: Китаец! Спросите что за "дичь" я написал? Я Вам отвечу! Такую же "дичь" я услышал в ролике.
Значит слушать не научился.
@@rev_one Я все прекрасно услышал. Вода мокрая
Вода на протяжении всего ролика
Главная проблема в том, почему нет DLSS в GTX16, ведь тензорные ядра там есть
В RX 7000 серии тоже есть тензорные ядра,но почему то FSR работает на обычных.
@@rev_one наверное потому что FSR в принципе не заточен работать на тензорных ядрах, клоун?
Незаточен, поэтому дает + 50% фпс, тогда как DLSS дает в 2.5-3 раза больше фпс.
@@rev_one какой DLSS дает 2-3 кратный прирост? Который работает на RTX40 с попутно включенной генерацией кадров? Чел удали интернет, не позорься
Классное видео
Автор опишет твоё состояние👌
на gtx можно dlss какой то скачать вроде
Нельзя
Конечно, поэтому я на 40 версию и перешел, продал свою 3080 и ни о чем не жалею
Надеюсь хотя бы 4070ti s
@@ЧорниМальчик зачем мне переплата за минимальный прирост фпс, 4070 ти мне за глаза хватает, у тебя самого какая карта?
Вот на таких как ты и зарабатывают )) Покупать ради покупки и понтов каждый год одно и то же с другой циферкой) Ты случаем не владелец Ойфона?))
@@hyperion79102 какие понты, я обычный работяга, я просто смотрю вперёд и не слушаю амудэшников
@@hyperion79102 амудэ головного мозга
Dlss прсчитывается аппаратно, тогда как фср - это програмная фишка
У видях с архитектурой пасхаль и ниже тупо нет тензорных ядер, вот и не могут они в длсс
Видос выжат буквально из ничего
Fsr "програмная фишка" это что то новое...
@@rev_one fsr, в отличии от dlss, не требует специальных физических компонентов в видеокарте для работы
К вопросу о том, чем "аппаратное" отличается от "програмного"
Хотел бы посмотреть на того, кто покупает игры по несколько тыщ за штуку. Неужели есть такие, кому некуда девать деньги. Наверное только в Москве и Питере. Остальная часть страны живёт от зарплаты до зарплаты.
С 2015 года перестал качать пиратки и жизнь стала проще)
Основная мысь правельная, длсс не возможен из за его архитектуры которая требует аппаратные блоки тезор, запустить его можно и на обычных ядрах, только в таком слкчае фпс упадет раза в 2-4
Но вот про пиратки вы совсем уж перегнули) обновить их легче легкого, и сохранения не удоляются при удалееии игры, так как они хранятся как правило в аппдате либо документах, а если игра гог, то там даже облако работает, кстати пиратка форзы 5(и более старых), там даже онлайн работает через официальные сервера, все как положено и даже лаунчер есть с автообновлением игры)))
Извиняюсь, не юзал пиратки лет 5 а то и больше.
Господа эксперты, не помню задавал такой вопрос или нет, но ГТА 5 на ультрах в 15 фпс, не сказать , что мой комп навороченный, но и не скажешь, что слабенький, i5 10400f , 32 гб озу 2666, RTX 3060 12 гб , требовательные игры стоят на ссд м2 500 гб , а не требовательные на вд хард 1 тб , система так же на ссд но сата 120 гб вин 10 про, буду благодарен, за адекватные ответы
Поиграйся с настройкой масштабирования
Про 60 герц не согл, это стандарт, 60 герц хватит всем, на ютубе большинство видео в 60 фпс, 4090 тянет игры на своих 4к в 60 фпс, крч хватает
Почему стандарт? Сейчас даже телефоны и планшеты в 90-120гц выпускают, телевизоры тоже уже как пару лет переходят на 120гц.
Высокая герцовка добавляет плавность от чего меньше дергается картинка и меньше устают глаза.
@@rev_one это костыль для амоледа, что бы глаза меньше уставали, и что бы в шедевростендофф играть.
На пк же больше 60 герц мониторы нужны только для онлайн игр, а вообще, я уже долго сижу на 60 герцах, есть тел с 120 герцами, ну во первых раздницы особо не почувствовал, во вторых и изза резвости 60 герц картинки как будто реакция лучше, агрессивнее наводка на противника, может это у меня одного так.
Не согласен, сначала поменял телефон на 90гц, листать тот же браузер или чаты стало намного приятнее, потом мониторы заменил на 144гц, небо и земля, как будто новый опыт от использования ПК, игры само собой, но тот же браузер, да и впринципе все стало куда приятнее и стало меньше усталости глаз.
90-120гц на телефоне/планшете и 144гц+ на ПК это немного разное восприятие, на большом экране - больше ощущается плавность.
Ради эксперимента пару месяцев назад решил поменять настройки и ограничить везде частоту до 60гц - если в двух словах то я даже 10 минут не смог выдержать, очень все дерганое и противное.
@@rev_one ну незнаю, пока нету моника 144 герц, и разницы не чувствую, может ещё зависит от качества матрицы, всё же дешёвые 144 герц хуже дорогих 144 или 240, но пока видеоконтент снимают в основном в 60 ФПС, и смысла переходить пока не вижу, да и комп у меня дешман) может к лету появится уже получше.
Дело не в контенте, а в том что все приложения будут в 144гц или более в зависимости от монитора, те же фильмы снимают в 24фпс, поэтому в видосиках и прочем контенте не надо больше 24фпс.
А по поводу качества матрицы - герцовка и качество это 2 отдельные характеристики, плавность картинки будет одинаковой что на IPS что на OLED при 144гц.
Есть еще пунк скорости отклика матрицы GTG/MPRT, но то уже другая тема.
а при чем тут мод сделаный на коленке любителями самоучками к амд ? 😂
Пиратские копии игр отлично работают и обновляются, а если нет, то скачаешь новую версию заново. А сохранения нужно просто перенести. СтОит разобраться, где они лежат, и всё будет просто. Смешное заявление про то, что пиратки не обновляются и сэйвы пропадают.
А можно просто купить игру и получать обновления без танцев с бубном...
Желаю автору тоже развиться, а не пенять на других. Ну и матчасть пойти выучить.
В-первых, Ray Tracing Nvidia сама открыла на GTX картах, и там он работает на обычных CUDA ядрах, хоть и медленно и толку от этого особо нет кроме какой-нибудь 1080Ti с минимальными лучами, ну или софте для рендера, где важна сама возможность.
Во-вторых, есть большая разница между возможностями железа, вроде того же монитора, который физически не может работать на частоте сильно большей, чем есть и возможностей программных, которые позволяют делать карту быстрее. Тот же Re-BAR можно добавить и на 20-ю и 10-ю серии, обновлением VBIOS, но Nviida это сделала только с 30-й. На тех же многострадальных RX400/500 можно программно получить 20% производительности сверху, за счёт S.A.M. и многопоточной обработки.
В-третьих, яблочная компания поддерживает старые аппараты столько, сколько не поддерживает большинство производителей смартфонов на Android. Да и с настольной техникой у них поддержка довольно долгая.
он же нислова не сказал про Ray Tracing
Как видишь большенству насрать о чем речь, а те кто уловил суть - в закрепе)
Не тратьте время. Вместо ответа вас назовут нищебродом. А по теме ничего - чувак не шарит в технологии и отличиях FSR и DLSS.
Все просто, у амудки нет толковых РТ ядер, отсюда и забагавонный фср
В России не привыкли выкидывать на помойку то, что работает. Выкидывают только тогда, когда сломается. Так что не надо всем навязывать свои барские замашки. Если железо позволяет работать на компе, смотреть фильмы, сидеть в инете и играть в старые игры, то с чего бы выкидывать его и покупать новое железо? Это неэффективное использование потраченных денег. Поэтому при покупке компа нужно брать не самое дешевое, чтобы не несколько лет хватило.
Это уже третий комент где ты упоминаешь рф, один вопрос - почему?
Или для тебя снг = рф?
У меня друг сидел на фуфыксе с 6 + ггц )))
Наконец то на фоне не ибучий зе файналс😊
Как отпраздновал 1к
Сделал разоблачение на разоблачение меня и воодушевился)
как всегда накинул кучу на вентилятор =)
Что не так?
Да все так , просто юмор твой нравится xD
ну бро 980 даже без фср у товарища киберпанк на высоких тянет ... а эти технологии маштабирования - это костыль чтоб хоть както играть с лучами ибо лучи раняют фпс до пола . что длсс что фср это для лучей придумали - ни кто в здравом уме не будет включать эти штуки чтоб мылить картинку (пример дота включи разницы в фпс что она включена что нет не заметишь . только с фср мылит
FSR мылит, DLSS наоборот добавляет детали
@@rev_one ладно
Мое лицо после перехода с 60 на 360 герц (゚o゚〃)😲
Согласен на счот того что, что купил тем и пользуся и восхвалять генирацию от амд такое себе потому что много ебли с костыльными настройками. Мне например проще понизить настройки и играть если игра того стоит, так как не люблю ковыряться в компе лишний раз в поисках кой то левой производительности. Но самый главный посыл (мое мнение) заключается в том что современные новинки игр не стоют тех денег которые просят за их производительность на ультра либо высоких настройках. Сами игры гавно. Либо я уже старый😂
Нет, это действительно игры говно.
na NVDIA 10xx mohno vkliu4it dlls 1.9 nu budet tragedija a ni fps, a mohno ispolavat DSR eto drugae technologija.
все что я понял из самого видео, и из комментариев оставленных автором, автор собственно живет в прошлом, fsr мылит, dlss добавляет "детали", хоть это и сопоставимые технологии которые буквально делают одни и те же вещи разными способами, однако на данный момент, fsr 3 уделывает dlss 3 (можно ознакомиться со сравнением в 4k с rtx 4090 immortals of aveum), но честно говоря делать выводы сейчас еще рано, технология не обкатана, но в этом ярком примере длсс показывает себя хуже чем "мыльный" fsr, ладно это еще можно опустить, но видео пиздец какое бесполезное, какая никакая мысль находится в самом конце, буквально в последней минуте, а если человек якобы не понял посыл видео, автор просто напросто пишет человеку что он не понял суть))) гениально, заслужил лишь дизлайк, потерянного времени пятикратно жаль
Ты прочитал 1 коментарий, вырвал оттуда фразу "fsr мыло а dlss добавляет детали" и говоришь " из коментариЕВ оставленныХ автором", неплохо однако...
"Если человек ЯКОБЫ непонял посыл видео то автор напишет что он непонял суть" и в чем тут собственно проблема? А точнен где я не прав если человек тупой и не понимает о чем речь?
Потерянного времени тебе жалко? 5 минут? Ты коментарий писал дольше чем видео смотрел...
Вообщем и целом ты обратил внимание на 1 коментарий вместо того что бы почитать большую часть или хотя бы те которые в топе и с полезной информацией, отрицаешь факт мыла fsr и жалуешься что потратил 5 минут?
@@rev_one ты не понял суть
Вообще-то .. Dlss уже включается программно и на старых картах... Все прошито и работает ... Ненадо умничать как в видео ... Этот чел вообще представленмютя не имеет как все работает
Да да да, пруфы будут что там уже прошито и програмно работает?
@@rev_one ruclips.net/user/shorts3WMOZGcTHOI?si=Kll0rbeCp-9YFZ43
@@Пётр-ф4щ9ц И что? Это видео нечего не показывает, человек просто включил длдср и длсс? Дальше что?
Про фср конечно высер, а так по фактам раскидал
Фср говнище лютое, даже сами амудэшники это говорят
Почему FSR высер? Погугли как работает FSR и как DLSS, и сразу все поймешь.
@@rev_one ты втираешь какую то дич
@@rev_one фср встраивают в игры разработчики и тебе ненадо нечего делать кроме как включить его в настойках игры
по поводу FSR да он работает на любых картах,лиш бы была эта функция в поддержке игры,а вот костыли нужны тока для DLSS на старых картах через FSR,только толку что от DLSS и от FSR,так как XeSS оказался по лучше,а если по чесному все эти модные штучки тока потому что разрабы игр тупо обленились,если разобрать что же такое на самом деле все эти нововедения,то окажется все то что тупо отключение старх продвинутых наработак,лиш бы якобы повысить попугаии,смешно да и только следить за всеми этими продвижениями якобы технологией идущих назад в 00,по поводу герцовки мониторов ты видать отстал от жизни так как они и 120-140 были в мохнатые годы,народу хватала на трубах 75,а выше нужно было тока для технологии 3d vision,смешно смотреть на людей которые утверждают якобы мегагерци монитора дают прибавку к фпс
Причем тут герцовка монитора и прибавка фпс?