@@solod7566 "пока игры идут в 60 кадров" Alan wake 2 на какой-нибудь rtx 3060: здравствуйте... И уже не тянет. А генерация кадров на rtx 4000 серии реально полезная вещь, кстати.
19:00 Буквально в прошлом видео про новые 7000е ряженки вы этого не упомянули, хотя там ситуация буквально такая же: минимальные потери при значительном андервольтинге. Эххх, вот за всей информацией приходится следить)
Однако ! Выстрелил обилием материала и при этом без запинок, четким дикторским голосом. Настолько гармоничным, что не мешает погрузиться в представленный материал 👍
Обзор наканале мой компьютер = шляпа! Обзор на канале этот компьютер = пушка! Очевидно что зелёные превратили фпс просто в цифру = Безалкогольные фпс Хуанга от которых мало эффекта)))
Уже читал новость что какой-то чел адаптировал ДЛСС 3 под второе и третье поколение карт. Пока не очень стабильно и на костылях, но факт что это возможно чисто на программном уровне, просто надо допилить.
> 13:31 "К тому же, нужно помнить, что DLSS 2 и так вносит свою задержку..." Однако, с увеличением FPS DLSS 2 эту задержку ВНЕЗАПНО уменьшает в большинстве случаев. Смотрим видео "Does DLSS Hurt Input Latency?" на канале Hardware Unboxed. > 13:36 "...и NVIDIA сумела сделать так, что задержка от DLSS 3 сравнима при ощутимо большем FPS" Опять идём на канал Hardware Unboxed, смотрим видео "Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed" и видим, что задержка при DLSS 3 ВНЕЗАПНО ощутимо выше, чем в DLSS 2. Например, идём на временную метку 18:00 (Cyberpunk 2077) и видим, что в DLSS 2 в настройке Quality FPS с 42 поднимается до 72, а задержка падает с 63.5 до 47 (относительно нативных "без DLSS"). DLSS 3 в настройке Quality поднимает FPS с 72 до 112, но задержка растёт с 47 до 62.6, т.е. при 112 FPS мы играем с задержкой как при нативных 42 FPS. Да уж, "сравнима", my ass. Только с "нативной" задержкой, а не с задержкой при DLSS 2, которая ощутимо ниже.¯\_(ツ)_/¯
@@-Victor-_ Я не эксперт в вопросах рендеринга, поэтому ориентируюсь на мнение и тесты других зарекомендовавших себя экспертов (Digital Foundry, например). Вот тебе мысли для размышления (украдено с реддита, переведено авто-переводом, цитата): "тот, кто знает, как работает конвейер рендеринга (а для этого все, что вам нужно, - это регулярно смотреть видео Digital Foundry, а именно замечательные технические пояснения от Alex), сразу скажет вам: добавление обработки DLSS в конвейер имеет очень небольшие *квази-статические затраты* , а это означает, что если выгода преимущества использования DLSS (т.е. сокращение обработки всех пикселей, с которых увеличивается масштаб DLSS) не перевешивают эту фиксированную стоимость, очевидно, что добавление DLSS в конвейер увеличивает задержку, поскольку это также снижает частоту кадров в секунду. В заключение, это очень простая математика: - когда DLSS улучшает частоту кадров в секунду *по крайней мере на 1%* , это *не приведет к КАКОЙ-либо задержке ввода* - когда DLSS ВООБЩЕ не улучшают FPS (например, из-за узкого места в процессоре), зачем вообще использовать DLSS? Другими словами: что хорошего в том, чтобы водить Tesla и экономить много времени на поездке по пересеченной местности, если вам придется простаивать столько же времени, сколько вы сэкономили, заряжая ее? (очевидно, этого больше не происходит, но это была обычная проблема для потенциальных покупателей и часть того, что было описано как "беспокойство по поводу ассортимента"). DLSS тратит меньше времени на вывод нужного кадра на монитор, но если процессор "отстает", он все равно заставляет кадр бездействовать в течение N-х миллисекунд, в этом нет смысла" (конец цитаты). Поэтому мной и было написано, что: "с увеличением FPS DLSS 2 эту задержку ВНЕЗАПНО уменьшает *в большинстве случаев* ", но не в 100%. НО в большинстве случаев выходит так, что DLSS 2 улучшает частоту кадров в секунду более, чем на 1%, что ведёт к *ожидаемому снижению задержки* . Оригинал сообщения, если интересно: "whoever knows how a rendering pipeline works (and for that all you need is to watch Digital Foundry videos regularly, namely the great tech explainers from Alex), will tell you right off the bat: adding DLSS processing to the pipeline has a very small, quasi-static cost, meaning that if the benefit of using DLSS (i.e. the reduction of processing all the pixels from which DLSS upscales to) doesn't outweigh this fixed cost, obviously adding DLSS to the pipeline increases latency, because it also decreases FPS. It's very simple math in conclusion: when DLSS improves FPS by at least 1%, then it will not induce in ANY input latency when DLLS does NOT improve FPS at all (e.g. because of a CPU bottleneck) why use DLSS in the first place? In other words: what good is it to drive a Tesla and shave off a lot of time on a cross-country trip,, if you're gonna have to idle the same amount of time you saved charging it up? (this no longer happens obviously, but was a common issue for prospective buyers, and part of what was described as "range anxiety"). DLSS spends less time getting you the desired frame to the monitor, but if the CPU "behind" it is forcing the frame to sit idle for Nth milliseconds anyway, there's no point"
Обзор наканале мой компьютер = шляпа! Обзор на канале этот компьютер = пушка! Очевидно что зелёные превратили фпс просто в цифру = Безалкогольные фпс Хуанга от которых мало эффекта)))
@@-Victor-_ DLSS2 даёт дополнительную нагрузку, да, но видеокарта существенно разгружается за счёт того, что отрисовка происходит на уменьшенном разрешении, а потом с помощью DLSS производится масштабирование кадра до нужного. А вот добитие новыми кадрами существенно увеличивает задержки.
Если бы была нормальная шина в 512 у 4090, к которой мы привыкли в предыдущих топах и банками памяти по 2 гига, что сейчас самые распространённые, то мы бы получили 32 гига видеопамяти с 16 банками памяти, по 4 с каждой из 4-ёх сторон чипа. Просто эти черти явно не хотят докладывать объёма памяти. Пропускная возможность памяти сильно влияет на ФПС играх.
@@emperorgalaxy4495 Шины это дорожки к чипу и ток со стороны матерной платы + дорожки в самом проце. Все эти шины требую питания... Это был бы очень горячий процессор ) В 100% такой проц не мог бы появится на АМ4, из-за ограничений сокета.
@@SPR1G- весь системник в пропеллерах, приходится мониторить температуры...а оно мне надо?), Андервольтинг не сильно помогает...где 300вт жрет где 370..., а тут новый техпроцесс.. при больших мощностях потребление, а соответственно тепловыделение меньше....
Изучи пожалуйста тему. Сам Бэбидж написал порядка 30 программ для своей машины. Ада написала одну программу, которая к слову содержала ошибки, так как она до конца и не разобралась с тем как она работает.
К слову, встречаются такие кто говорит что Ада создала машину Бэбиджа)), например так в Википедии написано ))). Первые программы для своей машины Бэбидж писал когда Аде Ловлейс ещё 7 лет не было.
Т.Е. с дллс3 в 60 кадров отзыв у игры будет в как 30 фпс , кто забыл как это , включите ограничения кадров до 30. Советую эксперимент проводить рядом с ведёрком или пакетиком 😁
У моей старушки rx 470 шина 256 бит, а у 4080 только 192... Компенсировать "недостаток" обычных физических контактов задирая частоту, это значит увеличивать нагрев и, следовательно, износ памяти. При этом увеличили кэш второго уровня в 15 раз! Никогда не поверю, что такое увеличение внутренней безумно дорогой памяти процессора обходится в производстве дешевле, чем добавление 64-х контактов кристаллу памяти. Таким образом получается, что производители осознанно, то есть намеренно программируют систему на быстрый износ.
У RX 6500XT вообще 64 бит шина и 4 линии PCI-E, но она почему-то быстрее RX 570 в 1,5 раза! Может лучше было дать RX 6500XT например 128 бит память, 8 линий PCI-E, и не очень высокочастотную DDR6 на 12 Ггц? Но тогда бы она смогла конкурировать с RTX 3050 как минимум! А ну да у RX 6500XT только 4Гб памяти!
Ты прав и не прав одновременно, да в чипе памяти контакт копеечный, но между чипом памяти и чипом гпу эти контакты надо разводить по слоям,экранировать, один кв^2 м текстолита с шиной 128 бит стоит 1000 долларов, а то же текстолит с шиной 256 бит уже три тысячи долларов, а с шиной 384 бита уже 5ть тысяч, а с шиной 64 бита 20(!) Баксов, по этому видя условную 6400 или 1630 на 64 бита , ты должен понимать логику этого решения, почему там 64 бита, а не 128, насчёт дорогой памяти , если изначально будет вложить в память, то цена транзистора не меняется, сегодня технике без разницы что травить куда ядра , lкеш врема раздельного травления и высокой себестоимости прошли, сейчас умеют травить Кристал единой матрицей, один раз создаёшь матрицу и до талого травиш, по этому в итоговой стоимости логичнее не достаток шины компенсировать частотами и кешем банально дешевле, на единицу изделия
Оно и понятно, любой производитель чего-либо со временем все больше и больше делает ставку на быстрый износ и замену продукции, купленной клиентом. Таким образом они повышают свои продажи...
@@clunck16 не делает Нико ставку на быстрый износ, например из свременных карт, которые попроще, 6400, 6500,6600,1630,1650,1660,2060,3050, 3060, они почти бессмертны, у них маленькие кристаллы обладающие большей прочностью, меньше токи, меньше нагрев, и как следствие этого очень высокая надёжность, но они мало кому интересны, ведь производительность карт посредственная, это так было всегда, например на Авито до сих пор много 750 ,730,710 карт, но почти нет 780,770 почему так? Потому что 780 и 770 подохли, отвал, прогар,диградация кристалла, или вот к примеру 260,250 карты на Авито до сих пор в избытке хотя им по 10(!) Лет, а 280 и 270 нету за редким исключением, почему так? Потому что большие кристаллы заведомо работают с перегрузом , но в замен дают своему пользователю максимум, это как турбо двигатели мощьные, компактные,но с очень маленьким ресурсом и люди их все равно покупают, вопрос почему? Потому что они дарят невероятные ощущения от езды , тут также ресурс 90-80-70 карт очень маленький, но они дарят невероятные ощущения от качества графики в играх....
Я сам не пробовал (хотя в будущем точно намереваюсь), но уже пошла куча информации о том, что DLSS 3 - рекламный "gimmick" для того, чтобы втюхивать откровенно средненькое по характеристикам железцо по неадекватным ценам. ФПС, показываемый в режиме "генерирования кадров" DLSS 3, НЕ ИМЕЕТ никакого отношения к реальному ощущению играбельности игоря. Его включение при реальном (без любого DLSS) фпс меньшем 60 приходит к такой заметной задержке ввода, что игорь становится тупо неиграбелен. А теперь внимание, вопрос: зачем вообще нужен DLSS, если и без него фпс уже не менее 60? Так что реальная цена 4080 16G должна находиться где-то посередине между реальными ценами скажем 3080Ti и 3090Ti, а недавно отменённая (лол, с чего бы это) 4080 12G - где-то на уровне 3070 - 3080 12G. Единственный претендент на короля графики без "но" это конечно 4090, тупо за счёт очень неплохого роста количества CUDA ядер и частоты, но вы посмотрите на его потребляемую мощь и цену
Вот реальные тесты от богатенького англичанина! ruclips.net/video/k_7DxxLZkg4/видео.html Правда у него какой-то фпс низкий в этой игре, не понимаю почему он такой низкий! =((
А че по поводу этого Nvidia Remix. я не понял? Типо уже должны все выкладывать видосы с подобным опытом в старых играх, но я нигде таких не вижу? Или эта штука еще не вышла?
Наличие дополнительного фаписа в обход ЦП никак не не уменьшит инпутлага. Даже больше - в отличие от глаз, которые различают до 60 кадров в секунду максимум, наша моторика рук чувствует разницу даже между запросами на отрисовку в 144 герца и 244) А следовательно, комфорт игры достигается за счет именно процессорного запроса. Хуанг нам как всегда впарил дичь по двухкратному ценнику)
Двадцать четвертое лезвие полирует челюсть. Интересно, как это с помощью "искусственного интеллекта" можно сформировать промежуточный кадр из всего лишь двух соседних без предистории кадров, в чем и была фишка DLSS2, и чем это отличается от обычного семплинга?
Посмотрим, сколько на этих картах будет жить память) касательно линка - жаль, что убрали. Понятно, что две карты соединяли единицы, но, как правило, это делалось не для понтов или игрушек, а для работы. 2 3090ti суммарно дают 48 гигов видеопамяти, что было востребовано в среде профессионалов, ибо 2 3090ti в 2 раза дешевле одной квадры с 48 гигами видеопамяти на борту.
Лол, 3-е поколение прикалывались над 2-м из за рейтресинга, а 4-то будет прикалыватся над 3-тим. А ты сидишь на встройке от АМД 2019 года, ахах и ждёшь GTA 6 или когда вообще перехочется играть, скорей второе ;)
я так понимаю следующее поколение видеокарт будет " помогать " процессору лопатит программу, а еще через два-три поколения PC-архитектура и вовсе откажется от CPU!!!)))
Сплошные дифирамбы в сторону 4090 и Нвидия, прям таки никаких минусов нет. И даже ниче что там пишут что при тестах текстолит расплавился, слухи слухами конечно, но всё же дыма без огня не бывает.
Hardvare unboxed после тестов пришли к выводу что dlss 3 имеет смысл для высокой герцовки от 240Гц. Так как длсс 3 плохо работает с v-sinc. Если у вас 60гц монитор и вы играете с вертикальной синхронизацией - то больше будет артефактов от длсс 3. И ещё если не ошибаюсь выяснили что с ростом фпс у длсс 3 растёт задержка. Поэтому они рекомендуют как можно сильнее загружать видеокарту (ставить например присет длсс качество) чтобы снизить задержку из-за промежуточных кадров вставленных видеокартой.
Remix ничего не делает в реалтайме, он перехватывает модели из игры и выгружает их в редактор, где ты сам уже все настраиваешь, что на видео и показано. И потом соответсвенно надо будет выгрузить все это добро и в игру обратно в виде мода.
А вот про то, что в корпус не помещается, что переходник плавится и прочее - не упомянул... А ведь после выпуска RTX 4000 значительная часть тех, кто сидел только на NVidia, стали в сторону Radeon посматривать) (потому как и памяти больше, и баланса, и в корпус помещаются, и не плавятся, и от них видюхи в те же самые консоли и МАКи пихают... Не кажется ли, что удобнее будет брать такой более универсальный вариант? В общем, посмотрим))
Неизвестно чё как там с радеонами а вы уже их вожделеете. А проблема с проводником проблема крайне редкая, что то на уровне пары тысячных процентов от всей партии.
@@CHCH-Au Конструктивный недостаток, сжигающий видяхи - есть, а вот то, что радеоны ставят и в маки, и в консоли (а, значит, поддержка игр и рабочих задач однозначно есть), факт, который очень обнадёживает, отчего к Радеонам больше тянутся... Но Вы правы - пока неизвестно, что да как, райзен 7000 показал себя тоже далеко не идеально
Как всегда невероятно круто поданная информация!! Порой за такое хочется донатить! Проблема в том что кроме лайка и комента пока нечем. Ключевое слово ПОКА... Из видео я понял главное - со своей 2070 Super на 3 винта есть смысл переходить на 4080 16GB, т.к. в ближайшее время есть планы добавить 2К моник а старый оставить как вспомогательный.
Для 2070 super разрешение 2К - как два пальца об асфальт. Но, это не главное, просто покупать новую серию ЛЮБЫХ видеокарт раньше, чем через год после релиза крайне неразумно, не в смысле цены (хотя и это тоже), а потому, что обязательно полезут косяки и дай бог, чтобы за год их все вывили и исправили. Но, если сильно хочется, то...
@@umkanik727 насчёт 2070 Super и 2к она не вытаскивает на ультрах. Я в Control играю на Full HD при максимальных настройках и карточка в 98% загружена (естественно со всеми rei tracing), в 2к нужно уже снижать настройки. Про покупку в начале и через год с одной стороны согласен, но если как с 2000 серией я так и сделал и очень выгодно взял, а вот с 3000 случился бум майнинга и карт не достать. Щас 4000 серия и если на Тайване начнётся замес, то и 4000ную серию будет не достать. Там вообще ничего не достать будет. Но это теории и предположения. На практике же я сейчас ближайшие пол года точно её брать не буду, а может и весь год. Тут уже с Тайванем как повезёт, если чё 3000 серии навалом и она щас очень дешеветь стала. Мне ещё корпус сменить надо и доукомплектовать его и 2к моник взять. Окончательно понять что 2070 не тащит во всю и тогда уже брать 4080, либо уже если и брать, то 4090, т.к. там производительность в 2 раза выше, а разница в цене не космическая, так если брать, может тупо докинуть, но получить 50% прирост производительности. Ещё за этот год станет понятно, есть ли скрытый инпутлаг в играх или нет на 4000 серии.
Видеокарты с пол киловаттом потребляемой мощности, гигантскими токами, огромными и быстрыми перепадами температур, с большими перекосами коффициента теплового расширения компонентов огромной ценой, очень низкой надежностью и маленьким сроком наработки на отказ в связи с отвалами чипов или прогаров vrm по моему столкнулись с какой то утопической инженерной идеей производить карты для прохождения пары игр ... А полом она сгорит и можно покупать другую. Типа как движек у драгстера, служит всего пару гоночных заездов ... Мне такое ... овно не нуно, которое не может и трех лет отработать в режиме 24/7. Разве нельзя поменять концепцию например больше чипов, но более холодных и более надежных ?
Смотри к примеру на 3060/6600/2060 они почти бессмертны, у них маленькие не обрезанные чипы, у меня 64 шт 2060 24/7 уже работает три года ,и не одна не померла, и это не майниг , а vr клуб, так что есть такие карты, вы просто их не замечали это 2060 и 3060, а также 6600
Почему все так облизывают этот DLSS? Да, я соглашусь, это топ для видеокарт уровня 2060 - 3060, но на кой чёрт, отдавать за видеокарту 2000$, чтобы в итоге просто получить шакальную картинку, за-то в 8к. Логика просто покинула чат
Приветствую благодарю за разбор новостей, но мог бы ты протестить и прокомментировать тесты в сравнениях? Было очень интересно послушать грамотную речь без похабщины и шуток за 300....
В общем, зелёные цены хрен скинут, пока на полках не появятся новинки от красных. Сам только -только обновился на 6700хт и r5 5600х, моник 1440р. Но очень интересно, какими будут 7700хт и 7800хт и, главное, сколько они будут стоить. И спасибо за понятные объяснения технологий от зелёных. Смотрел презентацию Хуанга в прямом эфире и хорошо, если половину понял того, о чём он рассказывал))
Процы от АМД будут бесполезны щас 5000 серии хватает куда больше то? А стоимость будет большой если взять средние цены на материнские платы в днс (зато блять процов нет у них) то 30к на мать,15к на ddr5 и проц от 35-42к итог:80-92к за три комплектующих...
@@emperorgalaxy4495, смотря какая будет видеокарта. Для 4090 в 1440р уже мало 5800X3D. С 7000 линейкой процессоров АМД, конечно, жидко обделались. Продажи в мире мизерные)
Более быстрая память, частично компенсирует более узкую память, плюс придумали кэш пихать, что тоже помогает, а вот увеличение шины сильно удорожает плату и увеличивает жор, вот
DLSS3 как я понял поднимает частоту кадра в трое от натива, но кадры как бы это сказать не настоящие))) то есть она их придумывает... поворот ни туда. раньше багов и так хватало, теперь будет баговать вообще все что движется
а я пока так и останусь сидеть на своем ПеКа старичке, rtx 3070 и i7 10700k 😅 пускай трудится)) благо на фулл хд, 144гц монике. все летает на ультрах ))
кароче сделали херню на скорую руку с точностью обработки "дорисовки" кадра при помощи ИИ который при неправильном раскладе может сдорово поднасрать, а в остальном молодцы RTX4-х тысячной линейки будет как я понимаю последней версией этого направления тобиш 5ти тысячника небудет и переработанная технология на 2х нм -хотя погадите скорее всего будет заключающая серия перед выходом на нано-сантиметры они неупустят впарить от дохлого осла уши при учете того что уже есть проектные разработки по нс технологии ориентированные на 26-28 год.
Я жду когда появятся 4060 и 4070, цена на 3070, 3080 на Авито ещё сильнее упадёт. Сейчас 3060 12Gb -в идеальном состоянии продают за 23т.р. много предложений в СП-б, 3070 за 28-31т.р., 3080 за 38-43т.р.. Думаю, через несколько месяцев, 3070 будет стоить не более 22т.р.. а 3080 не более 30т.р.. Ждём) 2к моник на 34дюйма 165Гц у меня уже есть =))
😃😃😃🤣🤣🤣🤣🤣🤣🤣 После того, как NVIDIA анонсировала линейку RTX 4000, в сети раскритиковали компанию за выпуск RTX 4070 под видом RTX 4080 с 12 ГБ памяти. На этот «маркетинговый ход» в том числе обращали внимание специалисты Digital Foundry. Важно отметить, что видеокарты различаются не только объёмом памяти, но и производительностью. В официальном заявлении говорится, что GeForce RTX 4080 - «фантастическая видеокарта, но названа неправильно», а наличие двух GeForce RTX 4080 в серии сбивает с толку. Поэтому компания «нажимает кнопку отмены». В то же время Nvidia подтверждает, что GeForce RTX 4080 с 16 ГБ памяти выйдет, как и планировалось, 16 ноября. И компания ожидает такой же тёплый прием, как и в случае старшей GeForce RTX 4090. Официально дальнейшая судьба GeForce RTX 4080 12 ГБ неизвестна, но вполне вероятно, что эта модель просто будет переименована в RTX 4070. К слову, первоначально инсайдеры предсказывали, что графический процессор AD104 будет использоваться как раз-таки в RTX 4070 и прогнозируемые тогда характеристики совпадали с теми, что мы увидели в RTX 4080 12 ГБ. Теперь непонятно, насколько задержится анонс RTX 4070, вероятно, производители уже подготовили модели RTX 4080 12 ГБ, теперь придётся переделывать.
Странные эти зелёные. 3060ти отличается от 3060 всем, по сути это 3070, но нет, никого это не ипёт. А тут они вдруг всполошились. Навскидку, не было ни одной серии видях, где бы не было путаницы вносимой маркетолухами
@@uclipucli вопросов небыло если б они представили 3 карты 4090, 4080супер16 Гб и 4080 12гб былобы понятно что 4080 супер не тоже самое что просто 4080 , а тут нихераа не понятно чем отличается две(!) 4080 памятью? Или чем-то ещё, это не указано в названии
На Авито в СПБ сейчас можно взять 3060 12gb в идеальном состоянии за 23т.р., много предложений, но я лучше подожду выхода 4060 и 4070, но не для того, чтобы купить, на них цена будет высоковата, а думаю тогда цены на 3000-ые ещё сильнее упадут, а там уже можно выбирать.
Ынвидиуа взяла и спустила ~3.5 кратный прирост транзисторов на RT и тензорные ядра, которые составляют около 40% от всего конвейера. Эти 40% можно было пустить на обычные куда и получить ещё более пзд(хороший) прирост производительности в нативе и в рабочих задачах. Маркетологи паразиты на теле микроэлектроники
@@MrYatagan На сколько бы ядра не были бы мощные они не смогут обогнать специализированные rt блоки пол узкий круг задач. Тем более чего тебе не хватает 16к ядер у 4090 против 10к у 3090ti 6к добавили совсем не давно 2к ядер это было дохуище.
Так а чё там по грубой производительности, без этого вашего генератора FPS через апскейл ? Он же DLSS - позволяет "быстрее" рисовать кадр, только за счёт уменьшения этого самого кадра А новая версия теперь будет не только мылить кадры - так ещё и свои виртуальные подсовывать, добавляя эффект холодца в управлении Мыльный холодец - блюдо на любителя, лол Даёшь сравнение лоб в лоб - киберпанк ультра без DLSS, и RT вкл/выкл по отдельности, 3090 vs 4090 Так-то я задумался уже, о какой-нибудь 4080 себе на новый год
Обзор наканале мой компьютер = шляпа! Обзор на канале этот компьютер = пушка! Очевидно что зелёные превратили фпс просто в цифру = Безалкогольные фпс Хуанга от которых мало эффекта)))
а ведь это отличная коммерческая идея, заставить обновлять видеокарту с каждой новой линейкой видеокарт. Ждем DLSS 4.0 в 5000 серии
Это как в казино, урвав видяху нужно вовремя остановится. Ну пока игры идут на высоких в 60 кадров
И новый сокет интел
@@solod7566 "пока игры идут в 60 кадров"
Alan wake 2 на какой-нибудь rtx 3060: здравствуйте...
И уже не тянет.
А генерация кадров на rtx 4000 серии реально полезная вещь, кстати.
@@solod7566поэтому настройки рублю на 3060 , чтоб те что поддерживают шли в 144 в вертикалке
@@solod7566 в принципе мудро. Если есть 60 фпс на ультрах, то остальное уже не обязательно
19:00 Буквально в прошлом видео про новые 7000е ряженки вы этого не упомянули, хотя там ситуация буквально такая же: минимальные потери при значительном андервольтинге. Эххх, вот за всей информацией приходится следить)
Забыл сказать, что этот ролик не спонсирован Nvidia.
Друзья! Небольшая оговорка на 12:24 - без знания информации из СЛЕДУЮЩИХ кадров. Виноват)
Кстати, подписывайтесь на нашу телегу - t.me/mknewsru
также небольшая оговорка тут *3:17**-**3:19* ну уж не 28млрд же :D
Однако ! Выстрелил обилием материала и при этом без запинок, четким дикторским голосом. Настолько гармоничным, что не мешает погрузиться в представленный материал 👍
Ага особенно двенадцативольтный разъём
@@minerbum так он реально двенадцативольтный же
там напряжение 12 вольт
Спасибо за полезный видос!
Обзор наканале мой компьютер = шляпа! Обзор на канале этот компьютер = пушка! Очевидно что зелёные превратили фпс просто в цифру = Безалкогольные фпс Хуанга от которых мало эффекта)))
Уже читал новость что какой-то чел адаптировал ДЛСС 3 под второе и третье поколение карт. Пока не очень стабильно и на костылях, но факт что это возможно чисто на программном уровне, просто надо допилить.
Ооо, я тоже когда то адаптировал свои жигули под салярку, правда она почему-то при езде постоянно дымила, пердела, и слабо ехала!
Как можно программно адаптировать то, где упор в аппаратную часть?!
Познавательный отчёт,все по полочкам!👍Без лишней дребедени💪🫵
О 40й карте нужно знать лишь то что ближайший месяц все тематические блоггеры заебут своими разборами и тестами
Привет из Калининграда!
Держаться всем мужики!)!)!)
Отличное видео, как всегда по делу!
ВСЁ что нужно знать о RTX 4000 - Ждать 5000 -ю или что-то от конкурентов.
Запуск озвучивания трудно произносимых терминов в переводчике 😄😄😄 ❕❕❕ Ни у кого еще не видел такого приема подачи материала 👍👍👍
Хороший ход конём ! 🌞😉👌
Зато потом "мамкины грамотеи" в коментах докапываться не будут.
да ну, достаточно часто используется данный приём
@@voodoo659вот да. Тоже встречал часто такое.
> 13:31 "К тому же, нужно помнить, что DLSS 2 и так вносит свою задержку..."
Однако, с увеличением FPS DLSS 2 эту задержку ВНЕЗАПНО уменьшает в большинстве случаев. Смотрим видео "Does DLSS Hurt Input Latency?" на канале Hardware Unboxed.
> 13:36 "...и NVIDIA сумела сделать так, что задержка от DLSS 3 сравнима при ощутимо большем FPS"
Опять идём на канал Hardware Unboxed, смотрим видео "Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed" и видим, что задержка при DLSS 3 ВНЕЗАПНО ощутимо выше, чем в DLSS 2. Например, идём на временную метку 18:00 (Cyberpunk 2077) и видим, что в DLSS 2 в настройке Quality FPS с 42 поднимается до 72, а задержка падает с 63.5 до 47 (относительно нативных "без DLSS"). DLSS 3 в настройке Quality поднимает FPS с 72 до 112, но задержка растёт с 47 до 62.6, т.е. при 112 FPS мы играем с задержкой как при нативных 42 FPS. Да уж, "сравнима", my ass. Только с "нативной" задержкой, а не с задержкой при DLSS 2, которая ощутимо ниже.¯\_(ツ)_/¯
Как дополнительная нагрузка на GPU может снизить задержку? Что-то не логично.
@@-Victor-_ Я не эксперт в вопросах рендеринга, поэтому ориентируюсь на мнение и тесты других зарекомендовавших себя экспертов (Digital Foundry, например).
Вот тебе мысли для размышления (украдено с реддита, переведено авто-переводом, цитата):
"тот, кто знает, как работает конвейер рендеринга (а для этого все, что вам нужно, - это регулярно смотреть видео Digital Foundry, а именно замечательные технические пояснения от Alex), сразу скажет вам: добавление обработки DLSS в конвейер имеет очень небольшие *квази-статические затраты* , а это означает, что если выгода преимущества использования DLSS (т.е. сокращение обработки всех пикселей, с которых увеличивается масштаб DLSS) не перевешивают эту фиксированную стоимость, очевидно, что добавление DLSS в конвейер увеличивает задержку, поскольку это также снижает частоту кадров в секунду.
В заключение, это очень простая математика:
- когда DLSS улучшает частоту кадров в секунду *по крайней мере на 1%* , это *не приведет к КАКОЙ-либо задержке ввода*
- когда DLSS ВООБЩЕ не улучшают FPS (например, из-за узкого места в процессоре), зачем вообще использовать DLSS?
Другими словами: что хорошего в том, чтобы водить Tesla и экономить много времени на поездке по пересеченной местности, если вам придется простаивать столько же времени, сколько вы сэкономили, заряжая ее? (очевидно, этого больше не происходит, но это была обычная проблема для потенциальных покупателей и часть того, что было описано как "беспокойство по поводу ассортимента"). DLSS тратит меньше времени на вывод нужного кадра на монитор, но если процессор "отстает", он все равно заставляет кадр бездействовать в течение N-х миллисекунд, в этом нет смысла" (конец цитаты).
Поэтому мной и было написано, что: "с увеличением FPS DLSS 2 эту задержку ВНЕЗАПНО уменьшает *в большинстве случаев* ", но не в 100%. НО в большинстве случаев выходит так, что DLSS 2 улучшает частоту кадров в секунду более, чем на 1%, что ведёт к *ожидаемому снижению задержки* .
Оригинал сообщения, если интересно:
"whoever knows how a rendering pipeline works (and for that all you need is to watch Digital Foundry videos regularly, namely the great tech explainers from Alex), will tell you right off the bat: adding DLSS processing to the pipeline has a very small, quasi-static cost, meaning that if the benefit of using DLSS (i.e. the reduction of processing all the pixels from which DLSS upscales to) doesn't outweigh this fixed cost, obviously adding DLSS to the pipeline increases latency, because it also decreases FPS.
It's very simple math in conclusion:
when DLSS improves FPS by at least 1%, then it will not induce in ANY input latency
when DLLS does NOT improve FPS at all (e.g. because of a CPU bottleneck) why use DLSS in the first place?
In other words: what good is it to drive a Tesla and shave off a lot of time on a cross-country trip,, if you're gonna have to idle the same amount of time you saved charging it up? (this no longer happens obviously, but was a common issue for prospective buyers, and part of what was described as "range anxiety"). DLSS spends less time getting you the desired frame to the monitor, but if the CPU "behind" it is forcing the frame to sit idle for Nth milliseconds anyway, there's no point"
Обзор наканале мой компьютер = шляпа! Обзор на канале этот компьютер = пушка! Очевидно что зелёные превратили фпс просто в цифру = Безалкогольные фпс Хуанга от которых мало эффекта)))
@@-Victor-_ DLSS2 даёт дополнительную нагрузку, да, но видеокарта существенно разгружается за счёт того, что отрисовка происходит на уменьшенном разрешении, а потом с помощью DLSS производится масштабирование кадра до нужного. А вот добитие новыми кадрами существенно увеличивает задержки.
@@АнтониониАнтон хомячки скушают, будь уверен) это их аргумент в спорах, ах да, еще лучами будут хвастаться)
Если бы была нормальная шина в 512 у 4090, к которой мы привыкли в предыдущих топах и банками памяти по 2 гига, что сейчас самые распространённые, то мы бы получили 32 гига видеопамяти с 16 банками памяти, по 4 с каждой из 4-ёх сторон чипа. Просто эти черти явно не хотят докладывать объёма памяти. Пропускная возможность памяти сильно влияет на ФПС играх.
Маркетологи решили продать нам прирост в видеопамяти и её пропускной способности в 2 или 3 этапа, а не сразу, через уменьшение шины доступа к оной
Ммммммммммм нет тогда бы Вега от amd на 2048шиной выдавала бы 144fps 8k ультра.
@@emperorgalaxy4495 Шины это дорожки к чипу и ток со стороны матерной платы + дорожки в самом проце. Все эти шины требую питания... Это был бы очень горячий процессор ) В 100% такой проц не мог бы появится на АМ4, из-за ограничений сокета.
@@MrYatagan почитай о веге там шина 2048.
@@emperorgalaxy4495 Окэ
Я как владелец не хилого обогревателя 3080 смотрю в сторону следующего поколения не по уровню производительности...а по снижению тепловыделения))
а тебе градусы нужны или фпс? странный ты какой то
@@SPR1G- весь системник в пропеллерах, приходится мониторить температуры...а оно мне надо?), Андервольтинг не сильно помогает...где 300вт жрет где 370..., а тут новый техпроцесс.. при больших мощностях потребление, а соответственно тепловыделение меньше....
Дождись до ртх 5000🤩
@@flylimit6142 скручивай Пурлимит на 70% и вуаля карта жрет 185ват и все жизнь у тебя наладится
о, я тоже так смотрю. и все время еще мониторю потребление энергии новых карт
За 45к - новую 3080 урвал и думаю, что это топ за свои деньги))
За такие деньги топ, но что предлагает сам вендер за 45к? Одну вертушку с маленьким радиатором?
@@Евгений-и3ф1ъ Gigabyte gaming oc, не вулкан конечно но и на том спасибо.
Где купил ?
дорого я 3090 за 32к урвал
@@АлександрШмелёв-г8х не ну это магия уже)
Спасибо за скорость и качество подачи инфы!
Ахахаха, да уж, свежачёк, уже половина инфы не актуальна)))
сентябрь 2024года самая дешевая RTX 4090 в ДНС начинается от 219,999р те кто купил за 139.000р счастливчики)
Рад вас видеть
Отличный выпуск, самый информативный на рутюбе, спасибо!!!🔥🔥🔥🔥🔥
Говно есть не надоело?
Изучи пожалуйста тему. Сам Бэбидж написал порядка 30 программ для своей машины. Ада написала одну программу, которая к слову содержала ошибки, так как она до конца и не разобралась с тем как она работает.
К слову, встречаются такие кто говорит что Ада создала машину Бэбиджа)), например так в Википедии написано ))). Первые программы для своей машины Бэбидж писал когда Аде Ловлейс ещё 7 лет не было.
@@Slovnoslon феминизм шагает по планете, скоро революцию напишут не В.И Ленин а Крупская сделала .
@@syborg957 Хаха))) а Эйнштейн разве не женщиной был))
@@Slovnoslon чёрный транс азиат с каре и с механическим протезом работающий на дизеле
@@cobalt2723 стоп стоп, на БИОдизеле)))
Т.Е. с дллс3 в 60 кадров отзыв у игры будет в как 30 фпс , кто забыл как это , включите ограничения кадров до 30. Советую эксперимент проводить рядом с ведёрком или пакетиком 😁
Именно так: отклик игры будет все так же по процессорному реальному fps
Абсолютно верно. Маркетологи опять разводят лохов цифрами в верхнем углу экрана. Картинка в играх идёт рывками, если мышкой подвигать, зато 200+ fps.
У моей старушки rx 470 шина 256 бит, а у 4080 только 192... Компенсировать "недостаток" обычных физических контактов задирая частоту, это значит увеличивать нагрев и, следовательно, износ памяти. При этом увеличили кэш второго уровня в 15 раз! Никогда не поверю, что такое увеличение внутренней безумно дорогой памяти процессора обходится в производстве дешевле, чем добавление 64-х контактов кристаллу памяти. Таким образом получается, что производители осознанно, то есть намеренно программируют систему на быстрый износ.
У RX 6500XT вообще 64 бит шина и 4 линии PCI-E, но она почему-то быстрее RX 570 в 1,5 раза! Может лучше было дать RX 6500XT например 128 бит память, 8 линий PCI-E, и не очень высокочастотную DDR6 на 12 Ггц? Но тогда бы она смогла конкурировать с RTX 3050 как минимум! А ну да у RX 6500XT только 4Гб памяти!
Ты прав и не прав одновременно, да в чипе памяти контакт копеечный, но между чипом памяти и чипом гпу эти контакты надо разводить по слоям,экранировать, один кв^2 м текстолита с шиной 128 бит стоит 1000 долларов, а то же текстолит с шиной 256 бит уже три тысячи долларов, а с шиной 384 бита уже 5ть тысяч, а с шиной 64 бита 20(!) Баксов, по этому видя условную 6400 или 1630 на 64 бита , ты должен понимать логику этого решения, почему там 64 бита, а не 128, насчёт дорогой памяти , если изначально будет вложить в память, то цена транзистора не меняется, сегодня технике без разницы что травить куда ядра , lкеш врема раздельного травления и высокой себестоимости прошли, сейчас умеют травить Кристал единой матрицей, один раз создаёшь матрицу и до талого травиш, по этому в итоговой стоимости логичнее не достаток шины компенсировать частотами и кешем банально дешевле, на единицу изделия
Оно и понятно, любой производитель чего-либо со временем все больше и больше делает ставку на быстрый износ и замену продукции, купленной клиентом. Таким образом они повышают свои продажи...
@@clunck16 не делает Нико ставку на быстрый износ, например из свременных карт, которые попроще, 6400, 6500,6600,1630,1650,1660,2060,3050, 3060, они почти бессмертны, у них маленькие кристаллы обладающие большей прочностью, меньше токи, меньше нагрев, и как следствие этого очень высокая надёжность, но они мало кому интересны, ведь производительность карт посредственная, это так было всегда, например на Авито до сих пор много 750 ,730,710 карт, но почти нет 780,770 почему так? Потому что 780 и 770 подохли, отвал, прогар,диградация кристалла, или вот к примеру 260,250 карты на Авито до сих пор в избытке хотя им по 10(!) Лет, а 280 и 270 нету за редким исключением, почему так? Потому что большие кристаллы заведомо работают с перегрузом , но в замен дают своему пользователю максимум, это как турбо двигатели мощьные, компактные,но с очень маленьким ресурсом и люди их все равно покупают, вопрос почему? Потому что они дарят невероятные ощущения от езды , тут также ресурс 90-80-70 карт очень маленький, но они дарят невероятные ощущения от качества графики в играх....
Нагрев это прямая производная от техпроцесса. Частота и разрядность шины памяти уже на 2м и 3м местах.
Уже вижу видосы FX 8350 и 4090 :D
Спасибо! Очень интересно!
Я сам не пробовал (хотя в будущем точно намереваюсь), но уже пошла куча информации о том, что DLSS 3 - рекламный "gimmick" для того, чтобы втюхивать откровенно средненькое по характеристикам железцо по неадекватным ценам. ФПС, показываемый в режиме "генерирования кадров" DLSS 3, НЕ ИМЕЕТ никакого отношения к реальному ощущению играбельности игоря. Его включение при реальном (без любого DLSS) фпс меньшем 60 приходит к такой заметной задержке ввода, что игорь становится тупо неиграбелен. А теперь внимание, вопрос: зачем вообще нужен DLSS, если и без него фпс уже не менее 60? Так что реальная цена 4080 16G должна находиться где-то посередине между реальными ценами скажем 3080Ti и 3090Ti, а недавно отменённая (лол, с чего бы это) 4080 12G - где-то на уровне 3070 - 3080 12G. Единственный претендент на короля графики без "но" это конечно 4090, тупо за счёт очень неплохого роста количества CUDA ядер и частоты, но вы посмотрите на его потребляемую мощь и цену
1:54 Есть слухи, что в пике это все ~670 Вт. По этому ждём реальные тесты под нагрузкой.
Вот реальные тесты от богатенького англичанина! ruclips.net/video/k_7DxxLZkg4/видео.html Правда у него какой-то фпс низкий в этой игре, не понимаю почему он такой низкий! =((
@@Igor-Bond это рофл? 70 фпс в 8к
@@MrShreeek А кто такой Рофл, я его не знаю? А разве это в 8К, я думал что это в 4К, блин надо мне повнимательнее смотреть! =((
А че по поводу этого Nvidia Remix. я не понял? Типо уже должны все выкладывать видосы с подобным опытом в старых играх, но я нигде таких не вижу? Или эта штука еще не вышла?
13:10 Так нравится это сравнение, особенно если обратить внимание на череп с розой на стене... мыло в одной части сцены поменялось на мыло в другой.
Отличное видео, спасибо! Вчера заказал, поставлю к зиону, буду играть во все игры.
Лучший ролик про отличия Nvidia 4090
Куртка под эфир думал успеет выкатить 4000, но походу не получилось договориться с Бутериным и его POS...А так бы норм копала...
Добрый день. Подскажите музыку в начале ролика
Наличие дополнительного фаписа в обход ЦП никак не не уменьшит инпутлага. Даже больше - в отличие от глаз, которые различают до 60 кадров в секунду максимум, наша моторика рук чувствует разницу даже между запросами на отрисовку в 144 герца и 244) А следовательно, комфорт игры достигается за счет именно процессорного запроса.
Хуанг нам как всегда впарил дичь по двухкратному ценнику)
Разница между 60 и 144 фпс чувствуется и глазами
Сейчас бы контрабанду начать называть паралельным импортом)) Кайф))
Могу сказать про видео:" хороша чертовка!"
Дважды посмотрел - шикарное видео
Как 2 раза смотрел, если ролик вышел 2 мин назад?
спидранер
@@mka В данном случае - спидлукер )
выздоравливай
Двадцать четвертое лезвие полирует челюсть.
Интересно, как это с помощью "искусственного интеллекта" можно сформировать промежуточный кадр из всего лишь двух соседних без предистории кадров, в чем и была фишка DLSS2, и чем это отличается от обычного семплинга?
Посмотрим, сколько на этих картах будет жить память) касательно линка - жаль, что убрали. Понятно, что две карты соединяли единицы, но, как правило, это делалось не для понтов или игрушек, а для работы. 2 3090ti суммарно дают 48 гигов видеопамяти, что было востребовано в среде профессионалов, ибо 2 3090ti в 2 раза дешевле одной квадры с 48 гигами видеопамяти на борту.
потому что 99% юзеров жалкие, убогие игруны с интеллектом амебы
Да Линк был хороший парень
Лол, 3-е поколение прикалывались над 2-м из за рейтресинга, а 4-то будет прикалыватся над 3-тим. А ты сидишь на встройке от АМД 2019 года, ахах и ждёшь GTA 6 или когда вообще перехочется играть, скорей второе ;)
я так понимаю следующее поколение видеокарт будет " помогать " процессору лопатит программу, а еще через два-три поколения PC-архитектура и вовсе откажется от CPU!!!)))
Сплошные дифирамбы в сторону 4090 и Нвидия, прям таки никаких минусов нет. И даже ниче что там пишут что при тестах текстолит расплавился, слухи слухами конечно, но всё же дыма без огня не бывает.
Ну минус очевидно один-цена...)
Выпуск 🔥!
Hardvare unboxed после тестов пришли к выводу что dlss 3 имеет смысл для высокой герцовки от 240Гц. Так как длсс 3 плохо работает с v-sinc. Если у вас 60гц монитор и вы играете с вертикальной синхронизацией - то больше будет артефактов от длсс 3. И ещё если не ошибаюсь выяснили что с ростом фпс у длсс 3 растёт задержка. Поэтому они рекомендуют как можно сильнее загружать видеокарту (ставить например присет длсс качество) чтобы снизить задержку из-за промежуточных кадров вставленных видеокартой.
да уж взял 4080 по цене 4090 на старте а в магазине на 3 буквы 4090 стоит 235 кило от того же производителя
Отличный обзор!!!! 👍👍👍
Супер инфа. Автор красава!!!!!!!!!
Точно, крысава он! =))
Лучший! Просто всё рассказал. Огромное спасибо!
3.12 - может всё-таки миллионов?
Чип будет меньше греться - это, конечно, хорошо, а вот память - все равно будет сраный кипятильник под 100 градусов...
14:24 а куда пропала сетка между столбами в режиме DLLS? Новым пользователям подарит вав эффект а куда пропали текстуры
Эхх... у людей уже 4К, а я всё ещё на Full HD с GTX-1080.
4к? Смешно, у меня на ртх3060 4к 20 кадров выдает макс, поэтому тоже на фулл хд сижу
@@Romariov 4К звучит как понты, 2К сложно отличить от 4К
@@ЮрийКозин-ю3м Сейчас полноценного 4к гейминга почти ни у кого нет, макс QHD
Лучше бы сделали шину 512, и снизили частоту ядра. Тогда бы ТДП было бы ниже, а производительность не сильно бы уменьшилась.
Один кв м текстолита с разводкой 512 бит стоит 9 тыс долларов, а с разводкой 320 бит 5 тысяч, вот тебе и ответит почему не 512
Remix ничего не делает в реалтайме, он перехватывает модели из игры и выгружает их в редактор, где ты сам уже все настраиваешь, что на видео и показано. И потом соответсвенно надо будет выгрузить все это добро и в игру обратно в виде мода.
Майнеры бы одобрили. Такое ощущение что для них карту хуанг растил.
интересно долго ждать 4090ti ?
Хоспаде как же я долго собирал на 4090 😵💫😵💫😵💫
А вот про то, что в корпус не помещается, что переходник плавится и прочее - не упомянул... А ведь после выпуска RTX 4000 значительная часть тех, кто сидел только на NVidia, стали в сторону Radeon посматривать) (потому как и памяти больше, и баланса, и в корпус помещаются, и не плавятся, и от них видюхи в те же самые консоли и МАКи пихают... Не кажется ли, что удобнее будет брать такой более универсальный вариант? В общем, посмотрим))
Неизвестно чё как там с радеонами а вы уже их вожделеете. А проблема с проводником проблема крайне редкая, что то на уровне пары тысячных процентов от всей партии.
@@CHCH-Au Конструктивный недостаток, сжигающий видяхи - есть, а вот то, что радеоны ставят и в маки, и в консоли (а, значит, поддержка игр и рабочих задач однозначно есть), факт, который очень обнадёживает, отчего к Радеонам больше тянутся... Но Вы правы - пока неизвестно, что да как, райзен 7000 показал себя тоже далеко не идеально
Wow! Чётко, информативно, по существу. Респект и подписка.
Как всегда невероятно круто поданная информация!! Порой за такое хочется донатить! Проблема в том что кроме лайка и комента пока нечем. Ключевое слово ПОКА...
Из видео я понял главное - со своей 2070 Super на 3 винта есть смысл переходить на 4080 16GB, т.к. в ближайшее время есть планы добавить 2К моник а старый оставить как вспомогательный.
У меня 2к 165 герц, тоже хочу 3070 на 4080 поменять, это будет просто идеально.
Для 2070 super разрешение 2К - как два пальца об асфальт. Но, это не главное, просто покупать новую серию ЛЮБЫХ видеокарт раньше, чем через год после релиза крайне неразумно, не в смысле цены (хотя и это тоже), а потому, что обязательно полезут косяки и дай бог, чтобы за год их все вывили и исправили. Но, если сильно хочется, то...
@@leonideesee видеокарту менять каждых полтора года? Мда
@@umkanik727 насчёт 2070 Super и 2к она не вытаскивает на ультрах. Я в Control играю на Full HD при максимальных настройках и карточка в 98% загружена (естественно со всеми rei tracing), в 2к нужно уже снижать настройки.
Про покупку в начале и через год с одной стороны согласен, но если как с 2000 серией я так и сделал и очень выгодно взял, а вот с 3000 случился бум майнинга и карт не достать.
Щас 4000 серия и если на Тайване начнётся замес, то и 4000ную серию будет не достать. Там вообще ничего не достать будет. Но это теории и предположения. На практике же я сейчас ближайшие пол года точно её брать не буду, а может и весь год. Тут уже с Тайванем как повезёт, если чё 3000 серии навалом и она щас очень дешеветь стала.
Мне ещё корпус сменить надо и доукомплектовать его и 2к моник взять. Окончательно понять что 2070 не тащит во всю и тогда уже брать 4080, либо уже если и брать, то 4090, т.к. там производительность в 2 раза выше, а разница в цене не космическая, так если брать, может тупо докинуть, но получить 50% прирост производительности.
Ещё за этот год станет понятно, есть ли скрытый инпутлаг в играх или нет на 4000 серии.
@@Gabriel_Music айфоны каждый год меняют и ниче.
Видеокарты с пол киловаттом потребляемой мощности, гигантскими токами, огромными и быстрыми перепадами температур, с большими перекосами коффициента теплового расширения компонентов огромной ценой, очень низкой надежностью и маленьким сроком наработки на отказ в связи с отвалами чипов или прогаров vrm по моему столкнулись с какой то утопической инженерной идеей производить карты для прохождения пары игр ... А полом она сгорит и можно покупать другую. Типа как движек у драгстера, служит всего пару гоночных заездов ... Мне такое ... овно не нуно, которое не может и трех лет отработать в режиме 24/7. Разве нельзя поменять концепцию например больше чипов, но более холодных и более надежных ?
Смотри к примеру на 3060/6600/2060 они почти бессмертны, у них маленькие не обрезанные чипы, у меня 64 шт 2060 24/7 уже работает три года ,и не одна не померла, и это не майниг , а vr клуб, так что есть такие карты, вы просто их не замечали это 2060 и 3060, а также 6600
@@ctas8464 О вот это спасибо ,ине знал что такие есть еще.
Почему все так облизывают этот DLSS? Да, я соглашусь, это топ для видеокарт уровня 2060 - 3060, но на кой чёрт, отдавать за видеокарту 2000$, чтобы в итоге просто получить шакальную картинку, за-то в 8к. Логика просто покинула чат
- Как тебя зовут, девочка, Рая?
- Нееет!! АДА !!!
Спасибо за видео бро
Приветствую благодарю за разбор новостей, но мог бы ты протестить и прокомментировать тесты в сравнениях? Было очень интересно послушать грамотную речь без похабщины и шуток за 300....
Теперь осталось найти миллиард на видюшку и комплектующие для неё в предверии Третьей мировой "))
Подскажите, у меня Ryzen 3600, RTX 2070 Super, B450 Tomahawk
Хочу проапгрейдить для игр, с чего начать? и стоит ли вообще?
Не стоит. Вашего конфига должно хватать для 1080р гейминга.
Amd вот это для народа, а intel и nvidia это чистый отьем бабла у народа😮😮😮
Благодарим )
Круто, спасибо!
В общем, зелёные цены хрен скинут, пока на полках не появятся новинки от красных. Сам только -только обновился на 6700хт и r5 5600х, моник 1440р. Но очень интересно, какими будут 7700хт и 7800хт и, главное, сколько они будут стоить.
И спасибо за понятные объяснения технологий от зелёных. Смотрел презентацию Хуанга в прямом эфире и хорошо, если половину понял того, о чём он рассказывал))
Процы от АМД будут бесполезны щас 5000 серии хватает куда больше то?
А стоимость будет большой если взять средние цены на материнские платы в днс (зато блять процов нет у них) то 30к на мать,15к на ddr5 и проц от 35-42к итог:80-92к за три комплектующих...
@@emperorgalaxy4495 С топ видюхой узким горлышком уже может оказаться процессор)
@@emperorgalaxy4495, смотря какая будет видеокарта. Для 4090 в 1440р уже мало 5800X3D. С 7000 линейкой процессоров АМД, конечно, жидко обделались. Продажи в мире мизерные)
@@mrnobody1454 топы почти не кто не покупает даже в США.
@@emperorgalaxy4495 Не соглашусь, в бум майнинга скупали все)
Раньше была шина 512 бит и тысячные тоже были. Почему сейчас не так?
Более быстрая память, частично компенсирует более узкую память, плюс придумали кэш пихать, что тоже помогает, а вот увеличение шины сильно удорожает плату и увеличивает жор, вот
Тот случай когда по сей день хватает 1070ти. Но эволюция поражает
спасибо, что в конце успокоил. А то я купил недавно RTX 3060 и чë то испугался когда вышла RTX 4090
DLSS3 как я понял поднимает частоту кадра в трое от натива, но кадры как бы это сказать не настоящие))) то есть она их придумывает... поворот ни туда. раньше багов и так хватало, теперь будет баговать вообще все что движется
Всё таки удивительный прирост по сравнению с прошлым поколением, но куда девать всю эту мощь? Нереальные монстры
Теперь игроделам оптимизировать код будет не обязательно ))
В герцы
Не то слово! У флагмана она тупо избыточная, ему и длсс "на фиг не нужон"... Подождем какую-нибудь 4050 )
Купи Моник 4к и сразу всё поймёшь) в паучке на ультрах на 3080 разогнанной даже 60 кадров не увидишь. И таких игр много
@@burakow1 согласен
а я пока так и останусь сидеть на своем ПеКа старичке, rtx 3070 и i7 10700k 😅 пускай трудится)) благо на фулл хд, 144гц монике. все летает на ультрах ))
Бла бла бла столько пиздежа,хорошо хоть перемотка есть.Тут от силы за 2-3 минуты все можно было рассказать.Фу блин !
кароче сделали херню на скорую руку с точностью обработки "дорисовки" кадра при помощи ИИ который при неправильном раскладе может сдорово поднасрать, а в остальном молодцы RTX4-х тысячной линейки будет как я понимаю последней версией этого направления тобиш 5ти тысячника небудет и переработанная технология на 2х нм -хотя погадите скорее всего будет заключающая серия перед выходом на нано-сантиметры они неупустят впарить от дохлого осла уши при учете того что уже есть проектные разработки по нс технологии ориентированные на 26-28 год.
Я жду когда появятся 4060 и 4070, цена на 3070, 3080 на Авито ещё сильнее упадёт. Сейчас 3060 12Gb -в идеальном состоянии продают за 23т.р. много предложений в СП-б, 3070 за 28-31т.р., 3080 за 38-43т.р.. Думаю, через несколько месяцев, 3070 будет стоить не более 22т.р.. а 3080 не более 30т.р..
Ждём) 2к моник на 34дюйма 165Гц у меня уже есть =))
Я тоже жду RTX 4060 когда появится, благо моя GTX 660 Ti пока что всё тянет, на средних настойках!
Просто шикарный разбор
😃😃😃🤣🤣🤣🤣🤣🤣🤣
После того, как NVIDIA анонсировала линейку RTX 4000, в сети раскритиковали компанию за выпуск RTX 4070 под видом RTX 4080 с 12 ГБ памяти. На этот «маркетинговый ход» в том числе обращали внимание специалисты Digital Foundry. Важно отметить, что видеокарты различаются не только объёмом памяти, но и производительностью.
В официальном заявлении говорится, что GeForce RTX 4080 - «фантастическая видеокарта, но названа неправильно», а наличие двух GeForce RTX 4080 в серии сбивает с толку. Поэтому компания «нажимает кнопку отмены». В то же время Nvidia подтверждает, что GeForce RTX 4080 с 16 ГБ памяти выйдет, как и планировалось, 16 ноября. И компания ожидает такой же тёплый прием, как и в случае старшей GeForce RTX 4090.
Официально дальнейшая судьба GeForce RTX 4080 12 ГБ неизвестна, но вполне вероятно, что эта модель просто будет переименована в RTX 4070. К слову, первоначально инсайдеры предсказывали, что графический процессор AD104 будет использоваться как раз-таки в RTX 4070 и прогнозируемые тогда характеристики совпадали с теми, что мы увидели в RTX 4080 12 ГБ. Теперь непонятно, насколько задержится анонс RTX 4070, вероятно, производители уже подготовили модели RTX 4080 12 ГБ, теперь придётся переделывать.
Странные эти зелёные. 3060ти отличается от 3060 всем, по сути это 3070, но нет, никого это не ипёт. А тут они вдруг всполошились. Навскидку, не было ни одной серии видях, где бы не было путаницы вносимой маркетолухами
@@uclipucli вопросов небыло если б они представили 3 карты 4090, 4080супер16 Гб и 4080 12гб былобы понятно что 4080 супер не тоже самое что просто 4080 , а тут нихераа не понятно чем отличается две(!) 4080 памятью? Или чем-то ещё, это не указано в названии
Топ :)
Сидя на 1060 мечтал о 3060,говоря себе,что это предел мечтаний.
Имея 3060 смотрю на 4080 с чувством что я опять безнадежно отстал.
Сижу с 1060 и думаю о 3070ti или 4070. Через полгода видно будет, что лучше
На Авито в СПБ сейчас можно взять 3060 12gb в идеальном состоянии за 23т.р., много предложений, но я лучше подожду выхода 4060 и 4070, но не для того, чтобы купить, на них цена будет высоковата, а думаю тогда цены на 3000-ые ещё сильнее упадут, а там уже можно выбирать.
Это маркетинг. Зеленые постоянно делают так, чтобы владельцы прошлых поколений чувствовали себя ущемлеными. Плати по новой так сказать.
Ну 3060 это не плохая карта. Можно во все игры поиграть.
@@mik901go именно поэтому Хуанг не будет выпускать 4060/4070 ещё очень долго, 3060/3070 завалена на складах и у майнеров
0:37 Видно что они отличаются!Кто найдет отличия тому 5 баллов!
6:42 Не удивительно.
Раньше я пошёл, 2 карточку в SLI взял и нафиг мне ваше новое поколение упало?))) А теперь, всё. Хочешь не хочешь иди и покупай.
Прекрасное видео, Михаил!!!!!))))))))))
Ынвидиуа взяла и спустила ~3.5 кратный прирост транзисторов на RT и тензорные ядра, которые составляют около 40% от всего конвейера. Эти 40% можно было пустить на обычные куда и получить ещё более пзд(хороший) прирост производительности в нативе и в рабочих задачах. Маркетологи паразиты на теле микроэлектроники
Ну это скорее всего не интересно.
@@emperorgalaxy4495 Интересно то, что выгодно. Для потребителей и производителей выгодно это противоположные сценарии
Потому что всем нужны лучики, а фпс и так высокий
@@MrYatagan На сколько бы ядра не были бы мощные они не смогут обогнать специализированные rt блоки пол узкий круг задач. Тем более чего тебе не хватает 16к ядер у 4090 против 10к у 3090ti
6к добавили совсем не давно 2к ядер это было дохуище.
@@leonideesee Мне с таким уроном по фпс лучи не нужны. Уже отложил денег на 7600/7600ХТ на осень 2023
считаю если есть 4K 60fps этого достаточно но я бы взял эту карту для блендера так как я в нем работаею. Это топ для 3D
Сколько тебе лет?
@@Обкурок судя по орфографии-6
@@Обкурок 10 лет занимаюсь 3D моделированием на борту MSI X Trio 3090 .Умничать не надо Я лишь высказал Для чего бы она мне нужна была
@@inquisitive5418 Судя по нику умом не блещешь. Ну как передача слов и грамматических форм на письме прошёл?
Вот один клоун стример как раз купил 4090 и сейчас гоняет в Control в 4к. А типа в 3090 которая до этого была он не мог гонять…
Так а чё там по грубой производительности, без этого вашего генератора FPS через апскейл ?
Он же DLSS - позволяет "быстрее" рисовать кадр, только за счёт уменьшения этого самого кадра
А новая версия теперь будет не только мылить кадры - так ещё и свои виртуальные подсовывать, добавляя эффект холодца в управлении
Мыльный холодец - блюдо на любителя, лол
Даёшь сравнение лоб в лоб - киберпанк ультра без DLSS, и RT вкл/выкл по отдельности, 3090 vs 4090
Так-то я задумался уже, о какой-нибудь 4080 себе на новый год
13:20 чётко видно, что нас наепали❗Настройки графики разные.
Мне лично 4000 вообще не заходят, я даже 3060 купить не успел, а их уже с прилавков снимать хотят. Что-жь, жду 4060...
2:20 12-вольтные? Может оговорка и 12-пиновые?
Куда "эмигрировал" ?)
Смотрю этот видос и понимаю что нет смысла бежать за новинками как стадо лучше закрою кредит!
Спасибо
видео замедленное или просто такая манера речи? при скорости 1.5 как будто нормально разговаривает, а на обычной замедленно😅
Обзор наканале мой компьютер = шляпа! Обзор на канале этот компьютер = пушка! Очевидно что зелёные превратили фпс просто в цифру = Безалкогольные фпс Хуанга от которых мало эффекта)))
Топчик