А что не верить? Точно так же говорили про 40-кую линейку rtx. Типа всё говно, всё дорого, что 3070 ti, 3080 итак на всё хватает, нет смысла переплачивать. А пошли реальные тесты, энергоэффективность и производительность 40-й линейки зарешали всё, и народ стал массово пересаживаться на 4070 и выше. Так же и с 50-й линейкой будет. Сначала богатеньких отоварят на 5090, потом и средний класс подтянется, начнет менять свои 3070 и 4070 на 5070- 5080. Прогресс будет, не волнуйтесь. Не такой быстрый как было с 1999-го по 2001, когда первые дже форсы на 32Мб перевернули рынок видеокарт, но будет.
@@almac1968 4070 менять на 5070? Это ты сейчас серьезно? Я знаю массу людей которые до сих пор сидят на 1660s и даже на 580 рыксах и ничего менять не собираются. Даже по стиму самая популярная 3060 (если не ошибаюсь). И да, я не знаю ни одного кто бы менял 3ххх линейку на 4ххх
@@Ivanhalif ну а че в неё не верить? 5090 уже по одним только прямым характеристикам на 40% мощнее, чем 4090, + ещё сколько-то производительности (как мне кажется ~10%) навалится за счёт новой архитектуры.
09:24 не путайте формат архива и сжимающий алгоритм. zip использует алгоритм deflate по умолчанию. Его же может использовать 7zip. rar использует перверсию LZ77, коей является и LZ4. Еще раз: deflate, snappy и LZ4 - это алгоритмы сжатия (они используются не только в файлах, но, например, при передаче данных в интернете, сжатии оперативки и тд), а rar, 7z, zip - это форматы файлов, которые используют эти (или другие) алгоритмы.
Чуть уточню, вернее сказать, что rar, 7z, zip - это формат контейнера для хранения компрессии. А в нем может использоваться разные алгоритмы, в т.ч. более одного внутри одного контейнера (хотя это конечно редкая специфика).
"Умеет разархивировать экзотические форматы" - это не форматы, а алгоритмы, которые используются в неэкзотических форматах. Они даже используются при браузеринге для сжатия траффика, а не только когда запускаешь win rar))
9:27 Вы перепутали форматы и алгоритмы. На скриншоте перечислены алгоритмы компрессии, а не форматы. Это разные вещи. Например тот же 7z - это формат, поддерживающий несколько алгоритмов компрессии.
@@ExcellentMoments На скрине и правда скорее всего ошибка. Потому что там перечисляются не форматы (хотя написано что форматы), а поддерживаемые алгоритмы. Для поддержки формата, GPU не нужен.
@@ВаськинЯрослав ох уж эти свидетели натива... в 4К на длсс Качестве картинка наоборот лучше в половине случаев, а в остальной половине как минимум не хуже.
@@TheGloriousRussian Ну почему же! Зайдите в статистику Стим и вы очень удивитесь тому железу, которое использует среднестатистический геймер. 90% всех игроков это как раз средние сборки до 50к. Получается по вашей логике 90% всех игроков и в том числе подписчиков этого канала - Бомжи?!
@@Lucky-ge6ulпо меркам тру геймеров - да. Вот по моим например. В смысле, не те бомжи, которые на улицах пьяные и грязные, это именно в разрезе денег, которые человек выделяет на игры. Такой геймерский бич со слабым ультрабуком для игр, может владеть условным БМВ пятой серии в максималке. Но играет как бич 😂
@@Lucky-ge6ul мне как-то говорили, что игровых ноутбуков не существует, потому что они не тянут хотя бы 2к на ультрах. И вряд ли комп за 50к можно будет назвать игровой сборкой
@@FormJuneсборка для игр = игровая сборка. Тот же ноут с дискреткой нужен либо для специфических задач, что малая часть, либо для игр. Так почему он не игровой?
Хотелось бы, чтобы Intel всё же продолжили выпускать дискретные видеокарты. Сейчас с удовольствием пользуюсь Ark A770 на 16Гб - прекрасно работает. Если следующее поколение действительно получит обещанный буст производительности или хотя бы близкое к нему ускорение - это будет просто БЛЕСК и они ещё подвинут зажравшихся зелёных и вечно их догоняющих красных.
ну по моему для владельцев 4070+ карт нет смысла апдейтиться, если не работать с нейронками. 5080 слишком дорого будет, а 5070 судя по всему будет такая же как и 4070 +-. единственное что может повлиять - эксклюзивность длсс 4.0 на 50xx линейки. но и тут думать надо - стоит ли отдавать 1500-3к$ за не настолько уж и существенный прирост в 30%
Смотря что будет в ноябре, но не думаю, что 5080 даже в днс будет дороже 150к. На мегамаркет под кеш дофига 4070 подрезали в прошлом году, до сих пор барыги не отошли от 60% кеша. Может, с новыми будет так же.
@@Rimmon42 смысла кеша в мегамаркете не понимаю, потому что там наценка эквивалентна кешу. а так - надеюсь конечно что не будет дороже 150к, но если стоковая идёт за 1500~ по прогнозам, то стоит ещё % 20 минимум накидывать. так и получается, что будет в районе 170
@@ivan2go1 всё там есть и дешевле, на Авито не просто так выбрасывают пачки запакованных видюх с чеками ситика на 3г по достаточно низким ценам. На пеппере в осенние периоды только так разбирают за пару минут.
предположу, что все упирается в процесс рендера. когда честным путем, там идет сложная цепочка рендера. хз как в других приложениях, но в играх (и игровом рендере, соответственно), в очень упрощенной схеме это выглядит так: на игровой сцене располагаются объекты, CPU готовит инструкции по отрисовке (какой объект на сцене, какой у него меш, какие материалы. группирует объекты по общим признакам, чтобы GPU отрисовал это разом,и т.д., и т.п.) для GPU, пакует их и отправляет. GPU уже занимается растеризацией этих данных, которые переводятся из услового 3D пространства в 2D пространство, чтобы предоставить финальное изображение на устройстве вывода информации (в нашем случае, монитор). я очень сократил всю цепочку. но это можно поискать и более детально. в случае с "нечестными" методами, проще взять готовую картинку, и с простыми (по сравнению с честным методом) математическими операциями выдать новое изображение. это может быть как дорисовка промежуточных кадров, так и способ растягивания изображения (когда изображение рендерится в низком разрешении, а потом, при растягивании, ваша GPU достраивает недостающие пикселы на основе соседних значений). если прям совсем кратко: честно работать - много работать (лучшее качество). "не честно работать" - это работа с уже готовым изображением + математика (качество хуже, но дешевле и быстрее) надеюсь,сумел объяснить.
>> Как это работает? Берем картинку А, картинку Б, вычисляем между ними разницу и получаем некоторый усредненный дополнительный кадр. Не надо загружать и обсчитывать текстуры, освещение и т.д. Вычислением разницы между кадрами уже занимаются видеокодеки и это реализовано в железе "отдельно" от основных вычислительных мощностей.
Каждый "реальный" новый кадр рисуется с нуля, заново полностью обсчитывая всё освещение и геометрию. Улучшить или достроить по подобию всегда проще, чем делать всё с нуля.
@@hillandobillando1588 это называется маркетинговыми уловками которые обусловленны исключительно желанием заработать... Ну те у кого сейчас например как у меня (4070) не собираются переходить на 50-е поколение будь там даже DLSS 4.0.2-5 и искуственным интелектом коженной куртки))))))
@@hillandobillando1588 потому что давно пора идти на краные карты. цены адекватные, а судя даже по обновлениям которые в ролике - они что то делают. Зелень глобально выпускает что то с новыми картами, когда как красные драйверами дают жизнь всем. Вообще особенно смешно, кто купил 2080ти\супер, им ради генерации и длсс3.0 мало толку переходить на 4060 какую нибудь. А вот fsr 3.0 отлично помогает в тех играх, где dlss 2.0 как коровья лепешка.
Возможно словосочетание "полупрофессиональные карты" действительно имеют смысл для определения чего то среднего между геймерами и инженерами которые на картах проводят сложные исчисления. Например как я кто вроде и не любитель, потому что делаю графику для кино, но и не сказать что профи, который реально чём-то значимым занимается. Насчёт топовых процов 9950x3d как минимум мне точно непомешает больше кеша во всех ядрах, потому что х3д кеш по идее должен сильно помогать в симуляциях но на деле просчёт на 7950х3д упирается в остальные ядра (симуляции ткани и воды всё ещё корректно обрабатываются лишь на процессорах, так что топовые райзены для этих задач очень полезны, в отличии от тредрипперов, которые из-за медленной шины и меньшей частоты оч сильно тормозят все процессы)
На фоне слухов о жоре, цене и характеристиках 5080 (а там после НГ и рубль вероятнее всего как обычно падать будет) в какой-то момент прямо всерьёз задумался о приобретении 4080 Супер, которая от 5080 по ТТХ практически не отстаёт, но там меньше жор и существенно ниже цена. Да и до длинных январских каникул было бы приятно заиметь получше видяху. Потом вспомнил, что из требовательного новья хайповать не на что, а в бэклоге куча всего на что и моей видяхи за глаза, и расслабился. Выйдет 5080 столь плохой как выглядит по сливам, тогда подожду 5080 супер, она должна быть приятнее по аналогии 4080 супер - 4080. Мне до ГТА 6 новая видяха всё равно особо не горит.
начиная с 30й серии все хх90 это перемаркированный TITAN, гениальный ход куртки продавать ПРО карты ещё и геймерам с ЧСВ. ПРО сегмент это не только ИИ, но и например работа с 3Д, все кто работает в блендер, зи-брашь, октан, анрил, CUDA и RTX стандарт индустрии, так что приставка ПРО вполне оправдана.
@@prunky12те же 80, просто в литографии им не повезло. Это же как с ЦПУ, есть i3/5/7/9 или r3/5/7/9, абсолютно одинаковые по архитектуре, просто часть ЦП отключена на аппаратном уровне, так как во время тестов, после самого процесса сборки чипа в единое целое, выясняется, что какой-то чип плохо работают, где-то достаточно хорошо и тд. Вот из этого по сути и рождаются 3-5-7-9, также и с ГПУ, на одной пластине сотня чипов, кто-то лучше, кто-то хуже - разделили от 4050 до 4090 их и все.
А я жду рефабов АМД - дешево и сердито! Для игр норм. Тысяч на 5 дешевле оригинала и ещё на 2-3 "аналога" эНННвидиа. Взял 6700 на 10гб за 19к и жду подобного предложения.
Видел Honor magicpad 2 на стенде в магазине, мне очень понравился дизайн и дисплей, а да еще звук объемный да и по такой цене вне конкуренции на мой взгляд
У меня только сейчас возник вопрос: а циферка после DLSS реальна? Я имею в виду там реально так много/такие мощные изменений что меняется перед точкой, а не после?
Так в новом приложении от nVidia streaming по средством Nvidia Shield или неофициального moonlight убрали, зачем оно теперь нужно? Я только для этого использовал. Там стальное шляпа полная. Зачем менять настройки в игре на те которые не предусмотрел разработчик, можно себе впечатление о игре испортить. Драйвера вручную вполне можно установить, да я автоматически никогда их и не ставил. Вообще не люблю что-то обновлять если работает. Если что-то не устраивает например в новой игре можно попробовать и обновить.
@@ivan2go1 ага на авито тебе дадут гарантию, или на алике 😂тем более что я могу карточки напрямую покупать, с небольшой переплатой от цены в штатах, но я предпочитаю потрогать перед покупкой
Не, ну оно всё круто конечно, только один вопрос. Где игры-то? Опять выпустят очередной патч для киберпанка? Где GTA6, ведьмак 4, Крайзис 4, пару гонок прикольных. Ну или самое невероятное, сделать возможность прикрутить тесселяцию, заапскейлить текстуры и прочие улучшалки для старых игр. Искуственный интеллект и нейросети или где? А пока, заказал очередной комплект термопрокладок да переобслужу старушку Strix 3090 Ti, видимо, нам с ней ещё года два жить.
У меня 4090 должна 450 жрать, ни разу за 2 года не видел такого жора, даже в самых тяжелых играх. Видел разок близкое к 400, но игра была тяжелая и я выкрутил всё, чтобы напрячь карту. Так что, 5090 в худшем случае будет под 500 жрать. А так 300-400 максимум. На 4090 я вижу стандартно от 150 до 300.
@@aleksfreeman3627 ты не забывай, что в видеокартах ртх есть ещё блоки нейронок, которые в играх не задействуются. Реальное максимальное потребление можно только в софте увидеть, но никак не в играх.
Начиная с 4000 серии чем больше слышу про видеокарты Nvidia, тем больше хочу пересесть на AMD. Сейчас на 2070 Super и проблем в общем-то не испытываю, потому как играть некогда ;( да и в новые игры не то что играть скучно, там даже на геймплей смотришь и зеваешь - "это уже было". Так что DOS-квесты, тем более что DOSBox Staging последнее время прямо расцвёл.
Расскажи-ка дядя как 5080 на 24 может приблизиться к 40890 если ее характеристики идентичны 5080 16? Если только ей не напихают больше куда ведь как мы знаем на одном и том же чипе от бОльшего количества памяти ни тепло ни холодно. Привет тестом викона 3070 с 16 гб в своё время вместо 8
Ну если играешь не во требовательные игрушки, то обнимай старушку по крепче. 8))) А так это уже дно. Некоторые втройки от АМД работают наравне даже 570-580. З.Ы, Сам являюсь владельцем 580. Правда она у меня на кухне майнит, а играю я на RTX 3090.
Да не опоздание с видюхами главная причина провала (хотя оно конечно крайне значимо, но все же), а дибилизм руковоителей, которые живут в каком-то своем мирке и не способны осознать, что именно их действия являются причиной основной части провалов, а не нерадивые исполнители, внешние обстоятельства и так далее. Ну вот ведь не спад майнинг-бума заставил синих пытаться продавать свои сырые поделки по цене радеонов и джифорсов, верно ведь? А это абсолютный нонсенс -- пытаться ворваться на сформированный рынок без конкурентного преимущества и не демпингуя. Что-то одно в любом случае должно быть. Приводить цены к средним по рынку можно когда ты уже занял долю этого самого рынка и твой бизнес обрел стабильность. Когда синие ставят ценник на свою видюху как на сопоставимую нвидию, то я ее не покупаю ее не только потому, что жалко денег (за очевидно проигрывающий в моменте продукт из-за сырости и отсутствия адаптации сторонних решений), но в первую очередь из-за того, что предполагаю что на таких условиях ее не купит примерно ни кто другой, а это значит что сторонние решения адаптироватсья под используемые тремя калеками видюхи не станут, а сам интел не будет вкладывать усилия в продукт, который не только не приносит денег в моменте, но и не имеет пользовательской базы, а значит и дрова так и останутся сырыми... Замкнутый круг, который виден любому, кто задумается над вопросом дольше чем на 30 секунд. Но не руководителям интела(( Если бы хватило мозгов инвестировать в занятие рынка, продавая свои решения процентов эдак на 30% дешевле чем просят конкуретны за аналогичную производительность, то сейчас занимали бы значительную долю рынка не смотря ни на какой спад майнинга. Но нет, лучше списать инвестицыи на разработку в убытки, чем поработать в минус и потом долгие годы снимать сливки... Вместо этого лучше сольем проект и на очередном пике прибыльности гпу опять бросимся догонять снова ушедший поезд. Гении.
Я может быть идиот, но объясните мне (скрин с 1:20): а как 5080 на 16гб может быть равна по шине и пропускной способности 5080 на 24гб? будет прикол с компоновкой чипов памяти, как в старые добрые, или это у источника огрехи в описании товара?
Новый интерфейс pci-e интересно насколько даст прирост. По сути 8 линий наверное хватило бы для 5070 уже даже, а может и для 5080 простой. Платы с двумя х8 pci-e 5.0 получается смогут тянуть без потерь 2 карточки, чисто для рабочих задач неплохой бонус, не нужна серверная плата, можно мощные и достаточно дешёвые рабочие станции собирать
У меня 11900 (читай тот же 11700 только чуть большим кэшем) не может раскрыть даже 7800хт в 2к. Про 4090 я уж молчу, но она в паре с 7800хзд работает и он её тоже не везде может нагрузить на полную.
с 1070 смысл был переходить на 3070. с 2070 на 4070. Лучше 4070 TI Super. Будет ли смысл переходить с 4070 на 5070? Пока не знаю, но учитывая цену - не уверен.
Я переходил как раз с 1070 на 3070 и скажу так, не было смысла))) А вот 3070 на 4090 я заменил очень удачно (сбермегамаркет расщедрился что-то в то время и насыпал за покупку бонусов прям очень круто. У меня 4090 вышла в 100к, а 7800хт вышла в 16к вообще.
В утечке число 21760 куда ядер это для полного небракованного чипа, такой пойдет только в топовую квадро. В 5090 в чипе "отключат" 10% ядер и будет в районе 18к ядер.
Судя по комментам на Guru на самых свежих дровах GeForce 565.90 не устанавливается кастомная цифровая интенсивность - она всё время сама сбрасывается на 50%. Так что для тех кому эта настройка важна, совет обновляться на самое свежее, это так себе совет.
Илья, на демонстрации уже устаревшая версия... Вышла новая бета версия Nvidia App, уже с более расширенным функционалом, очень даже интересная 😉😜 так что советую обновить, понравится
Для игр 5090 это абсолютный оверкилл - потому что тупо нет новых игр с хорошей графикой, я уж про геймплей не говорю. Для нейросеток 5090 это непомерно дорого и мало памяти. Почасовая аренда сервака с несколькоми а100 обойдется в разы дешевле, а толку больше.
Планшет Honor magicpad 2 топовый, звук, производительность и стилус, очень удобно. Наконец-то Honor начали выпускать флагманы среди планшетов и для дизайнеров
Да и работать будешь только на электричество благодаря такой карте как 5090, 4080 тоже хорошо потребляет, посидел за компом две недели каждый день по чу чуть, а счёт за электричество пришёл в три раза больше обычного, Лично моё мнение, такими картами лучше всего пользоваться по необходимости, если нужны в какой то момент хорошие мощности, например в 3D графике в определённых случаях, ну или для тех кто располагает финансами и не задумывается о счетах за коммуналку. Надеюсь в какой то момент производитель задумается о этой проблеме, лично я считаю что это проблема,
в худшем случае на несколько тысяч больше будешь платить за электричество, но учитывая цену 4090 и потенциальную цену 5090, это копейки для человека который сможет ее себе позволить.
@@sektor_glaza187 Так больше чем за отопление, за электричество платил 3500 а стало 11 500, а за отопление 8 000. и по моему это проблемные карточки, если сидеть за ней целый день гонять в игрушки, по мне так я расматриваю 4060ti на 16гб, она не прожорливая и тянет всё, ну пускай гдето не в 4К если что касается игр и работать нормально она позволяет, а 4080 можно уделить на финальные работы так гдето с часик, два, так ещё нормально это я уже говорю про 3D графику
@@MrMedk Ну есть люди которые копят деньги и не обязательно что такие карточки покупают только состоятельные люди, а когда покупают сталкиваются вот с такой проблемой, я лично столкнулся, выше я написал как лично я нашёл выход из такого положения, как её можно более рационально использовать, может мой опыт кому ни будь пригодится
@@sergey5138 Ну это уже проблема людей которым на жизнь не хватает, а они покупают карточку за несколько сотен тысяч.. С тем же успехом можно говорить, что айфон говно потому что память кончается если снимать видео в 4к все подряд покупая айфон за 250к и при этом живя в доме без центральной канализации..
новая апка нвидиа ещё нуждается в тестах. например для нормальной работы оверлея в вин11 или апдейтнутых вин10, надо добавить 2 подприложения в исключения по настройкам високой производительности в меню дисплея, и я пару дней тыкался сам пока не нашёл эту рекомендацию на реддите.
Отличный момент, что бы амуде заняли именно потребительский рынок со средне бюджетниками, а то Хуанг уже совсем ахуангел. Смотрю последние пару лет на всю эту кутерьму с длсс и все больше прихожу к выводу, что 7800XT нынче самый оптимальный (и даже больше) вариант для 90% пользователей за более менее адекватную цену
@pro Hi-Tech Илья вы не правы. Профессионал и любитель могут быть одного уровня. Разница в том что профессионал на этом зарабатывает, а любителю пофиг на деньги. Вот так.
да, история с 3д кэшем получилась очень удачно как минимум для игр. посмотрим насколько они надежны со временем. разу уж интеловские алдерлейки отваливаться стали
Играть-то можно чуть менее, чем на любом "гамне", а вот для мало-мальски серьёзного ИИ нужны CUDA и память 12Gb+. Поэтому очень грустно становится от ценника в 2к печатаных.
Детальный разбор кофейной гущи.
Лучше и не скажешь
Народ ещё верит в 50-ю линейку , это хайпа ради. Новость ради новости.
А что не верить? Точно так же говорили про 40-кую линейку rtx. Типа всё говно, всё дорого, что 3070 ti, 3080 итак на всё хватает, нет смысла переплачивать. А пошли реальные тесты, энергоэффективность и производительность 40-й линейки зарешали всё, и народ стал массово пересаживаться на 4070 и выше. Так же и с 50-й линейкой будет. Сначала богатеньких отоварят на 5090, потом и средний класс подтянется, начнет менять свои 3070 и 4070 на 5070- 5080. Прогресс будет, не волнуйтесь. Не такой быстрый как было с 1999-го по 2001, когда первые дже форсы на 32Мб перевернули рынок видеокарт, но будет.
@@almac1968 4070 менять на 5070? Это ты сейчас серьезно? Я знаю массу людей которые до сих пор сидят на 1660s и даже на 580 рыксах и ничего менять не собираются. Даже по стиму самая популярная 3060 (если не ошибаюсь). И да, я не знаю ни одного кто бы менял 3ххх линейку на 4ххх
@@Ivanhalif ну а че в неё не верить? 5090 уже по одним только прямым характеристикам на 40% мощнее, чем 4090, + ещё сколько-то производительности (как мне кажется ~10%) навалится за счёт новой архитектуры.
09:24 не путайте формат архива и сжимающий алгоритм. zip использует алгоритм deflate по умолчанию. Его же может использовать 7zip. rar использует перверсию LZ77, коей является и LZ4. Еще раз: deflate, snappy и LZ4 - это алгоритмы сжатия (они используются не только в файлах, но, например, при передаче данных в интернете, сжатии оперативки и тд), а rar, 7z, zip - это форматы файлов, которые используют эти (или другие) алгоритмы.
Как кодек видео и его расширение(формат)
Чуть уточню, вернее сказать, что rar, 7z, zip - это формат контейнера для хранения компрессии. А в нем может использоваться разные алгоритмы, в т.ч. более одного внутри одного контейнера (хотя это конечно редкая специфика).
"Умеет разархивировать экзотические форматы" - это не форматы, а алгоритмы, которые используются в неэкзотических форматах.
Они даже используются при браузеринге для сжатия траффика, а не только когда запускаешь win rar))
Да этим чего только не сжимается и текстуры и архиваторы работают по ним и ещё куеву хучу всего.
9:27 Вы перепутали форматы и алгоритмы. На скриншоте перечислены алгоритмы компрессии, а не форматы. Это разные вещи. Например тот же 7z - это формат, поддерживающий несколько алгоритмов компрессии.
Lz4 поддерживается форком 7zipZS, мб завезут потом и GPU
Это когда непрофессионал берется обсуждать профессиональные темы.
Ну так-то на самом скрине ошибка, там перечисляются форматы.
@@ExcellentMoments На скрине и правда скорее всего ошибка. Потому что там перечисляются не форматы (хотя написано что форматы), а поддерживаемые алгоритмы. Для поддержки формата, GPU не нужен.
Купить 5090 и играть с дллс и генерацией ультимативный гейминг от хуанга😂
Если картинка не отличима или близка к нативу то какая разница?
@@Fantomas24ARM Разница в том, что картинка как раз таки отличается в нативе и в постобработке.
@@ВаськинЯрослав ох уж эти свидетели натива... в 4К на длсс Качестве картинка наоборот лучше в половине случаев, а в остальной половине как минимум не хуже.
Инженеры нвидиа. Наш чип полное г. Хуанг. Делаем dlss 4.0. 😎
Тестил? @@Fantomas24ARM
Ждём пятую серию чтобы купить четвертую)
Такая короткая рекламная вставка, что не успел перемотать 🤣
была правда вставка про honor, но она вроде даже как интересная была и не сильно выделялась в видео
Мне нравится фраза "Сбалансированный вариант для геймеров" - Процессор по цене всей игровой сборки!
Ну если только по цене для игровой сборки бомжа
@@TheGloriousRussian Ну почему же! Зайдите в статистику Стим и вы очень удивитесь тому железу, которое использует среднестатистический геймер. 90% всех игроков это как раз средние сборки до 50к. Получается по вашей логике 90% всех игроков и в том числе подписчиков этого канала - Бомжи?!
@@Lucky-ge6ulпо меркам тру геймеров - да. Вот по моим например. В смысле, не те бомжи, которые на улицах пьяные и грязные, это именно в разрезе денег, которые человек выделяет на игры. Такой геймерский бич со слабым ультрабуком для игр, может владеть условным БМВ пятой серии в максималке. Но играет как бич 😂
@@Lucky-ge6ul мне как-то говорили, что игровых ноутбуков не существует, потому что они не тянут хотя бы 2к на ультрах. И вряд ли комп за 50к можно будет назвать игровой сборкой
@@FormJuneсборка для игр = игровая сборка. Тот же ноут с дискреткой нужен либо для специфических задач, что малая часть, либо для игр. Так почему он не игровой?
При упоминании студенческих лет надо было фоточку приложить патлатую :)
А если он раньше всю молодость брился наголо?
Интересный и информативный ролик вышел. Давно такого от Ильи не было. Спасибо
Илья, спасибо за наконец-то нормальное видео) интересно, без "воды"
Хотелось бы, чтобы Intel всё же продолжили выпускать дискретные видеокарты. Сейчас с удовольствием пользуюсь Ark A770 на 16Гб - прекрасно работает. Если следующее поколение действительно получит обещанный буст производительности или хотя бы близкое к нему ускорение - это будет просто БЛЕСК и они ещё подвинут зажравшихся зелёных и вечно их догоняющих красных.
Илья молодца, спс за обзор:))++
Спасибо за отлиный выпуск новостей!
Какое же замечательное качество картинки в роликах! Просто перфекто! Спасибо за кайф для глаз) Как минимум)
Толку то большинство уже смотрят в 720p
@@ZhelezniyDrovosek В 480p на второй скорости☝😌
Как всегда полезное видео, спасибо за качественный контент.
ну по моему для владельцев 4070+ карт нет смысла апдейтиться, если не работать с нейронками. 5080 слишком дорого будет, а 5070 судя по всему будет такая же как и 4070 +-.
единственное что может повлиять - эксклюзивность длсс 4.0 на 50xx линейки. но и тут думать надо - стоит ли отдавать 1500-3к$ за не настолько уж и существенный прирост в 30%
Смотря что будет в ноябре, но не думаю, что 5080 даже в днс будет дороже 150к. На мегамаркет под кеш дофига 4070 подрезали в прошлом году, до сих пор барыги не отошли от 60% кеша. Может, с новыми будет так же.
@@Rimmon42 смысла кеша в мегамаркете не понимаю, потому что там наценка эквивалентна кешу.
а так - надеюсь конечно что не будет дороже 150к, но если стоковая идёт за 1500~ по прогнозам, то стоит ещё % 20 минимум накидывать. так и получается, что будет в районе 170
@@ivan2go1 всё там есть и дешевле, на Авито не просто так выбрасывают пачки запакованных видюх с чеками ситика на 3г по достаточно низким ценам. На пеппере в осенние периоды только так разбирают за пару минут.
@@ivan2go1 там не всегда так, я вот взял 7800хт за 16к, если учитывать кэшбэк. Но это надо искать и чекать кучу продавцов.
Вообще не вижу смысла в этом DLSS. Лучше снизить немного настройки в 4К, чем включать это мыло. Первым делом выключаю эту опцию в играх.
Почему нарисовать дополнительные кадры между реальными менее затратно, быстрее и проще, чем еще один реальный кадр? Как это работает?
предположу, что все упирается в процесс рендера. когда честным путем, там идет сложная цепочка рендера. хз как в других приложениях, но в играх (и игровом рендере, соответственно), в очень упрощенной схеме это выглядит так: на игровой сцене располагаются объекты, CPU готовит инструкции по отрисовке (какой объект на сцене, какой у него меш, какие материалы. группирует объекты по общим признакам, чтобы GPU отрисовал это разом,и т.д., и т.п.) для GPU, пакует их и отправляет. GPU уже занимается растеризацией этих данных, которые переводятся из услового 3D пространства в 2D пространство, чтобы предоставить финальное изображение на устройстве вывода информации (в нашем случае, монитор). я очень сократил всю цепочку. но это можно поискать и более детально.
в случае с "нечестными" методами, проще взять готовую картинку, и с простыми (по сравнению с честным методом) математическими операциями выдать новое изображение. это может быть как дорисовка промежуточных кадров, так и способ растягивания изображения (когда изображение рендерится в низком разрешении, а потом, при растягивании, ваша GPU достраивает недостающие пикселы на основе соседних значений).
если прям совсем кратко:
честно работать - много работать (лучшее качество).
"не честно работать" - это работа с уже готовым изображением + математика (качество хуже, но дешевле и быстрее)
надеюсь,сумел объяснить.
>> Как это работает?
Берем картинку А, картинку Б, вычисляем между ними разницу и получаем некоторый усредненный дополнительный кадр.
Не надо загружать и обсчитывать текстуры, освещение и т.д. Вычислением разницы между кадрами уже занимаются видеокодеки и это реализовано в железе "отдельно" от основных вычислительных мощностей.
Если кратко: не жрет дополнительные ресурсы компа = кадры даром. За настоящие кадры придется платить и достаточно дорого, включая проц и оперу.
Каждый "реальный" новый кадр рисуется с нуля, заново полностью обсчитывая всё освещение и геометрию. Улучшить или достроить по подобию всегда проще, чем делать всё с нуля.
Драйвера Нвидии это бич последних пары лет, стараюсь обновлять их не чаще 1 раза в полгода.
там где в названии присутствует "профессиональный", ценник минимум х2 сходу..
18:36 будет как подогрев сидений в бмв - по подписке включаться 😂
Но хочу уточнить!Я бы купил бы RTX 4090 после выхода 5000 серий но они производство остановили🥺А значит будут только RTX4090 бу или с завышеным ценам!
А DLSS 4.0 не будет на 40-й оенейки поскольку для этого нужно будет обязательно купить 50-е поколение еврейский ✡️ принцып работает всегда )))
также как и генератор кадров на 30 серии не работает аппаратно, хотя физически это возможно, просто произошел эффект энвидия)
@@hillandobillando1588 это называется маркетинговыми уловками которые обусловленны исключительно желанием заработать... Ну те у кого сейчас например как у меня (4070) не собираются переходить на 50-е поколение будь там даже DLSS 4.0.2-5 и искуственным интелектом коженной куртки))))))
@@hillandobillando1588 потому что давно пора идти на краные карты. цены адекватные, а судя даже по обновлениям которые в ролике - они что то делают. Зелень глобально выпускает что то с новыми картами, когда как красные драйверами дают жизнь всем. Вообще особенно смешно, кто купил 2080ти\супер, им ради генерации и длсс3.0 мало толку переходить на 4060 какую нибудь. А вот fsr 3.0 отлично помогает в тех играх, где dlss 2.0 как коровья лепешка.
@@KommunistDelux я тоже того же мнения. но мне пришлось взять 3080, поскольку RX того же уровня производительности на авито в моем городе не было
Deflate -- это ZIP и есть.
Возможно словосочетание "полупрофессиональные карты" действительно имеют смысл для определения чего то среднего между геймерами и инженерами которые на картах проводят сложные исчисления. Например как я кто вроде и не любитель, потому что делаю графику для кино, но и не сказать что профи, который реально чём-то значимым занимается. Насчёт топовых процов 9950x3d как минимум мне точно непомешает больше кеша во всех ядрах, потому что х3д кеш по идее должен сильно помогать в симуляциях но на деле просчёт на 7950х3д упирается в остальные ядра (симуляции ткани и воды всё ещё корректно обрабатываются лишь на процессорах, так что топовые райзены для этих задач очень полезны, в отличии от тредрипперов, которые из-за медленной шины и меньшей частоты оч сильно тормозят все процессы)
не понял, а когда это успели РТ в рдр2 прикрутить то???
На фоне слухов о жоре, цене и характеристиках 5080 (а там после НГ и рубль вероятнее всего как обычно падать будет) в какой-то момент прямо всерьёз задумался о приобретении 4080 Супер, которая от 5080 по ТТХ практически не отстаёт, но там меньше жор и существенно ниже цена. Да и до длинных январских каникул было бы приятно заиметь получше видяху. Потом вспомнил, что из требовательного новья хайповать не на что, а в бэклоге куча всего на что и моей видяхи за глаза, и расслабился. Выйдет 5080 столь плохой как выглядит по сливам, тогда подожду 5080 супер, она должна быть приятнее по аналогии 4080 супер - 4080. Мне до ГТА 6 новая видяха всё равно особо не горит.
какая разница, если весь смак в новом длсс будет, если оно не будет поддерживаться в 40xx. А если будет, то и нафиг новую покупать)
Когда ГТА выйдет на ПК уже может быть 6000 и 7000 серии инвидиа, тогда уже 7600 порвёт эту 4080.
а сейчас какая видеокарта?
@@Rimmon42 В конце 25-го года только на консолях она будет?
@@-MohammedElSyed- я тебе даже больше скажу, есть шанс, что её перенесут на 26 год и далеко не малый шанс, что она будет только на плейстейшине.
начиная с 30й серии все хх90 это перемаркированный TITAN, гениальный ход куртки продавать ПРО карты ещё и геймерам с ЧСВ. ПРО сегмент это не только ИИ, но и например работа с 3Д, все кто работает в блендер, зи-брашь, октан, анрил, CUDA и RTX стандарт индустрии, так что приставка ПРО вполне оправдана.
у меня есть титан v топовый до сих пор может 3д графику и т.д быстро обработать...а карте 6 лет причем!!!
не титан всегда на 100 чипах делался а 90 на 102 делают так что 90 это бывшие 80
@@Ostireon а 80 это тогда что?
@@prunky12те же 80, просто в литографии им не повезло. Это же как с ЦПУ, есть i3/5/7/9 или r3/5/7/9, абсолютно одинаковые по архитектуре, просто часть ЦП отключена на аппаратном уровне, так как во время тестов, после самого процесса сборки чипа в единое целое, выясняется, что какой-то чип плохо работают, где-то достаточно хорошо и тд. Вот из этого по сути и рождаются 3-5-7-9, также и с ГПУ, на одной пластине сотня чипов, кто-то лучше, кто-то хуже - разделили от 4050 до 4090 их и все.
Zbrush не использует видеокарту...
Ура новый ролик
А я жду рефабов АМД - дешево и сердито! Для игр норм. Тысяч на 5 дешевле оригинала и ещё на 2-3 "аналога" эНННвидиа. Взял 6700 на 10гб за 19к и жду подобного предложения.
Выпуск Ильи без политики! Вот это праздник!)
ахахах
И много у него политики?Или здесь замечаем,а там не замечаем?
@@antiliberas Успокойся. Это полушутка
Если 5080 будет ~4090, то и стоить будет также. Куртка же сказал что теперь продаёт не тиры карт, а "единицы призводительности"
Нельзя будет такую 5080 в Китай продать, по этому будет чуть слабее 4090.
Ждём 7060 за 2к баксов.
@@AlexCoachman
Не куртка а Кожаный
у меня джедай 2 заработал только на старых дровах, на всех новых и рекомендуемых постоянные вылеты rtx 3080
подскажите староверу майнинга, а что она даст в майнинге то, на eth и rvn итд ? :))
Видел Honor magicpad 2 на стенде в магазине, мне очень понравился дизайн и дисплей, а да еще звук объемный да и по такой цене вне конкуренции на мой взгляд
Жаль за карты от синих, еслибы все получилось, то мейби и зеленые с красными подешевели бы.
А кокой БП понадобится для 5090?
У меня только сейчас возник вопрос: а циферка после DLSS реальна? Я имею в виду там реально так много/такие мощные изменений что меняется перед точкой, а не после?
2:49 Что там вместо процессора? Почему охлаждение воздушкой?
И опять ни слова про FP64 на новых картах NVIDIA. Какая производительность при вычислениях на двойной точности на куда-ядрах Blackwell?
А что там с эти новаторским и крутым сжатием текстур в играх, с минимальными потерями в качестве?
Привет я купил бу gtx 1080 8gb, рад до невозможия)
19:29 это хорошо. вот когда я пошел работать летом после первого курса, то это были деньги на то, чтобы оплатить многолетние долги за квартплату
Помимо того, что Хуан - жёлтый.
Само название Nvidia образовано от латинского invidia - зависть, один из семи смертных грехов. Символично. :)
Пора уже переименовать в жадность.
А как по латински похоть? Мне кажется для нвидии это более подходящее имя. Нвидию все хотят.
Мимо 4070тисуп.
@@Za_Tovarischa_Putina
Luxuria
Так в новом приложении от nVidia streaming по средством Nvidia Shield или неофициального moonlight убрали, зачем оно теперь нужно? Я только для этого использовал. Там стальное шляпа полная. Зачем менять настройки в игре на те которые не предусмотрел разработчик, можно себе впечатление о игре испортить. Драйвера вручную вполне можно установить, да я автоматически никогда их и не ставил. Вообще не люблю что-то обновлять если работает. Если что-то не устраивает например в новой игре можно попробовать и обновить.
Зеленый еще является антиподом красного) Что вписывается в извечное противостояние Нвидиа против АМД(АТИ).
4:23 плюс наша розница 50% 😂
попробуй покупать не в днс :)
@@ivan2go1 спасибо, но гарантия это гарантия
@@Amdur88 гарантия не только в днс есть))
@@ivan2go1 ага на авито тебе дадут гарантию, или на алике 😂тем более что я могу карточки напрямую покупать, с небольшой переплатой от цены в штатах, но я предпочитаю потрогать перед покупкой
@@Amdur88нет никаких гарантий, что ты завтра проснешься
Не, ну оно всё круто конечно, только один вопрос. Где игры-то? Опять выпустят очередной патч для киберпанка? Где GTA6, ведьмак 4, Крайзис 4, пару гонок прикольных. Ну или самое невероятное, сделать возможность прикрутить тесселяцию, заапскейлить текстуры и прочие улучшалки для старых игр. Искуственный интеллект и нейросети или где? А пока, заказал очередной комплект термопрокладок да переобслужу старушку Strix 3090 Ti, видимо, нам с ней ещё года два жить.
Лучше 4070 Ti SUPER
Герои 3 всегда будут с нами, не важно 3090 или 10990 ;)
А разьёмы питания будут булькать горячей пластмассой? ))))
Из керамики небось сделают.
Жёлтый и красный - это уже эмендемс какой-то 😃
Это же Фаундерс Эдишен будет 600w а какая нибудь Rtx 5090 asus power gaming pro $ OC будет 800w потреблять
Не будет, коннекторы у блоков рассчитаны под определенную нагрузку. Тебе же чётко сказали, что 2 по 16 не будет.
У меня 4090 должна 450 жрать, ни разу за 2 года не видел такого жора, даже в самых тяжелых играх. Видел разок близкое к 400, но игра была тяжелая и я выкрутил всё, чтобы напрячь карту. Так что, 5090 в худшем случае будет под 500 жрать. А так 300-400 максимум. На 4090 я вижу стандартно от 150 до 300.
@@aleksfreeman3627 так ты 4к поставя и увидишь как она в теплопакет долбится
@@aleksfreeman3627 ты не забывай, что в видеокартах ртх есть ещё блоки нейронок, которые в играх не задействуются. Реальное максимальное потребление можно только в софте увидеть, но никак не в играх.
@@Rimmon42 Хуанг сказал ?
Начиная с 4000 серии чем больше слышу про видеокарты Nvidia, тем больше хочу пересесть на AMD. Сейчас на 2070 Super и проблем в общем-то не испытываю, потому как играть некогда ;( да и в новые игры не то что играть скучно, там даже на геймплей смотришь и зеваешь - "это уже было". Так что DOS-квесты, тем более что DOSBox Staging последнее время прямо расцвёл.
Как же хорошо у меня ребёнок засыпает под ваши видео)))
Был логотип что-то между жёлтым и зелёным - это же явно салатовый оттенок 😂
ребята, спасибо)
Расскажи-ка дядя как 5080 на 24 может приблизиться к 40890 если ее характеристики идентичны 5080 16? Если только ей не напихают больше куда ведь как мы знаем на одном и том же чипе от бОльшего количества памяти ни тепло ни холодно. Привет тестом викона 3070 с 16 гб в своё время вместо 8
Кто сказал, что она приблизится?
@@ИзяШмуль послушай внимательнее анализ в начале видео
стоит ли обновлять radeon rx 480))
Ну если играешь не во требовательные игрушки, то обнимай старушку по крепче. 8))) А так это уже дно. Некоторые втройки от АМД работают наравне даже 570-580. З.Ы, Сам являюсь владельцем 580. Правда она у меня на кухне майнит, а играю я на RTX 3090.
Да не опоздание с видюхами главная причина провала (хотя оно конечно крайне значимо, но все же), а дибилизм руковоителей, которые живут в каком-то своем мирке и не способны осознать, что именно их действия являются причиной основной части провалов, а не нерадивые исполнители, внешние обстоятельства и так далее. Ну вот ведь не спад майнинг-бума заставил синих пытаться продавать свои сырые поделки по цене радеонов и джифорсов, верно ведь? А это абсолютный нонсенс -- пытаться ворваться на сформированный рынок без конкурентного преимущества и не демпингуя. Что-то одно в любом случае должно быть. Приводить цены к средним по рынку можно когда ты уже занял долю этого самого рынка и твой бизнес обрел стабильность. Когда синие ставят ценник на свою видюху как на сопоставимую нвидию, то я ее не покупаю ее не только потому, что жалко денег (за очевидно проигрывающий в моменте продукт из-за сырости и отсутствия адаптации сторонних решений), но в первую очередь из-за того, что предполагаю что на таких условиях ее не купит примерно ни кто другой, а это значит что сторонние решения адаптироватсья под используемые тремя калеками видюхи не станут, а сам интел не будет вкладывать усилия в продукт, который не только не приносит денег в моменте, но и не имеет пользовательской базы, а значит и дрова так и останутся сырыми... Замкнутый круг, который виден любому, кто задумается над вопросом дольше чем на 30 секунд. Но не руководителям интела(( Если бы хватило мозгов инвестировать в занятие рынка, продавая свои решения процентов эдак на 30% дешевле чем просят конкуретны за аналогичную производительность, то сейчас занимали бы значительную долю рынка не смотря ни на какой спад майнинга. Но нет, лучше списать инвестицыи на разработку в убытки, чем поработать в минус и потом долгие годы снимать сливки... Вместо этого лучше сольем проект и на очередном пике прибыльности гпу опять бросимся догонять снова ушедший поезд. Гении.
А ещё говорят богатые они потому богаты что умные!
Ан нет не всё так просто)
Я может быть идиот, но объясните мне (скрин с 1:20): а как 5080 на 16гб может быть равна по шине и пропускной способности 5080 на 24гб? будет прикол с компоновкой чипов памяти, как в старые добрые, или это у источника огрехи в описании товара?
Когда- то процы считались кипятильниками. Теперь -видео - кофеварки))
Новый интерфейс pci-e интересно насколько даст прирост. По сути 8 линий наверное хватило бы для 5070 уже даже, а может и для 5080 простой. Платы с двумя х8 pci-e 5.0 получается смогут тянуть без потерь 2 карточки, чисто для рабочих задач неплохой бонус, не нужна серверная плата, можно мощные и достаточно дешёвые рабочие станции собирать
Опять пытаются 5070 выдать за 5080, ничему их прошлый раз не научил😂
5090 будет стоить не дороже пирожка в школьной столовой?
Чип 11700 раскроет карту 4090 или надо менять систему в целом?
Зависит от разрешения, в 4к скорее всего да
свидетели раскрытия
А если и не раскроет на 15%, то что с того? ФПС и так за глаза будет, в прямом смысле слова!
У меня 11900 (читай тот же 11700 только чуть большим кэшем) не может раскрыть даже 7800хт в 2к. Про 4090 я уж молчу, но она в паре с 7800хзд работает и он её тоже не везде может нагрузить на полную.
@@blablabla4136 4к разрешение, 200% масштабирование и вперед смотреть на загрузку
Когда обзор лунар лейка от бороды?
какой нужен будет бп для 5070ti условной?
Киловаттный.
@@Alexey_Kuterev 850 предположительно будет мало?
@@user-mg1utr1p маловато, особенно с учётом деградации бп за пару лет.
простите за грубость, но это полезное и интересное видео, которое без борадача
По сухой производительности похоже сильного прироста в 5080 не будет, судя по количеству блоков. А по технологиям и не знаешь чего ждать.
уточните, о каких лучах он говорит?
RTX+Path Tracing
Ура, снова течки!
с 1070 смысл был переходить на 3070. с 2070 на 4070. Лучше 4070 TI Super. Будет ли смысл переходить с 4070 на 5070? Пока не знаю, но учитывая цену - не уверен.
Я переходил как раз с 1070 на 3070 и скажу так, не было смысла))) А вот 3070 на 4090 я заменил очень удачно (сбермегамаркет расщедрился что-то в то время и насыпал за покупку бонусов прям очень круто. У меня 4090 вышла в 100к, а 7800хт вышла в 16к вообще.
@@blablabla4136 я перешел с 2070 на 4070 TI super. прирост почти в 2 раза. А насчет 1070 и 3070 - какой у тебя был прирост? 50? хотя бы дало?
В утечке число 21760 куда ядер это для полного небракованного чипа, такой пойдет только в топовую квадро. В 5090 в чипе "отключат" 10% ядер и будет в районе 18к ядер.
Мне, как обладателю SFF PC куда я смог вкорячить 4090 (впритык), очень интересно каких размеров будет 5090))
Попробовал я генерацию от красных, по цифрам прирост хороший, но по ощущениям стало хуже, еще и мыло😅
Судя по комментам на Guru на самых свежих дровах GeForce 565.90 не устанавливается кастомная цифровая интенсивность - она всё время сама сбрасывается на 50%. Так что для тех кому эта настройка важна, совет обновляться на самое свежее, это так себе совет.
Илья, на демонстрации уже устаревшая версия... Вышла новая бета версия Nvidia App, уже с более расширенным функционалом, очень даже интересная 😉😜 так что советую обновить, понравится
Зачем им делать 5090 если запрещают в том же Китае 4090?
ждем новую волну сгоревших коннекторов на 5090
Почему 7800x3d так подорожали? 😢
Для игр 5090 это абсолютный оверкилл - потому что тупо нет новых игр с хорошей графикой, я уж про геймплей не говорю.
Для нейросеток 5090 это непомерно дорого и мало памяти. Почасовая аренда сервака с несколькоми а100 обойдется в разы дешевле, а толку больше.
Планшет Honor magicpad 2 топовый, звук, производительность и стилус, очень удобно. Наконец-то Honor начали выпускать флагманы среди планшетов и для дизайнеров
а почему сразу по 96 мб прямого кэша нельзя сделать без всяких 3д ?
Потому что не уместится?
Найс обзор без карты делать 👍🏻
Да и работать будешь только на электричество благодаря такой карте как 5090, 4080 тоже хорошо потребляет, посидел за компом две недели каждый день по чу чуть, а счёт за электричество пришёл в три раза больше обычного, Лично моё мнение, такими картами лучше всего пользоваться по необходимости, если нужны в какой то момент хорошие мощности, например в 3D графике в определённых случаях, ну или для тех кто располагает финансами и не задумывается о счетах за коммуналку.
Надеюсь в какой то момент производитель задумается о этой проблеме, лично я считаю что это проблема,
За отопление вот тут сумма огромная.
в худшем случае на несколько тысяч больше будешь платить за электричество, но учитывая цену 4090 и потенциальную цену 5090, это копейки для человека который сможет ее себе позволить.
@@sektor_glaza187 Так больше чем за отопление, за электричество платил 3500 а стало 11 500, а за отопление 8 000. и по моему это проблемные карточки, если сидеть за ней целый день гонять в игрушки, по мне так я расматриваю 4060ti на 16гб, она не прожорливая и тянет всё, ну пускай гдето не в 4К если что касается игр и работать нормально она позволяет, а 4080 можно уделить на финальные работы так гдето с часик, два, так ещё нормально это я уже говорю про 3D графику
@@MrMedk Ну есть люди которые копят деньги и не обязательно что такие карточки покупают только состоятельные люди, а когда покупают сталкиваются вот с такой проблемой, я лично столкнулся, выше я написал как лично я нашёл выход из такого положения, как её можно более рационально использовать, может мой опыт кому ни будь пригодится
@@sergey5138 Ну это уже проблема людей которым на жизнь не хватает, а они покупают карточку за несколько сотен тысяч..
С тем же успехом можно говорить, что айфон говно потому что память кончается если снимать видео в 4к все подряд покупая айфон за 250к и при этом живя в доме без центральной канализации..
спасибо
слышал слух что 5080 будет стоить дешевле чем 4080 на старте,тут говорят дороже ,как же долго ждать январь.
Вот только только обновил драйвера, полгода не обновлял, а тут видос :/
Вы уже определитесь: директ или дайрект :-) В каждом выпуске по-разному произносите. Оба варианта правильные, но всё же.
Еще бы эту древнюю панель управления интегрировали бы в это эпп. Было бы хорошо.
новая апка нвидиа ещё нуждается в тестах. например для нормальной работы оверлея в вин11 или апдейтнутых вин10, надо добавить 2 подприложения в исключения по настройкам високой производительности в меню дисплея, и я пару дней тыкался сам пока не нашёл эту рекомендацию на реддите.
Сколько мяса надо?
Отличный момент, что бы амуде заняли именно потребительский рынок со средне бюджетниками, а то Хуанг уже совсем ахуангел.
Смотрю последние пару лет на всю эту кутерьму с длсс и все больше прихожу к выводу, что 7800XT нынче самый оптимальный (и даже больше) вариант для 90% пользователей за более менее адекватную цену
@pro Hi-Tech Илья вы не правы. Профессионал и любитель могут быть одного уровня. Разница в том что профессионал на этом зарабатывает, а любителю пофиг на деньги. Вот так.
осталось понять что нового в app по сранвнеию с экспириенс 🤔
была у меня 4090 отапливала зимою при закрытом окне в свои 450W всю комнату а тут до 600W поднимут, пипец печка.
да, история с 3д кэшем получилась очень удачно как минимум для игр. посмотрим насколько они надежны со временем. разу уж интеловские алдерлейки отваливаться стали
Поэтому взял rtx 4070 super, сделал самый минимальный андервольтинг и на пару лет забуду про апгрейды. Буду менять все только на ам6
Играть-то можно чуть менее, чем на любом "гамне", а вот для мало-мальски серьёзного ИИ нужны CUDA и память 12Gb+. Поэтому очень грустно становится от ценника в 2к печатаных.
Что они так прилипли к 16-пиновым коннекторам? Как такой дохляк может в одиночку тянуть 600W не перегорая? Не риторический вопрос.
9:31 Так Deflate и используется в zip. А RAR и LZMA(7z) слишком сложны, требуют дохрена памяти, так что аппаратной поддержки ожидаемо не будет.