По поводу тестов Динозавра на современных задачах. Унылое зрелище будет. Современный софт пишут толи с расчетом, что железо всё стерпит и вытянет. Толи чтобы новую железку продать. ;) Винда, которя на CD помещалась и работала на 100 метрах ОЗУ, сейчас требует столько, будто в её состав входят видео ролики самого высокого разрешения. :) А старый офис. Он точно также на Р4 работал, как и современный на новом железе. Абсолютно с тем же FPS. :) Значит дело тут не в количестве ядер :) П.С. я в таких случаях обычно софт откатывал, на версию пониже. (Это если поумному Downgrade называется?) Тогда всё летать будет. А если наоборот - тупить :)
Сейчас многие игры заведомо оптимизируют под небольшое кол. ядер. Вот сталкер, игра 2007 года, использует два потока, причём второй поток слабо нагружен, так что кора 2 дуба или атлон х2 достаточен. Но именно в сталкере можно сделать хорошую многопоточность и она будет работать. Для этого надо распараллелить расчёт апдейтов объектов, чтобы куча объектов рассчитывалась равномерно по ядрам. Это позволит радиус оффлайна увеличить в несколько раз, допустим до 500 метров или сразу до 1000. Пусть гуляют у нас на сцене, сразу сотни НПС и мутантов, допустим 200-300 НПС и 500 мутантов. ФПС при этом 50-100. А если у нас серверный на 128 ядер/потоков, то можно ещё раз в 10-ть больше. Но современные игры сразу прячут НПС, которые сошли с наблюдаемой сцены, это порождает ощущение очень кривого алайфа, например в FarCry 3, фальшь очень ощущается, может кто-то не видит, но кто-то с пеной у рта доказывает что ФПС 200 против 500 отлично видно ВСЕМ. А я вижу совершено кривой алайф в фаркрае 2, 3, 4, 6. Такое можно избежать если НПС не уходят в оффлайн или не удаляются, и всё это просчитывается даже если ГГ не видит этих НПС или удалился от них за несколько сот метров. Да, потребуется однозначно 6-8 ядер, или больше. Но такие игры реально оправдывают многоядерные процы. Хотя киберпуке же если включить максимальную плотность толпы, будет высокая нагрузка на ядра.
Так по поводу многоядерных консолей даёте не верную информацию. До выхода х ящика и пс 3 была атари ягуар. С кучей сопроцессоров и тремя интегральными процессорами.
@@stalkes. опять же, 4090 далеко не везде жрет 450, как кричали на каждом углу) Я у себя вижу от 100 до 330(это максимум, что я видел), и 330 это был ведьмак некстген. В Хогварце около 300, Киберпанк около 300, это в 1440р разрешении. Да, возможно в 4к будет больше потребление, но ненамного. У меня раньше 3080, жрала больше, чем 4090) Так что, 1квт за глаза. А следующее поколение, я не думаю, что будет по потребление больше, чем текущее.
В БПшниках: Трансформаторы помощнее искать , Конденсаторы, резисторы поменять. Вопрос Трансформатор с другими Габаритами впаяешь в Габариты То й же Платы управления либо нет? ЧТо бы еще оно и как то закрепилось и не болталось туда сюда. Сейчас Берешь на Киловатт точно не прогадаешь. Через Лет десять берешь на 3 Киловата как Бойлер тоже не прогадал. Нет ну Производители для Коробки на блоках питания Ватті завішают а физически хорошо если на 80% улаживаються. То есть Пишут 1 000 ватт знаешь что 800 ватт есть. Пишут 600 Watts знаешь что 378 Ватта он должен вроде дать и ничего не загорится и конденсаторы не полопаются. То есть КПД у блоков питания все мы знаем что 80% PLus. Вот и брать не 500 Ватт на систему что там явно с Материнкой с 9 НЖМД не 1 SSD а 9 НЖМД. И Лазерник а то и два. А чё на металоломку Нести Лазерник что 60 USD когда то лет 4-6 назад стоил что ли Жалко может на Металоломку здавать. Любой блок питания нельзя никогда впритык надо плюсить 30% минимум от того что нарисовано на коробке.
Уже год занимаюсь разработкой собственного игрового движка на Vulkan, и могу сказать, что в видео достаточно все правдиво. В современных играх есть огромная нагрузка на GPU, поэтому и существует куча разных видов ядер для ускорения разных задач. Я сам лично столкнулся с тем, что современные CPU достаточно мощные для большинства видов задач, а вот с GPU все посложнее.. памяти мало (одна 4к текстура весит 33мб после декомпрессии, и да, есть алгоритмы для сжатия текстур прям в VRAM - BC7, например, но декомпрессия тоже занимает время, поэтому нужно выбирать), всю сцену не отрисуешь объектов в сцене невероятно много и в целом детализация в современных играх - очень высокая, что тоже дает высокую нагрузку. Просчеты освещения вообще отдельная тема - мне не хватит пальцев рук, чтоб пересчитать все методы оптимизации, так как это самый сложный вид вычислений в играх (в 3д играх, если использует "физически корректный рендеринг"). Даже в плане разработки и драйверов видеокарты - за последние 6 лет они стали ОЧЕНЬ сложные и использовать тот же Vulkan - достаточно тяжелая задача. Посмотрим что будет дальше ;)
Юзать UE5, Unity, Godot... Неееееее. Лучше буду скакать на граблях, 10 лет изобретая свой корч-самокат из натыренных кусков металолома, бутылок, болгарки и суперклея, а потом забью на эту бесполезную дичь. Погнали! хдыщь-хдыщ-хдыщь-хдыщь-хдыщь. Не, я бы понял еслиб ты тюнил что-то низкоуровневое под мобильную платформу. Но пилить свой двиг на десктоп, когда их как собак нерезаных и бесплатных и неочень. Лел...
@@ivangrozny9853 Ну так-то ничего, просто сизифов труд. Примерно как новичку сегодня сесть за ассемблер. Я бы ещё понял если двиг для демосцены, ради искусства. А так и в резюме не впишешь, и продукта наверняка не будет. Если цель попасть игродел то это прям инстант фэйл сразу. Сейчас не двухтысячные, и планка выше,и конкурентность, и движки под инди уже есть. Нет смысла топтаться наместе.
@@SV-kp5mw Зачем им также писать? Студия это студия, у них свои соображения, проекты и ресурсы. Возможностей сильно больше как по деньгам так и по доступу к экспертам и рынку. И даже при этом всём таких по пальцам посчитать. Если ты хочешь делать игру тебе надо делать игру. Нет никаких причин не делать этого, и заниматься технологической работой заведомо более низкого качества и сомнительных перспектив. Свободно доступны решения более мощные чем способен сделать энтузиаст в одно лицо.
Английское слово "respect" соответствует русскому слову "уважение" (так пишется и так произносится). Не благодарите. Успехов в изучении русского языка! 👍
Интересно было бы послушать про рост системных требований в играх, например через сколько лет росло количество оперативной памяти, через сколько требовалась удвоенная мощность железа и экстраполировать это на будущее - через сколько лет будет очередной их рост и на сколько
Можно вспомнить типичные компьютеры собираемые в разные годы: 2000: 256Мб памяти 2005: 1Гб памяти 2010: 4Гб памяти 2015: 16Гб памяти Далее могло бы быть: 2020: 64Гб памяти 2025: 256Гб памяти Но что-то сломалось в этой тенденции, и по моим представлениям сборки сейчас по-проще: 2020: 32Гб памяти 2025: 64Гб памяти (спекулятивно) 2030: 128Гб памяти (спекулятивно)
SLI, CrossFire и двухчиповые карты уже проходили. Жрут много, греются соответствующе. И самое главное, непонятно как под них писать (проблема синхронизации). Опять же, ГПУ устроен не так, как ЦПУ. И согласно специфике его задач, он ориентирован на последовательные, с точки зрения высокого уровня, вычисления (кадр за кадром). И повысить его эффективность можно, наращивая потоковые процессоры, которые и являются основной вычислительной единицей ГПУ. А их в одном ГПУ может насчитываться более 10 тысяч.
@@poltargeist6093 путаете, двухчиповые с многолиплетными, где под в гпу много кристалов, и там есть куда расти, потенциал бешеный, но ситуация с гпу сложнее, чем цпу, не получится поделить основной массив с ядрами, и увязать их так, чтобы работали одинаково эффективно, и не дублировали данные, сейчас есть вариант, сделать основной гпу, допустим, с униифцированными ядрами, и отдельные кристалы с ии ядрами, типо матричные ядра, и вские ускорители, вот тогда это было бы эффективно, и дешево, чем один огромный и сложный чип... Но это тольео в будущем, пока амд смогла отделить гпу на кристал с ядрами от контроллеров памяти... Вот
@@DrunkAxxturel у амд уже были видяхи на кристале, их было по 5-6-7-8штук и назывались они R. Забили они болт на это дело и пошли дальше ,хотя видеочип эпл реально бомбический и там тоже матричные кристаллы,но их налево и на право не раздают,а было бы интересно просто нарастить матриц во всю подложку видяхи, например 2кулерной видяхи стоковой и подрубить к ним пси х16 слот,но наверно это требует слишком огромной работы человекочасов ,чтоб оптимизировать всю такую конструкцию и работать не слакая ,и не тупя при обработке кадров на экране. Хотя есть и другой вариант, ведь есть нейронки и роботизированные механизмы, которые трудятся 24/7 и могут обработать такой поток инфы, чтоб выдать желаемый результат.....просто зачем это эпл?) Вы 1 раз купите видяху и на 12лет забудете где магазин,а так бизнес не работает в 21 веке, вы должны ежегодно туда заходить и покупать/покупать/покупать) Поэтому таких видях и нет,но м1 ультра уже есть и выдает прям бодро и энергоэффективность лучше зеленых.
Спасибо дядя Миша за доступное объяснение сложных тем желаю успеха каналу чтобы маркетологи споткнулись об техническую грамотность потребителей Выздоравливай поскорее
как бывший работник геймдева скажу, естькласс игр где скорость почти порпорцинальна количеству потоков, напртмер minecraft, где генерация чанков распараллелена. то что игры имеют проблемы с GPU, памятью и сетью намного раньше чем с процессором понятно, и, там упор на картинку, но не вдаваясь в детали посмотрите сколько потоков в виде разных сервисов запущено на вашем компьютере, да им хватит и 8 ядер, но они занимают ресурс процессора. и есть большой класс задач который ускоряется почти линейно с количество ядер: рендер, компиляция кода, видео и фото редакторы, обучение нейросетей, и пр., так что решайте сами
да и прогресс заметно замедлился по сравнению с нулевыми годами. Например в каком нибудь 2006м году шестилетний комп был безнадежно устаревшим. сейчас 6 летний комп (что то вроде i7 7700k 1080ti)позволяет комфортно играть абсолютно в любые игры
Приветствую, полагаю зависимость производительности от числа ядер будет всегда, но все же главную роль играет наличие современных инструкции, с учетом которых должен быть скомпилирован используемый вами софт. Современные инструкции позволяют в значительной степени экономить вычислительные ресурсы и поэтому старые камни могут значительно дольше выполнять ту же работу (любую сложную инструкцию можно раскидать по более простым, но придется заплатить драгоценными тактами).
Можно только это иногда весьма сложно и муторно. Помню у нас курсовик по ассемблеру был на х32 реализовать арифметику 64 разрядных чисел. Там вместо одного такта было дохерища. И требовало много времени для реализации кода. Кто будет тратить месяцы чтобы реализовать эмуляцию инструкций новых процов на старых, если можно просто купить новый?
Более «быстрые» специализированные инструкции уже не помогают. Например avx2 уже слишком быстр. Одним ядром с хорошим avx2 кодом легко занять всю шину памяти: проц обрабатывает данные так быстро, что 1 канала памяти даже при идеальной раскладке не хватает. Остальные ядра в такой ситуации должны либо простаивать, либо замедлиться. Avx512 в такой ситуации прям совсем перебор
инструкции не дают прирост. если в игре они ненужны то старый проц без инструкций её вытянет. но если обязательны и нет программного обхода то она не запустится на этом железе. всё зависит от лени програмиста
Насчёт тридцатилетнего застоя было не совсем так. Вместо многоядерных архитектур разрабатывались многопроцессорные (иначе просто не на чем было бы обкатывать технологии параллельных вычислений). Создавались и специальные процессоры для работы в многопроцессорных системах, и серверные платы, на которые можно было поставить, к примеру, два четвёртых пня. А потом кому-то в интеле пришла в голову идея засунуть два процессора в один корпус - и полетело.
только идея пришла в голову не Intel, а IBM и их первый многоядерный процессор Power4 был выпущен в 2001 году. Это конечно не десктопный вариант, но идея подсмотрена не с потолка :-)
У меня где-то в 97-м был комп на двух процессорах Pentium Pro 180 (но всё это не для игр, где они ""совсем не очень" себя показывали)... а в прикладных задачах даже один Pentium Pro 150 с треском "уделывал" свежий на тот момент Pentium 200 MMX 🙂
@@OBN_RacerMan Вполне вероятно. У меня как раз был MMX 200. По прайсам Pentium Pro в 1997 стоил в 3 раза дороже, чем MMX 200, хоть Pro и на пару лет старше. Так что производительность у него в серверных приложениях явно должна выше быть.
13:35. Класс, у тебя видео в 30 кадров и ты используешь это как доказательство того, что разницы между 60 и 120 нет. Хотя на футаже у них одинаковая частота ограниченная рендером видео в 30 фпс
@@BrickTextures-hm1uy А, то-есть если бы видео было в 60 кадров пример не был бы нагляднее. И не похожа картинка с самого лева на слайдшоу в 7.5 кадров в секунду, но утверждать не могу, поверю на слово.
Хочу отметить, что чипмейкеры как развивали так и будут развивать многоядерность, потому что основной рынок сбыта для них отнюдь не пользовательские ПК, а серверные процессоры, где как раз-таки ценится многопоточность, там можно встретить по 32 ядра и выше, а количество потоков и того больше. С охлаждением там тоже всё куда проще, поэтому можно делать горячие процессоры и не сильно переживать за это
Я только в начале этого года ушёл от 2х ядерного процессора. Сейчас комп на Ryzen 5600G. Думаю его мне хватит лет на 10, не меньше. Так что со сказанным в ролике согласен полностью! Про процессора - ветерана мне лично очень интересно! Делайте скорее пожалуйста новый фильм!
@@alexkuh2395 многие ультра геймеры из РФ еще сидят на 775 сокете и запускают киберпанк 10 кадров в секунду, я смотрел как чел проходил КП 10 к/с на стриме
4гб ддр2, Кю9450, 550ТИ, чипсет Р45- не для игр- хватает и не жалуюсь. Если не упираться в игры, то любой даже захудалый древний четырехядерник будет нормально ,,тащить,,
проц - Intel Core i7-3930K CPU 3.20GHz ОЗУ - 40Гб (DDR 3) видюха - GTX 1080Ti (самый молодой элемент системы, покупал в 2017-м вроде) За все время использования этой сборки, единственная игра, с которой были косяки - Киберпук 2077, но я говорю про пиратку в день выхода. Она мне кажется тогда вообще ни у кого нормально не работала. Но не смотря на это, игру прошел всю, в разрешении 1280x1024 при 30-40 fps. Разумеется без трассировки лучей, сглаживаний и прочего. Сейчас я в играх только тени, световые эффекты и сглаживание понижаю, и все идет на ура в 2к разрешении.
Ох уж эти времена высоких технологий. А ведь были времена когда для улучшения производительности приходилось подрубать файл подкачки при нехватке озу, чтобы игра нулевых не тормозила.
@@Ivan_dzn Когда у меня был свой пк я и оперативу докупил и процессор поменял, а позже с нуля собрал. А когда был студентом играл на старом пентиуме что стоял в съёмной квартире.
пф, я HL2 в год выхода, на 2Гб HDD ставил, на котором еще XP жила, приходилось удалять почти все карты, пока игра с диска устанавливалась, а потом проделывать данную процедуру еще несколько раз, удаляя уже пройденные. Еще и включать сжатие ntfs, вырезать из XP всякие мануалы, чтобы съэкономить хотя бы 200MB. На неделе раза 3 порой приходилось ось переставлять, когда в процессе экспериментов вырезал, что-то системное. И да, инета в то время еще не было у нас. купить HDD хотя бы на 40Гб было пределом мечтаний.
@@koi-157c8 я тогда софт имел на дисках, а игры скачивал в местных компьютерных клубах. Обновление драйверов и операционки было невозможным, ключи для антивируса перекидывались флешкой у знакомых. Интернет появился позже и это был 3g usb модем выброшенный через usb кабель за окно. Тогда был тариф ночной безлимит и игры скачивались и удалялись сразу после прохождения. С накопителем мне повезло это был Western digital на 80гб и это было очень даже много т.к. игры в основном весили от 200мб до 6гб. Позже мне достался хард от Xbox 360 от 2004г.в. который был установлен как дополнительный, но блок питания не тянул 2 харда и дисковод, по этому пришлось ставить второй блок чисто для дисковода, вентиляторов и доп харда иначе система тормозила от подгрузки болванки
60fps - абсолютно комфортный показатель, в отличии от 30, но даже разницу между 60 и 90 очень легко заметить, а вот разницу между 90 и 120(да даже 144) уже намного сложнее.
100 проц. я гамаю на ТВ в 60 фпс с виртсинхом. У друга 120гц 120 фпс. Начинаю у него играть, сначала чувствую, что картинка шутрее, но через полчаса уже не чувствую. Дома после 120фпс чувствую слегка ватную картинку, но через полчаса опять все норм)) Если не скакать межлу 60 и 120 фпс то комфорт и там и там
этот чел с контекста вырывает тесты где якобы 12400ф такой же как 13700к XD. Но зайдя на оригинальный видос можно узреть разницу почти в 100 кадров лол)@@Z0RR0Z
Насчёт частоты и ядер как раз была забавная тема с крайзис. Крайтек веря что процы будут идти в большую тактовую частоту, делали край энжин больше заточеным под герцовку, а не под ядра, что подарило мем про бенчмарк с сюжетом
Как можно быть "заточенным под герцовку"?) Не существует способа оптимизировать программу под ту или иную частоту процессора. Можно только под определенное количество ядер
@@nikitf7777очень просто: они НЕ оптимизировали игру под несколько ядер и при этом сделали её довольно требовательной, с расчётом что в будущем с ростом частоты она станет как раз.
@@nikitf7777 Он это и имел в виду, только выразил другими словами. Другими словами - это производительность на ядро, но это уже совокупность факторов, не только мегагерцы решают
@@nikitf7777 Рассчёт на то что следующее поколение ядер будет быстрее. У ID software раньше была таже тактика. Разработка долгая, и разрабатывая игру на новом движке в него закладывают представления о будущем пользовательском железе. Раньше частота проца стабильно увеличивалась, и это конечно бралось в рассчёт. Первые 3 квейка на момент выхода нормально нетащило никакое железо, но оно вскоре подтягивалось, и игра выглядела офигенно на фулах.
Смотрел на днях тест-сравнение i9-9900 и i9-13900, всё в сборке с RTX 4090 в 4К разрешении. В итоге был удивлён и озадачен, так как собирался в следующем месяце переходить именно на этот новый топ-процессор. Оказалось, что разница в FPS ничтожно мала (всё упирается в RTX 4090), а вот температура и энергопотребление 9-13900 на 20-30% выше, чем у 9-9900. Остался я с топом 2019 года и доволен как слон :)
Спасибо за обзор, очень информативно, практически со всем согласен, кроме одного. Сам пол жизни сидел на 60гц мониторе и переходе на 120-144гц разница очень даже заметная. Я бы даже сказал что выше 144 разница уже начинает сильно уменьшаться и 240гц действительно оверкил для большинства людей. У меня старый монитор сейчас как второй стоит и реально 60гц уже глаз режет. Так что даже если выбирать 4к 60гц и 2к 120гц я выберу второе, пока не обзаведусь видюхой, способной отрисовывать на 4к 100+ кадров(в будущем думаю такие будут). И вообще советую всем адептам 60 кадров которые ни разу не сидели за нормальным монитором, сходите в норм комп клуб, ради прикола оплатите пару часов и поиграйте на нормальном монике, свой вам потом захочется в окно выкинуть)
Значит ты сидел на говномониторе без фрисинка, который и дает гладкость восприятия. Глаз режет потому что рядом сравнение есть. Не зря же тесты фпс и качества картинки разделены на сайд бай сайд
Есть один нюанс, дело не столько в количестве Гц, просто в 60Гц ставят отвратные матрицы (раньше потому что лучше не умели, а сейчас потому как дешево), и там время переключения пикселей на некоторых цветовых переходах может подскакивать и превращаться в 30-40Гц. А 120+Гц это другой ценовой диапазон и там матрицы которые выдают в 2+ раз лучший отклик (хотя тоже далеко не всегда дотягивают до заявленных).
на работе монитор Samsung ips 75 Гц, дома - Samsung ips 144 Гц. Оба с FreeSynk. Не вижу между ними никакой супер разницы. Но если рядом поставить старый моник на 60-75 Гц, сразу же скажу что он такое себе - может быть качество матрицы играет большую роль чем пресловутые герцы ?
Не замечаю разницу между 60гц и 144гц. Но при подключении старого железа i3 3220 gt 640 к любому из мониторов видно разницу даже с i3 10100 gtx 1650 (на i3 3220 даже в винде какие-то шлейфы и подергивания, в игре dead space 1 оригинал при одинаковых настройках с включённой вертикальной синхронизациией, 30 фпс, на новом железе все плавно и красиво. А вот на старом шлейфы и т.д. Так что думаю что разница в качестве картинки сейчас больше зависит от железа воспроизводящего эту картинку. Конечно если монитор более - менее качественный.
дело не только в отсутствии "программной необходимости".. есть еще бюджет пространства, которое не резиновое. а увеличение кристалла - кроме прочего, увеличивает количество брака. Именно поэтому и переходят на модульный тип чипов, и все эти попытки вбахать кэш вторым ярусом.
А смысл, x64 архитектура означает, что она 64 битная, если сравнить эту же архитектуру старого процессора и нового, они будут колоссально отличаться, поэтому x64 на данный момент означает только битность
x128 не имеет смысла, ибо на х64 уже много чего построено А вообще инструкции в процессоре могут масштабироваться до 512бит (я всех тонкостей не знаю, я ламер)
Застой! Сейчас проблема не в железе, его хватает с головой. Проблема в фантазии разработчиков. Люди до сих пор играют в героев 3 и дело не в графике а почему?? Вот то то и оно))
спасибо, как всегда очень познавательно, редко пишу комменты, можно ожидать такой же разбор только во 2 самой популярной ветке развития пк, видеокарт или там пока такого "потолка" нет ?
Действительно все мои знакомые сидят на 3D мониторах Full HD 60 кадров сек. И 4х ядерных 8 ми поточных процессорах. И даже не думают что то менять. И видеокарты от GTX1050Ti до rtx2060super.
@@2008dmx_new АМД говнище, не может догнать ни по производительности ни по качеству и ремонтопригодности интел и нвидиа. i3 13100f плюс RTX3060 рулит, дешево и сердито. А вариант с i5 13600k с RTX 3080 или даже 4090 впереди планеты всей.
@@Александр-о8й7с если производительность ещё можно понять, то что значит ремонтопригодность и качество процессора? каким образом ты определяешь качество и как ремонтируешь процессоры?
оно "прекрасное" только потому, что совпало с твоим мнением? есть тесты, где процесоры с 3 d кешем в играх 4к уделывают без кеша на 25- 50% и это не с топовыми видеокартами.
Я на такой плате с 478 сокетом догнал до 4 гигов ОЗУ, ссд на 60 гиг поставил, видео пентиум с 2 потоками, и видео 6800 агп разъём. Мой хп просто летает. Построил машину в 22 году чтобы в 3д риппер из старых игр 3д модели вытягивать.
Добрый. Выскажу свое мнение. Сейчас нужно делать уклон в качество изготовления процессоров с усовершенствованием тех. процесса. Для лучшей стабильности их работы и повторяемости. Два одинаковых камня могут отличаться на столько, что не поймешь-это I5 или I7. Оперативка еще сырая с высокими таймингами и плохой совместимостью. Материнки нужно подтягивать в качестве и не "гнать пургу". Когда на 510 или 610 чипсете с 50 А транзисторами без радиаторов в описании I9-пора прекращать идиотский маркетинг с постоянной ценовой обдираловкой.
Вангую появление "безъядерных" архитектур, где в единой матрице совмещённой с большей частью функций материнки будет выделяться с распараллеливанием и синхронизацией и асинхронизацией процессов, необходимый под каждый из таковых, объём блоков под "ядра". При чём совмещатсья это будет и с озу и с т.н. мемристорами. Но этоу уже глубочайшая аппаратная революция. Все предпосылки к этому уже есть.
Всё хорошо сейчас с процами. А в сравнении с каким-нибудь 2004 вообще отлично! Графоний 2d действительно уже приблизился к 100% фотореализму и видяхи не сегодня завтра смогут выжать максимум fps
Офигенски с 6-8 ядер согласен будут доить нас до последнего. Ну жесть помню мечтал о топе i7 7700К а теперь сижу и смотрю зачем оно мне, куча аналогов).
ну я сейчас буду собирать себе р9 7900х 32 ддр5 6000 герц, рх7900хтх, и забуду о железе лет на 5-8 точно. в чём тут понт владения? перелажу я со сборки которой лет уже... 6.. Р52400г, 32 ддр4, рх580 8 гб. Эта сборка запускает и сейчас всё что мне нужно, но уже со скрежетом. На UE5 думаю будет больно ему работать.
Спасибо за ролик. У меня сейчас i9 9900k и мне его хватает. Играю в BF 2042, вот там он бывает почти на полную нагружен. Недавно подумал, может сменить его? Напрягает жор в стоке, 130-160 ватт. Смотрю, а новые i5/i7/i9 в стоке 250+. И с этой мишурой в глаза, в виде "24 ядра", удивился, что основных ядер то 8! Только i9 10900 был на 10 ядер, думал по приколу собрать на нём систему, но смысла нет.
Дак интел с тех пор, по сути, и не продвинулись никуда... Без уменьшения техпроцесса значительно уменьшить потребление энергии они не смогли, и не смогут.
на самом деле между 60 и 120 кадрами разница очень заметная( на 120-144+мониторах естественно), даже между 100 и 120 разница хорошо видна, а вот после 120 уже разницы почти нет
Я говорю как человек который участвовал в нескольких Киберспортивных конкурсах. Разница между 60 фпс и 360 есть, разница ощущается не зрением, а откликом управления. 60 герц это 8 мс. 360 герц менее 2 мс
Про восемь ядер согласен абсолютно, а вот по поводу частоты кадров нет. Герцы, как и фпс лишними не бывают и дело тут на в плавности и красоте картинки, но в воздействии на зрительный нерв и мозг вообще. Если мы субъективно не ощущаем разинцы между 60 и 120 герц, это не значит, что эту разницу не фиксирует зрительная система, которая реагирует на изменение частоты в несколько тысяч герц. Это так же как со звуком: мы не "слышим" инфразвук и ультразвук, но мозг эти колебания очень даже воспринимает. Короче, чем выше частота смены кадров, тем меньше утомляемость мозга, так что начинать говорить об этом как чисто маркетинговой уловке можно будет начинать лишь когда частота поднимется до 2000 герц.
@@titi3270 Убогие жертвы ЕГЭ, вам нужно разжевывать элементарные вещи. Попробую объяснить не понятно ТЕБЕ языке. Статичное изображение НЕ НАПРЯГАЕТ мозг, его напрягает мельтешение. Понял? Идем далее. Чем выше частота «мельтешения» (герцы, фпс и мигание источника света), тем меньше нагрузка на зрительный нерв и мозг вообще (если он есть). Понял? Тому, кто часами работал на ЭЛТ, эти вещи объяснять не надо. После четырех часов непрерывной работы в PS2 слезы текут так, что их уже не вытираешь. Чем выше частота смены кадров, тем меньше утомляемость не только зрительного аппарата, то ТВОЕГО тела вообще (про мозг я сознательно уже не упоминаю). Вообще-то я не злой, но меня бесят две вещи: тупость и хамство. Если по раздельности я могу их терпеть, то в совокупности - увы.
Одна поправка - разница между 60 и 120 ещё как заметна. Надо просто попробовать разок. А так да, чем плавнее , тем лучше, мы же живём в мире, где фпс не ограничен
Разница в двухъядерных процессорах тоже ощущалась сразу. Операционки-то уже давно были готовы к многопоточности. Поэтому одно ядро занималось всем, что связано с системой, а на другом - шла игра. Это давало ощутимый прирост производительности.
Включите рядом 60 и 120 герц - и вы заметите! Особенно на ЭЛТ! Шутка. Если серьёзно - то заметность зависит от быстроты движения в кадре (для статичной картинки хватит 0 фпс :), от наличия размытия (поэтому в кино хватает 24), а также от наличия очереди кадров (даёт инпут-лаг в 4 кадра, но хоть бы 1 блогер о нём рассказал!)
Очень отличается герцовка на больших диагоналях, особенна ультравайд. Так как микролаг кадра на 23" и 32" это севешенно разные расстояния. На 27" 60 кадров это слайдшоу после того, как привык к 165 кадрам.
Не знаю смотрел 3логию бэтмэна нолона в 60фпс имакс версии даже в 720пэ офигел от картинки в сравнении с 24фпс. А если фулл хд или 4ка, ещё круче будет. 60фпс за глаза, 120 в играх добиваться дороговато однако. В Винде, рисовалках и так будет выдавать на любой сидюхе, лишь бы Моник поддерживал развёртку в 120гц.
А этот настоящие 60 кадров или нет . Я вот fate смотрел - там просто есть сочные аниме драки. И мне не понравилось. Это интерполяция больше мешает чем помогает. Вот и спрашиваю.Так настоящие или нет? Если настоящие,то это крута одназначно.А вот с анимцией - беда.Т.к. множество художественных хитростей завязанны на ФПС .
@@mikhailpass9349 да, 120 фпс дорого, тем более что игры оптимизируют под 4к 60, а не под 2к 120, например... 120 фпс повышают требования к процессору, а именно к быстроте на ядро, но вот беда: нам уже несколько лет поют про "куча слабых ядер норм" и "всё упрётся в видеокарту"... Но в старых играх 120 фпс достичь можно, а в новых просто включить 60.
Спасибо.Слово в слово мои мысли.Только уменьшеный техпроцесс изготовления.13700kf Жрёт много,да пофиг,но грееются...жесть.Пользуюсь много лет i7 2600к,забавно с костылями на 5100 ГГц тянет современные игры.Многопоточность оставляет желать лучшего....Если не бенчмарки,только увеличение частоты.Поставлю стакан с азотом,посмотрим))))
Ну теперь я спокоен - у меня всё норм. Я не проспал момент и пересел с 775 на 1700. Пойду спать ещё лет на 10-15 🤣 З.Ы. Со сборкой ПК на Пеньке-4 с ДДР-1 уже опоздали - Мурк сегодня это сделал 🙂
Ну, не 10 лет, но уж точно 5-6 лет хватит за глаза. Стоит только через пару лет прикупить какой нибудь 13600к и подразогнать его и всё. И то, не факт что это на производительность сильно повлияет, сейчас и ручной разгон по факту не имеет смысла, автобуст и так все соки выжимает. Особенно если ты в 2к играешь. А вот видеокарта да, это другое.
@@eluiden ну хз, у меня 11700, не к, ибо перешёл с 10400f на b560 Смотрю пишут буст до 4.9, а по факту на 1-2 ядра, на все ядра буст 4.4 Был бы как в райзене (либо к) , то можно было бы все ядра разогнать до ну хотя бы 4.9- 5.0 , а тут уже как бы 0оть какой то прирост мощей был бы, 1-3% особенно в рабочих программах
@@Sa300dvideo Правильный выбор) Я сам буду скоро обновлять свой 10400 на 12400, которого мне хватит за глаза и на долго. Потом можно будет и 13400 взять, когда через годик-два цена спадет. Думаю, это самый лучший вариант)
Здраво! Чуо сам много о криптовалути, али не разумем како да улажем и зарадим од тога. Потребан ми је прави приступ да улажем добре приносе у акције, криптовалуте и другу профитабилну имовину?
Вау, какав мали свет...сјајно је видети људе са Робертом Аленом м, тргујем са њим већ више од годину дана и мој трговачки портфолио је значајно порастао. То ми је променило живот, у почетку сам имао много сумњи.
спасибо за обзор. У меня лично четырёх ядерный проц соre i7 4790, оперативки 16 гигов ddr3, и видюхи 6 гигов, - хватает за глаза, на сегодняшний день все игры идут на Full Hd разрешении. Производительность хорошая, не вижу смысла обновляться. Монитор у меня старый 27 дюймов, HP, 2013 года выпуска, Full Hd, 60 герц всего, а картинка такая сочная, аж глаза не оторвать. Обновляться буду где то в 2026 году, сам я лично геймер со стажем.
тоже самое. 1150-ый, i7-4950HQ @ 4404 MHz (ratio 38 x 115.9/BCLK), noctua NH-D14, 24 Гб 2318 МГц 11-13-12-20-224 1T + опущенные вторичные и третичные тайминги. видеокарта GTX 1070 в максимальном разгоне. для моих задач этого конфига хватает с избытком. также специально тестировал разные современные ААА-помои, нигде никаких проблем не было, а фризов тем более, что с упором в видеокарту, что без него (низкое разрешение). люди зажрались неимоверно, особенно бесит, когда пишут/говорят, якобы 4/8 - ОФИС, аж сердце кровью обливается, мой процессор мне жалко. я его поменяю только когда он уйдет на тот свет, даже если он перестанет тянуть что-то, так сказать "буду сидеть до тех пор, пока даже браузер не начнет тормозить"... современное железо я терпеть не могу, и не только его, операционные системы - также. раньше был на windows 7 и 8.1, теперь из-за вынужденности перешел на обрезанную windows 10 LTSC 1809 от ув. LeX_6000. честно говоря, тянет блевать от современных вещей, автомобилей, домов, техники: видеокарт, материнок, да даже корпусов, и также смартфонов. сейчас происходит активная деградация всего и вся, даже интерфейс ютуба отвратительный! нормальный ютуб остался в 2019 году, вечная память ему - перестал работать. телефон старичок Xiaomi Mi 6 из 2017 года, работает идеально так же, как и мой компьютер, радуя каждый день, старый добрый хороший дизайн, без "безрамочности" и дофигища камер. стоит кастом android 9. бесит когда говорят что 4 ядра = офис, это и близко не так!
@@Kai-ew3zi я на нем даже в кривой the last of us part 1 играл. нехватку видеокарты только там впервые увидел, так как даже на минималках иногда fps падал ниже 40, и это не из-за процессора, у него ещё хоть какой-то запас есть, упор именно в видеокарту. только интересный факт: на минималках эта игра выглядит даже хуже, чем более старые. допустим, AC Odyssey на высоких выглядит получше, только вот он на этой видеокарте просто летает. так что эту игру еще пилить и пилить.
Я до сих пор сижу на 8-ми ядерном процессоре Xeon E5 2667v4 с 32ГБ серверной DDR4 и для всех моих задач этой платформы более чем хватает. Обновляться несколько побаиваюсь из-за высоких температур новейших процессоров, да и DDR5 не сильно впечатляет ибо моя DDR4 в 4х канале показывает не сильно меньшую пропускную способность памяти, а задержка в ns примерна та же.
@@costea. ну почему же я делаю вывод только по аиде? Во всех играх фпс больше 60 кадров при том что играю в QHD разрешении, а потому нагружена видеокарта, а не процессор.
@@КириллКонышев-м2ы вы правы, только вот.... Не будут на новой архитектуре работать старые программы, даже линукс с виндой не запустится. Ничего работать без адаптирования, переписки кода и портатировсния не будет. Прогресс тормозят программисты нынче. Новая архитектура - это будет всё с нуля, ибо век х86 закончится
Я ещё в 2019 купил 64GB micron e-die AES про запас(289евро при курсе ниже 70), год назад неплохо разогнал, передрочил вообще все тайминги, 3733CL16 Друг всё время стебался, нахера, НЕ используется и вдруг появилась задача, для которой 32GB мало, как говорицца сосните хуйца, экономя копейки! щас продаётся почти такая же память с индексом U4, есть вариант для богатых - samsung b-die!
У автора узкий взгляд на игры, по сути он ориентируется только на играх экшенах, но по мимо их есть еще жанр стратегий, так же весьма популярный. Наприер такие игры как серии Total War, Surviving Mars и прочие, весьма требовательны к процессору и способны загрузить и 16-ти ядерники.
согласен с прогнозом, В далеком 2011 году купил sandu bridge 2500к , разогнал его на 4.5ггц и сменил его только в 2022 году, на более мощное решение. И сменил сенди бридж только ради того , что он перестал вывозить мой новый монитор в 4к, виде 4к начало подтормаживать. Получается скачек технологий с 1080 на 4к, меня сподвигло поменять компьютер. В данный момент сижу на райзене 5700х и я так думаю сменю его только тогда, когда пойдут уже мониторы в 8к. Ну это будет лет так через 5. Автору ролика спасибо, за проведенное время).
@@Potapkaban я от своего r7 1700 избавился только в этом году. 5,5 лет прослужил. И заменил его на 5800x3d только потому что взял себе новый видик в лице 3080ti и перешёл с фуллхд монику на wqhd..
@@r-morozov вот материнка с моим r7 1700 отслужила мне 5,5 лет, а теперь в неё же вставил 5800х3д, который простоит думаю не меньше чем ещё 5 лет. А ведь я помню как мне говорили во время покупки, что это пустая трата денег, и платформа неактуальна уже на момент выхода. Кто бы знал тогда что я не особо обламываясь просижу на ней лет 10.
Так себе заявление, что разницы между 60 герцами и 120(и о боже все если и сидят на таких чистотах, то это 144 герца) мало кто может заметить. Заметно и очень, все наши глаза замечают.
Аааа! Это старая добрая Asus p4p800-se на s478! Была у меня такая, очень долго ею пользовалась! Большее время сидела на Celeron, потому что р4 стоил нереально. И только потом, когда платы на s775 уже начали терять свою актуальность, купила с рук p4 на, 3,2GHz. Кажется, это максимальный процессор, что могла держать эта материнка. По цене обошёлся около 3-3,5 тыс руб. Счастью не было предела! 😂 По графике и результатами тестов тогда не гналась за супер шедеврами - хватало средненькой Radeon x..... xt (уже и не помню модель). Но было бы очень интересно понаблюдать за тестами игровой сборки из дня сегодняшнего. Качество игры Fallout 3 на то время меня более чем устраивало))) С приогромным удовольствием бы взглянула ещё раз. Спасибо за приятный сюрприз в начале и в конце ролика! Спасибо вам за вашу работу! ❤
@@2008dmx_new а это вообще к чему вы сейчас? Что вспомнила, о том и написала. Значит, такой был плохой маркетинг у производителей, что не запомнила название видеокарты. Мне как-то на ваши подозрения совершенно фиолетово.
Я до сих пор сижу на Феноме 1090Т, и меня устраивает. И теперь если надумаю менять железо, то буду по вашему совету покупать райзен 7700х. Зачем покупать более дорогой если разницы нет никакой.
Собираю себе пекарню в 2024. Долго думал между A5 и LGA1700. Всю жизнь сидел на Intel. По началу очень даже понравилась цена и производительность AMD в гейминге. Наверное они сейчас лучшие по соотношению цена/качество именно для гейминга. Но пекарня мне нужна не для гейминга, а для работы. Запускать десятки и сотни Docker-контейнеров, поднимать тестовые сети на VirtualBox, тестить различный дистрибутивы в том же VirtualBox, писать скринкасты и стримить через OBS, монтировать видео, рендерить сцеы в Blender, моделить в Sketchup. И для всего для этого, как по мне, 13700k без видяхи будет более чем достаточно. А если решу заняться AI, тот тут уже и видяху докуплю. А в CS2 и SC2 покатать и этого сетапа вполне хватит.
18:30 ага, только вот Directx 12 есть 12, 12.0 и 12.2. И то, что его поддерживает аж с Fermi на программном уровне никак не помогает древним картам. Скорость работы очень низка.
ядра конечно важны, но для игр важен кеш тот же 5800х3д для игр улет если у вас не 4080-4090, для них уже нужен 7800х3д. Да есть много мощных процессоров от Intel, но переплата за них не оправданна( они нужны для работы). В бюджетных разницы между intel и AMD нет в принципе...
Ну вот почему всё про FPS всё время? Он от цпу давно зависит вторично. Но в проц много чего упирается, установка, загрузка, например, при быстром ssd часто упирается в цпу. Это тоже во многом определяет комфорт использования игрового ПК. Вот одна из новинок делает компиляцию шейдеров, все ядра загружает и очень на долго.
Ждем вас в наших сообществах
В Telegram - t.me/mknewsru
В ВК - vk.com/mknews
Всем привет из чатика
Передайте Аннет 🍆
По поводу тестов Динозавра на современных задачах. Унылое зрелище будет. Современный софт пишут толи с расчетом, что железо всё стерпит и вытянет. Толи чтобы новую железку продать. ;) Винда, которя на CD помещалась и работала на 100 метрах ОЗУ, сейчас требует столько, будто в её состав входят видео ролики самого высокого разрешения. :) А старый офис. Он точно также на Р4 работал, как и современный на новом железе. Абсолютно с тем же FPS. :) Значит дело тут не в количестве ядер :)
П.С. я в таких случаях обычно софт откатывал, на версию пониже. (Это если поумному Downgrade называется?) Тогда всё летать будет. А если наоборот - тупить :)
Сейчас многие игры заведомо оптимизируют под небольшое кол. ядер. Вот сталкер, игра 2007 года, использует два потока, причём второй поток слабо нагружен, так что кора 2 дуба или атлон х2 достаточен. Но именно в сталкере можно сделать хорошую многопоточность и она будет работать. Для этого надо распараллелить расчёт апдейтов объектов, чтобы куча объектов рассчитывалась равномерно по ядрам. Это позволит радиус оффлайна увеличить в несколько раз, допустим до 500 метров или сразу до 1000. Пусть гуляют у нас на сцене, сразу сотни НПС и мутантов, допустим 200-300 НПС и 500 мутантов. ФПС при этом 50-100. А если у нас серверный на 128 ядер/потоков, то можно ещё раз в 10-ть больше.
Но современные игры сразу прячут НПС, которые сошли с наблюдаемой сцены, это порождает ощущение очень кривого алайфа, например в FarCry 3, фальшь очень ощущается, может кто-то не видит, но кто-то с пеной у рта доказывает что ФПС 200 против 500 отлично видно ВСЕМ. А я вижу совершено кривой алайф в фаркрае 2, 3, 4, 6. Такое можно избежать если НПС не уходят в оффлайн или не удаляются, и всё это просчитывается даже если ГГ не видит этих НПС или удалился от них за несколько сот метров. Да, потребуется однозначно 6-8 ядер, или больше. Но такие игры реально оправдывают многоядерные процы. Хотя киберпуке же если включить максимальную плотность толпы, будет высокая нагрузка на ядра.
Есть ошибки в видео. Вулкан представила не АМД, а Кронос групп куда вошли и АМД, и Интел и нвидия и прочие консьюиерские компании.
Так по поводу многоядерных консолей даёте не верную информацию. До выхода х ящика и пс 3 была атари ягуар. С кучей сопроцессоров и тремя интегральными процессорами.
Не в ядрах сила брат,сила в архитектуре
У кого архитектура тот и сильнее...
Надо Эльбрус брать тогда
Фраза любого владельца i3
Сила в оптимизации кода программы.
И в L3 кэше
Глядя на рост потребеления питания видеократ, скоро будут актуальны уроки по разгону блоков питания=)
боюсь спросить, а тебе 1.5квт бп куда разгонять?
@@karlvareze8337 1.5 кВт это только потребление какой нибудь rtx 5050 в скором времени будет😀
@@juryfilatov4520 бп на 2квт есть наверное уже лет 10, при этом еще не ни разу не было чтобы компу не хватало 1 квт даже с 4090+13900к
@@stalkes. опять же, 4090 далеко не везде жрет 450, как кричали на каждом углу) Я у себя вижу от 100 до 330(это максимум, что я видел), и 330 это был ведьмак некстген. В Хогварце около 300, Киберпанк около 300, это в 1440р разрешении. Да, возможно в 4к будет больше потребление, но ненамного. У меня раньше 3080, жрала больше, чем 4090) Так что, 1квт за глаза. А следующее поколение, я не думаю, что будет по потребление больше, чем текущее.
В БПшниках:
Трансформаторы помощнее искать , Конденсаторы, резисторы поменять.
Вопрос Трансформатор с другими Габаритами впаяешь в Габариты То й же Платы управления либо нет? ЧТо бы еще оно и как то закрепилось и не болталось туда сюда.
Сейчас Берешь на Киловатт точно не прогадаешь. Через Лет десять берешь на 3 Киловата как Бойлер тоже не прогадал.
Нет ну Производители для Коробки на блоках питания Ватті завішают а физически хорошо если на 80% улаживаються.
То есть Пишут 1 000 ватт знаешь что 800 ватт есть.
Пишут 600 Watts знаешь что 378 Ватта он должен вроде дать и ничего не загорится и конденсаторы не полопаются.
То есть КПД у блоков питания все мы знаем что 80% PLus.
Вот и брать не 500 Ватт на систему что там явно с Материнкой с 9 НЖМД не 1 SSD а 9 НЖМД. И Лазерник а то и два. А чё на металоломку Нести Лазерник что 60 USD когда то лет 4-6 назад стоил что ли Жалко может на Металоломку здавать.
Любой блок питания нельзя никогда впритык надо плюсить 30% минимум от того что нарисовано на коробке.
Уже год занимаюсь разработкой собственного игрового движка на Vulkan, и могу сказать, что в видео достаточно все правдиво. В современных играх есть огромная нагрузка на GPU, поэтому и существует куча разных видов ядер для ускорения разных задач. Я сам лично столкнулся с тем, что современные CPU достаточно мощные для большинства видов задач, а вот с GPU все посложнее.. памяти мало (одна 4к текстура весит 33мб после декомпрессии, и да, есть алгоритмы для сжатия текстур прям в VRAM - BC7, например, но декомпрессия тоже занимает время, поэтому нужно выбирать), всю сцену не отрисуешь объектов в сцене невероятно много и в целом детализация в современных играх - очень высокая, что тоже дает высокую нагрузку. Просчеты освещения вообще отдельная тема - мне не хватит пальцев рук, чтоб пересчитать все методы оптимизации, так как это самый сложный вид вычислений в играх (в 3д играх, если использует "физически корректный рендеринг").
Даже в плане разработки и драйверов видеокарты - за последние 6 лет они стали ОЧЕНЬ сложные и использовать тот же Vulkan - достаточно тяжелая задача. Посмотрим что будет дальше ;)
Юзать UE5, Unity, Godot... Неееееее. Лучше буду скакать на граблях, 10 лет изобретая свой корч-самокат из натыренных кусков металолома, бутылок, болгарки и суперклея, а потом забью на эту бесполезную дичь. Погнали! хдыщь-хдыщ-хдыщь-хдыщь-хдыщь. Не, я бы понял еслиб ты тюнил что-то низкоуровневое под мобильную платформу. Но пилить свой двиг на десктоп, когда их как собак нерезаных и бесплатных и неочень. Лел...
@@MetaJamm возможно, человеку просто интересно этим заниматься, что в этом плохого?
@@ivangrozny9853 Ну так-то ничего, просто сизифов труд. Примерно как новичку сегодня сесть за ассемблер. Я бы ещё понял если двиг для демосцены, ради искусства. А так и в резюме не впишешь, и продукта наверняка не будет. Если цель попасть игродел то это прям инстант фэйл сразу. Сейчас не двухтысячные, и планка выше,и конкурентность, и движки под инди уже есть. Нет смысла топтаться наместе.
@@MetaJamm так всё зависит от самой игры, некоторые студии тоже свой движок делают, вот им так же напиши)
@@SV-kp5mw Зачем им также писать? Студия это студия, у них свои соображения, проекты и ресурсы. Возможностей сильно больше как по деньгам так и по доступу к экспертам и рынку. И даже при этом всём таких по пальцам посчитать. Если ты хочешь делать игру тебе надо делать игру. Нет никаких причин не делать этого, и заниматься технологической работой заведомо более низкого качества и сомнительных перспектив. Свободно доступны решения более мощные чем способен сделать энтузиаст в одно лицо.
Ничего не длинный ролик, хорошая выжимка) Респект всем причастным к каналу!
Согласен, ролик классный! Очень нравятся отсылки к истории. К 1990-ым годам 🙂Когда мы были юны 🙂
Английское слово "respect" соответствует русскому слову "уважение" (так пишется и так произносится). Не благодарите. Успехов в изучении русского языка! 👍
Интересно было бы послушать про рост системных требований в играх, например через сколько лет росло количество оперативной памяти, через сколько требовалась удвоенная мощность железа и экстраполировать это на будущее - через сколько лет будет очередной их рост и на сколько
это гадание
Можно вспомнить типичные компьютеры собираемые в разные годы:
2000: 256Мб памяти
2005: 1Гб памяти
2010: 4Гб памяти
2015: 16Гб памяти
Далее могло бы быть:
2020: 64Гб памяти
2025: 256Гб памяти
Но что-то сломалось в этой тенденции, и по моим представлениям сборки сейчас по-проще:
2020: 32Гб памяти
2025: 64Гб памяти (спекулятивно)
2030: 128Гб памяти (спекулятивно)
@@alexanderbelov6892 я собираю на DDR6 с 32 Гб по 16 Гб как раз. Кстати, вышли планки нестандартные.
@@Dastiel. ты из какого будущего,что у тебя ddr6 уже есть?
@@alexanderbelov6892 пропустил 8ГБ, это самый длинный период должен быть, 16 наверн все ещё идёт. 32... у многих и 16 нет.
Как же мне нравиться видео которые дляться 18 минут и каждя секунда интересна, никакой воды и ничего лишнего. Спасибо mka).
как всегда реально интересно послушать и посмотреть
+ за ретро, люблю такие видосы. По поводу ядер: АМД же вроде бы уже заикнулись про многоядерный видеочип для их будущих видеокарт.
SLI, CrossFire и двухчиповые карты уже проходили. Жрут много, греются соответствующе. И самое главное, непонятно как под них писать (проблема синхронизации).
Опять же, ГПУ устроен не так, как ЦПУ. И согласно специфике его задач, он ориентирован на последовательные, с точки зрения высокого уровня, вычисления (кадр за кадром).
И повысить его эффективность можно, наращивая потоковые процессоры, которые и являются основной вычислительной единицей ГПУ. А их в одном ГПУ может насчитываться более 10 тысяч.
@@poltargeist6093 путаете, двухчиповые с многолиплетными, где под в гпу много кристалов, и там есть куда расти, потенциал бешеный, но ситуация с гпу сложнее, чем цпу, не получится поделить основной массив с ядрами, и увязать их так, чтобы работали одинаково эффективно, и не дублировали данные, сейчас есть вариант, сделать основной гпу, допустим, с униифцированными ядрами, и отдельные кристалы с ии ядрами, типо матричные ядра, и вские ускорители, вот тогда это было бы эффективно, и дешево, чем один огромный и сложный чип... Но это тольео в будущем, пока амд смогла отделить гпу на кристал с ядрами от контроллеров памяти... Вот
@@DrunkAxxturel у амд уже были видяхи на кристале, их было по 5-6-7-8штук и назывались они R. Забили они болт на это дело и пошли дальше ,хотя видеочип эпл реально бомбический и там тоже матричные кристаллы,но их налево и на право не раздают,а было бы интересно просто нарастить матриц во всю подложку видяхи, например 2кулерной видяхи стоковой и подрубить к ним пси х16 слот,но наверно это требует слишком огромной работы человекочасов ,чтоб оптимизировать всю такую конструкцию и работать не слакая ,и не тупя при обработке кадров на экране. Хотя есть и другой вариант, ведь есть нейронки и роботизированные механизмы, которые трудятся 24/7 и могут обработать такой поток инфы, чтоб выдать желаемый результат.....просто зачем это эпл?) Вы 1 раз купите видяху и на 12лет забудете где магазин,а так бизнес не работает в 21 веке, вы должны ежегодно туда заходить и покупать/покупать/покупать) Поэтому таких видях и нет,но м1 ультра уже есть и выдает прям бодро и энергоэффективность лучше зеленых.
Бля, почему Nvidia и amd идея не пришла чтобы создать двух головых GPU, что один чип из двух чисто использовашся для трассировки лучей збс же
Наконец то. Спасибо за видео. Вот бы видео выходили почаще. Качественный продукт у вашего канала.
Спасибо дядя Миша за доступное объяснение сложных тем желаю успеха каналу чтобы маркетологи споткнулись об техническую грамотность потребителей
Выздоравливай поскорее
так он сам такую ерунду несёт) неграмотным сойдет
как бывший работник геймдева скажу, естькласс игр где скорость почти порпорцинальна количеству потоков, напртмер minecraft, где генерация чанков распараллелена. то что игры имеют проблемы с GPU, памятью и сетью намного раньше чем с процессором понятно, и, там упор на картинку, но не вдаваясь в детали посмотрите сколько потоков в виде разных сервисов запущено на вашем компьютере, да им хватит и 8 ядер, но они занимают ресурс процессора. и есть большой класс задач который ускоряется почти линейно с количество ядер: рендер, компиляция кода, видео и фото редакторы, обучение нейросетей, и пр., так что решайте сами
майнкрафт на сколько я помню использует 1 ядро процессора
@@coconutarmy4792 это не так, генерация чанков распараллелена
@@coconutarmy4792уже нет, мой проц в сотку грузит
Здравствуйте! Спасибо за выпуск! Хотелось бы увидеть нечто подобное и о графических картах, мол что сейчас и что ждать дальше.
Михаил, Здоровья Вам желаю выздоравливайте по быстрей и не больйте никогда! Ваш канал обожаю, все Грамотно и понятно!✋
да и прогресс заметно замедлился по сравнению с нулевыми годами. Например в каком нибудь 2006м году шестилетний комп был безнадежно устаревшим. сейчас 6 летний комп (что то вроде i7 7700k 1080ti)позволяет комфортно играть абсолютно в любые игры
И то верно, как в ролике и говорилось, что сейчас можно даже на кор 2 кваде во что-то, да поиграть
@@vovatortegво что-то поиграть можно на абсолютно любом железе
Притом б/у 1080ти стоит 20к, б/у рх6600 стоит 20к, но 1080ти мощнее на 20%, хотя я бы не рискнул брать такое старье как 1080 😂
@@_molochko_9723 она мощнее только на бумаге. По факту 6600 будет в разы лучше за счет поддержки аппаратных фишек.
@@gameproblem1745 а че там за фишки, чтоб прям в разы? Может еще на порядок? -_-
Приветствую, полагаю зависимость производительности от числа ядер будет всегда, но все же главную роль играет наличие современных инструкции, с учетом которых должен быть скомпилирован используемый вами софт. Современные инструкции позволяют в значительной степени экономить вычислительные ресурсы и поэтому старые камни могут значительно дольше выполнять ту же работу (любую сложную инструкцию можно раскидать по более простым, но придется заплатить драгоценными тактами).
Да игры на старом поколении даже i3 идут. Главное камень повыше частотои.
Можно только это иногда весьма сложно и муторно. Помню у нас курсовик по ассемблеру был на х32 реализовать арифметику 64 разрядных чисел. Там вместо одного такта было дохерища. И требовало много времени для реализации кода. Кто будет тратить месяцы чтобы реализовать эмуляцию инструкций новых процов на старых, если можно просто купить новый?
Более «быстрые» специализированные инструкции уже не помогают. Например avx2 уже слишком быстр. Одним ядром с хорошим avx2 кодом легко занять всю шину памяти: проц обрабатывает данные так быстро, что 1 канала памяти даже при идеальной раскладке не хватает. Остальные ядра в такой ситуации должны либо простаивать, либо замедлиться. Avx512 в такой ситуации прям совсем перебор
Е.ать ты настрочил
инструкции не дают прирост.
если в игре они ненужны то старый проц без инструкций её вытянет.
но если обязательны и нет программного обхода то она не запустится на этом железе.
всё зависит от лени програмиста
Насчёт тридцатилетнего застоя было не совсем так. Вместо многоядерных архитектур разрабатывались многопроцессорные (иначе просто не на чем было бы обкатывать технологии параллельных вычислений). Создавались и специальные процессоры для работы в многопроцессорных системах, и серверные платы, на которые можно было поставить, к примеру, два четвёртых пня. А потом кому-то в интеле пришла в голову идея засунуть два процессора в один корпус - и полетело.
только идея пришла в голову не Intel, а IBM и их первый многоядерный процессор Power4 был выпущен в 2001 году. Это конечно не десктопный вариант, но идея подсмотрена не с потолка :-)
У меня где-то в 97-м был комп на двух процессорах Pentium Pro 180 (но всё это не для игр, где они ""совсем не очень" себя показывали)... а в прикладных задачах даже один Pentium Pro 150 с треском "уделывал" свежий на тот момент Pentium 200 MMX 🙂
@@OBN_RacerMan Вполне вероятно. У меня как раз был MMX 200. По прайсам Pentium Pro в 1997 стоил в 3 раза дороже, чем MMX 200, хоть Pro и на пару лет старше. Так что производительность у него в серверных приложениях явно должна выше быть.
Автор же сказал в видео «в ДЕСКТОПНЫХ процессорах»
13:35. Класс, у тебя видео в 30 кадров и ты используешь это как доказательство того, что разницы между 60 и 120 нет. Хотя на футаже у них одинаковая частота ограниченная рендером видео в 30 фпс
Именно поэтому бег и замедлен в 4 раза, чтобы на 30 кадровом видео показать разницу между 120, 60 и 30 фепесов
@@GreyYar
Он просто не понял.)) Подростковый максимализм затмевает рассудок. Рот двигается быстрее мозга.
Между 60 и 120 разницу увидит не каждый, а между 144 и 240 - никто. Тесты на каналах доказательство этому.
@@BrickTextures-hm1uy А, то-есть если бы видео было в 60 кадров пример не был бы нагляднее.
И не похожа картинка с самого лева на слайдшоу в 7.5 кадров в секунду, но утверждать не могу, поверю на слово.
@@THEGREATPAPYRUS1 Как гордый пользователь 165гц моника скажу что не заметит разницу между 60 и 160 только слепой
Ура. Наконец то новое видео. А то я уж соскучился)жду новые видео)и выздоравливай. Обязательно проводи эксперимент интересно узнать результат)
Крутой ролик. Познавательный.
И да, интересно было бы посмотреть видос про старую сборочку :')
ретро воспоминания -интересует единицы! так что не стоит. смотреть никто не будет
@@aBvGdEjKa. Не факт. Лучше опрос провести на самом деле
@@aBvGdEjKa. а так же чепуху про то что не видно 120 фпс
для игр смысла выше i7 последних пару поколений брать не стоит так как ни одна игра не нагрузит его даже на 90%
Хочу отметить, что чипмейкеры как развивали так и будут развивать многоядерность, потому что основной рынок сбыта для них отнюдь не пользовательские ПК, а серверные процессоры, где как раз-таки ценится многопоточность, там можно встретить по 32 ядра и выше, а количество потоков и того больше. С охлаждением там тоже всё куда проще, поэтому можно делать горячие процессоры и не сильно переживать за это
Так для них отдельная ветка процессоров есть.
Серверные эпики также состоят из SSX ЧИПОВ по 8 ядер
@@АйнурХакимов-н1я но обкатка технологий то идет за счет пользователя
Я только в начале этого года ушёл от 2х ядерного процессора. Сейчас комп на Ryzen 5600G. Думаю его мне хватит лет на 10, не меньше. Так что со сказанным в ролике согласен полностью!
Про процессора - ветерана мне лично очень интересно! Делайте скорее пожалуйста новый фильм!
А вы точно геймер?
А что за процессор был? Не i3, случаем?
@@alexkuh2395 многие ультра геймеры из РФ еще сидят на 775 сокете и запускают киберпанк 10 кадров в секунду, я смотрел как чел проходил КП 10 к/с на стриме
@@alexkuh2395 ну если сапёра может запустить, теоретически он геймер
4гб ддр2, Кю9450, 550ТИ, чипсет Р45- не для игр- хватает и не жалуюсь. Если не упираться в игры, то любой даже захудалый древний четырехядерник будет нормально ,,тащить,,
проц - Intel Core i7-3930K CPU 3.20GHz
ОЗУ - 40Гб (DDR 3)
видюха - GTX 1080Ti (самый молодой элемент системы, покупал в 2017-м вроде)
За все время использования этой сборки, единственная игра, с которой были косяки - Киберпук 2077, но я говорю про пиратку в день выхода.
Она мне кажется тогда вообще ни у кого нормально не работала. Но не смотря на это, игру прошел всю, в разрешении 1280x1024 при 30-40 fps.
Разумеется без трассировки лучей, сглаживаний и прочего.
Сейчас я в играх только тени, световые эффекты и сглаживание понижаю, и все идет на ура в 2к разрешении.
Ох уж эти времена высоких технологий. А ведь были времена когда для улучшения производительности приходилось подрубать файл подкачки при нехватке озу, чтобы игра нулевых не тормозила.
Оперативку подкупить не судьба? Я в 1997 даже студентом докупал, не сильно экономя на бутербродах
@@Ivan_dzn Когда у меня был свой пк я и оперативу докупил и процессор поменял, а позже с нуля собрал. А когда был студентом играл на старом пентиуме что стоял в съёмной квартире.
@@Ivan_dznу меня и сейчас 20гб подкачки стоит на ссд 😂
пф, я HL2 в год выхода, на 2Гб HDD ставил, на котором еще XP жила, приходилось удалять почти все карты, пока игра с диска устанавливалась, а потом проделывать данную процедуру еще несколько раз, удаляя уже пройденные. Еще и включать сжатие ntfs, вырезать из XP всякие мануалы, чтобы съэкономить хотя бы 200MB. На неделе раза 3 порой приходилось ось переставлять, когда в процессе экспериментов вырезал, что-то системное. И да, инета в то время еще не было у нас.
купить HDD хотя бы на 40Гб было пределом мечтаний.
@@koi-157c8 я тогда софт имел на дисках, а игры скачивал в местных компьютерных клубах. Обновление драйверов и операционки было невозможным, ключи для антивируса перекидывались флешкой у знакомых. Интернет появился позже и это был 3g usb модем выброшенный через usb кабель за окно. Тогда был тариф ночной безлимит и игры скачивались и удалялись сразу после прохождения. С накопителем мне повезло это был Western digital на 80гб и это было очень даже много т.к. игры в основном весили от 200мб до 6гб. Позже мне достался хард от Xbox 360 от 2004г.в. который был установлен как дополнительный, но блок питания не тянул 2 харда и дисковод, по этому пришлось ставить второй блок чисто для дисковода, вентиляторов и доп харда иначе система тормозила от подгрузки болванки
Собирай! ретро в тренде :) за одно круто бы сравнить с топовым PIII tualatin на одинаковой частоте в 1 ГГц он должен порвать P4
Тогда конечно придется П4 даунклокнуть, а это уже как то не честно, архитектуры то разные.
Чего там крутого, это было модно в 2002 ГОДУ карл!!
60fps - абсолютно комфортный показатель, в отличии от 30, но даже разницу между 60 и 90 очень легко заметить, а вот разницу между 90 и 120(да даже 144) уже намного сложнее.
есть такое, я сколько раз проверял, отключу счётчик, играю и не могу понять то ли 80 ФПС то ли 120
100 проц. я гамаю на ТВ в 60 фпс с виртсинхом. У друга 120гц 120 фпс. Начинаю у него играть, сначала чувствую, что картинка шутрее, но через полчаса уже не чувствую. Дома после 120фпс чувствую слегка ватную картинку, но через полчаса опять все норм)) Если не скакать межлу 60 и 120 фпс то комфорт и там и там
@@KaijufromJpно 80 и 240 ты отличишь при наличии соответствующего монитора
60 - мало, 90 - оптимум.
Играю в гонки, меньше 120 герц управление неадекватное.
Отличный ролик, Миш! Благодарю вашу команду за интересные репортажи!
Я, честно, думал ролик Этот компьютер выпустил, вот там действительно технически информативные видео, а тут вода какая-то
этот чел с контекста вырывает тесты где якобы 12400ф такой же как 13700к XD. Но зайдя на оригинальный видос можно узреть разницу почти в 100 кадров лол)@@Z0RR0Z
Да, уважаю твой труд. Мне очень нравятся такие познавательные выпуски. Полезную информацию подаешь.
В итоге собрал новый системник на ryzen 7 7700x, все норм.
Мишаня! Не болей 💪🏼 ты красавчик! У нас ещё и ДР в один день 🤝🏼
Ты МК (Михаил Крошин), а я ПК (Павел Кудрявцев) 😂
Насчёт частоты и ядер как раз была забавная тема с крайзис. Крайтек веря что процы будут идти в большую тактовую частоту, делали край энжин больше заточеным под герцовку, а не под ядра, что подарило мем про бенчмарк с сюжетом
Как можно быть "заточенным под герцовку"?) Не существует способа оптимизировать программу под ту или иную частоту процессора. Можно только под определенное количество ядер
@@nikitf7777очень просто: они НЕ оптимизировали игру под несколько ядер и при этом сделали её довольно требовательной, с расчётом что в будущем с ростом частоты она станет как раз.
@@nikitf7777 Вообще-то можно. Раньше же так делали.
@@nikitf7777 Он это и имел в виду, только выразил другими словами. Другими словами - это производительность на ядро, но это уже совокупность факторов, не только мегагерцы решают
@@nikitf7777 Рассчёт на то что следующее поколение ядер будет быстрее. У ID software раньше была таже тактика. Разработка долгая, и разрабатывая игру на новом движке в него закладывают представления о будущем пользовательском железе. Раньше частота проца стабильно увеличивалась, и это конечно бралось в рассчёт. Первые 3 квейка на момент выхода нормально нетащило никакое железо, но оно вскоре подтягивалось, и игра выглядела офигенно на фулах.
стоит учитывать что рост 1-2-4 ядра строго x2, а вот 4-6-8 уже 50 и 33 процента соответственно. Потому и 4 ядра до сих пор тащат)
не тащят, архитектура тащит
@@costea. и это тоже.
@@DefaultName-ro6gi 4=^8 тоже 2х кратный рост если к примеру ты с i7 920 перешёл на 5700х(g)
3-6-12-24 тоже x2, фигли
Не спугни хомячков.
Ждем ролик с игровым пк из 2004!!!
Спасибо большое за интересный видос
Коммент для поддержки канала. Случайно наткнулся, видео понравилось, спасибо)
да хули толку от тебя )))
Это выходит, 8 ядерного Зиона мне на долго хватит!
С низкой частотой и однопоточной производительностью и старой архитектурой
Если бы..
к зеонам это не относится у них зачастую низкие частоты на ядро а это игры больше ценят чем многоядерность
Выкинь этот хлам
ЛЮДИ ЭТО РОФЛ
120 герц заметен при вращении камеры, это добавляет связи с игровым миром
Очень интересно будет посмотреть на старое железо в новом времени. Спасибо за годный контент.
думаю что-то до они могут, по крайней мере для работы их производительности достаточно
Смотрел на днях тест-сравнение i9-9900 и i9-13900, всё в сборке с RTX 4090 в 4К разрешении. В итоге был удивлён и озадачен, так как собирался в следующем месяце переходить именно на этот новый топ-процессор. Оказалось, что разница в FPS ничтожно мала (всё упирается в RTX 4090), а вот температура и энергопотребление 9-13900 на 20-30% выше, чем у 9-9900.
Остался я с топом 2019 года и доволен как слон :)
13600 купи
I9 9900 один из худших i9, которые выпускали интел🤡🤡🤡
@@Porosenok_miasnoy почему
@@Officerup еще бы. Проц тестится в фулл шд. А так вы тестировали видеокарту вообще-то.
Это и так было понятно, даже тест не нужен был, внатуре ты юзверь.
Спасибо за обзор, очень информативно, практически со всем согласен, кроме одного. Сам пол жизни сидел на 60гц мониторе и переходе на 120-144гц разница очень даже заметная. Я бы даже сказал что выше 144 разница уже начинает сильно уменьшаться и 240гц действительно оверкил для большинства людей. У меня старый монитор сейчас как второй стоит и реально 60гц уже глаз режет. Так что даже если выбирать 4к 60гц и 2к 120гц я выберу второе, пока не обзаведусь видюхой, способной отрисовывать на 4к 100+ кадров(в будущем думаю такие будут). И вообще советую всем адептам 60 кадров которые ни разу не сидели за нормальным монитором, сходите в норм комп клуб, ради прикола оплатите пару часов и поиграйте на нормальном монике, свой вам потом захочется в окно выкинуть)
Значит ты сидел на говномониторе без фрисинка, который и дает гладкость восприятия. Глаз режет потому что рядом сравнение есть. Не зря же тесты фпс и качества картинки разделены на сайд бай сайд
Написал комментарий о том же) поддерживаю.
Есть один нюанс, дело не столько в количестве Гц, просто в 60Гц ставят отвратные матрицы (раньше потому что лучше не умели, а сейчас потому как дешево), и там время переключения пикселей на некоторых цветовых переходах может подскакивать и превращаться в 30-40Гц. А 120+Гц это другой ценовой диапазон и там матрицы которые выдают в 2+ раз лучший отклик (хотя тоже далеко не всегда дотягивают до заявленных).
на работе монитор Samsung ips 75 Гц, дома - Samsung ips 144 Гц. Оба с FreeSynk. Не вижу между ними никакой супер разницы. Но если рядом поставить старый моник на 60-75 Гц, сразу же скажу что он такое себе - может быть качество матрицы играет большую роль чем пресловутые герцы ?
Не замечаю разницу между 60гц и 144гц. Но при подключении старого железа i3 3220 gt 640 к любому из мониторов видно разницу даже с i3 10100 gtx 1650 (на i3 3220 даже в винде какие-то шлейфы и подергивания, в игре dead space 1 оригинал при одинаковых настройках с включённой вертикальной синхронизациией, 30 фпс, на новом железе все плавно и красиво. А вот на старом шлейфы и т.д. Так что думаю что разница в качестве картинки сейчас больше зависит от железа воспроизводящего эту картинку. Конечно если монитор более - менее качественный.
дело не только в отсутствии "программной необходимости"..
есть еще бюджет пространства, которое не резиновое. а увеличение кристалла - кроме прочего, увеличивает количество брака. Именно поэтому и переходят на модульный тип чипов, и все эти попытки вбахать кэш вторым ярусом.
А это разве плохо? Кэш будет ближе.
МК лучшие! Всегда с большим интересом смотрю ваши видео.
Видос просто топ,как всегда раскрыл тему отлично,прошу поднять тему архитектур: х86,х64 и почему нет х128 и далее,думаю будет многим интересно)
А смысл, x64 архитектура означает, что она 64 битная, если сравнить эту же архитектуру старого процессора и нового, они будут колоссально отличаться, поэтому x64 на данный момент означает только битность
x128 не имеет смысла, ибо на х64 уже много чего построено
А вообще инструкции в процессоре могут масштабироваться до 512бит (я всех тонкостей не знаю, я ламер)
Застой! Сейчас проблема не в железе, его хватает с головой. Проблема в фантазии разработчиков. Люди до сих пор играют в героев 3 и дело не в графике а почему?? Вот то то и оно))
согласен
Людям нравицца эмуляция трудностей в hmm3 era!!!
Видеоигры достигли своего пика в 2015-2017, с тех пор и графика сильно не развилась и геймплейных фишек новых не придумали
API DIRECTX 11 был высокоуровневым, поэтому разработчикам приходилось самим контролировать нагрузку на ядра. Звучит очень странно.
+
спасибо, как всегда очень познавательно, редко пишу комменты, можно ожидать такой же разбор только во 2 самой популярной ветке развития пк, видеокарт или там пока такого "потолка" нет ?
Действительно все мои знакомые сидят на 3D мониторах Full HD 60 кадров сек. И 4х ядерных 8 ми поточных процессорах. И даже не думают что то менять. И видеокарты от GTX1050Ti до rtx2060super.
Потому что по сей день это оптимальный вариант! Производителям процессоров главное больше денег выкачать с нас)
@@cjcyclone зато ТОПчег, интел+нвидия, ГОВНИЩЕ, которое не может НИЧЕГО
@@2008dmx_new АМД говнище, не может догнать ни по производительности ни по качеству и ремонтопригодности интел и нвидиа. i3 13100f плюс RTX3060 рулит, дешево и сердито. А вариант с i5 13600k с RTX 3080 или даже 4090 впереди планеты всей.
@@Александр-о8й7с если производительность ещё можно понять, то что значит ремонтопригодность и качество процессора? каким образом ты определяешь качество и как ремонтируешь процессоры?
Прекрасное видео с правильным выводом! Очень приятно видеть настолько логичное и правильное мнение! Спасибо, большое спасибо!
оно "прекрасное" только потому, что совпало с твоим мнением? есть тесты, где процесоры с 3 d кешем в играх 4к уделывают без кеша на 25- 50% и это не с топовыми видеокартами.
@@Aleksandr.K.A.P. Эй прохожий, проходи... © Масяня
Я на такой плате с 478 сокетом догнал до 4 гигов ОЗУ, ссд на 60 гиг поставил, видео пентиум с 2 потоками, и видео 6800 агп разъём. Мой хп просто летает. Построил машину в 22 году чтобы в 3д риппер из старых игр 3д модели вытягивать.
Добрый. Выскажу свое мнение. Сейчас нужно делать уклон в качество изготовления процессоров с усовершенствованием тех. процесса. Для лучшей стабильности их работы и повторяемости. Два одинаковых камня могут отличаться на столько, что не поймешь-это I5 или I7. Оперативка еще сырая с высокими таймингами и плохой совместимостью. Материнки нужно подтягивать в качестве и не "гнать пургу". Когда на 510 или 610 чипсете с 50 А транзисторами без радиаторов в описании I9-пора прекращать идиотский маркетинг с постоянной ценовой обдираловкой.
Помним: *_640Кб памяти хватит всем_*
Ассемблер!!! Оаоао
были абсолютно правы во всём.
Как всегда всё чётко и ясно. Спасибо!
Расскажите, а если выбирать не с игровой целью, а для видеомонтажа. Как тогда дела обстоят с ядрами и потоками?
Больше - лучше. Всё 😂
Вангую появление "безъядерных" архитектур, где в единой матрице совмещённой с большей частью функций материнки будет выделяться с распараллеливанием и синхронизацией и асинхронизацией процессов, необходимый под каждый из таковых, объём блоков под "ядра". При чём совмещатсья это будет и с озу и с т.н. мемристорами. Но этоу уже глубочайшая аппаратная революция. Все предпосылки к этому уже есть.
Ну это уже что-то близкое к квантовым ПК.
Да что ты, черт побери, такое несёшь?
Всё хорошо сейчас с процами. А в сравнении с каким-нибудь 2004 вообще отлично!
Графоний 2d действительно уже приблизился к 100% фотореализму и видяхи не сегодня завтра смогут выжать максимум fps
Топовый канал. Спасибо. Лайк
Офигенски с 6-8 ядер согласен будут доить нас до последнего. Ну жесть помню мечтал о топе i7 7700К а теперь сижу и смотрю зачем оно мне, куча аналогов).
Ага, i7 превратился в i3, чудеса
В гиперпень)
Здорово вы все показали - наглядно . многим райзен 5600 за глаза - а некоторым понты от владения нужны
ну я сейчас буду собирать себе р9 7900х 32 ддр5 6000 герц, рх7900хтх, и забуду о железе лет на 5-8 точно. в чём тут понт владения? перелажу я со сборки которой лет уже... 6.. Р52400г, 32 ддр4, рх580 8 гб. Эта сборка запускает и сейчас всё что мне нужно, но уже со скрежетом. На UE5 думаю будет больно ему работать.
Михаил Крошин, тебя приятно слушать.!!! Спасибо за инфу!!! Респект!
Очень интересная инфа, клёвая подборка и классная работа !!!
Спасибо за ролик. У меня сейчас i9 9900k и мне его хватает. Играю в BF 2042, вот там он бывает почти на полную нагружен. Недавно подумал, может сменить его? Напрягает жор в стоке, 130-160 ватт. Смотрю, а новые i5/i7/i9 в стоке 250+. И с этой мишурой в глаза, в виде "24 ядра", удивился, что основных ядер то 8! Только i9 10900 был на 10 ядер, думал по приколу собрать на нём систему, но смысла нет.
Дак интел с тех пор, по сути, и не продвинулись никуда... Без уменьшения техпроцесса значительно уменьшить потребление энергии они не смогли, и не смогут.
Отличный ролик!
Видно блоггер в теме.
Очень правильная позиция.
Согласен с вами!
Дальнейших успехов вам!
Красава. Смотрю твои ролики постоянно. Привет из Мариуполя 👍
60, 90 и 120 крайне сильно отличаются и очень легко увидеть разницу, вопрос в герцовке а не в фпс.
лол что?
на самом деле между 60 и 120 кадрами разница очень заметная( на 120-144+мониторах естественно), даже между 100 и 120 разница хорошо видна, а вот после 120 уже разницы почти нет
60 с головой хватает
@@_Hy6 для всяких дейс ган, ведьмак, вальгаллы.. конечно, для пабг, варзон.. лучше 120+гц монитор, и конечно соответствующее железо
@@_Hy6 ты хоть раз пробовал хотя бы 120гц?
@@Dshig да, в косынке 🌚
@@_Hy660 тормозящее изображение с рывками...
Я говорю как человек который участвовал в нескольких Киберспортивных конкурсах. Разница между 60 фпс и 360 есть, разница ощущается не зрением, а откликом управления. 60 герц это 8 мс. 360 герц менее 2 мс
Переходит на инстинкты , их предел как раз время отклика человека , глаз и нервной системы
Это называется input lag вообще-то.
Про восемь ядер согласен абсолютно, а вот по поводу частоты кадров нет. Герцы, как и фпс лишними не бывают и дело тут на в плавности и красоте картинки, но в воздействии на зрительный нерв и мозг вообще. Если мы субъективно не ощущаем разинцы между 60 и 120 герц, это не значит, что эту разницу не фиксирует зрительная система, которая реагирует на изменение частоты в несколько тысяч герц. Это так же как со звуком: мы не "слышим" инфразвук и ультразвук, но мозг эти колебания очень даже воспринимает. Короче, чем выше частота смены кадров, тем меньше утомляемость мозга, так что начинать говорить об этом как чисто маркетинговой уловке можно будет начинать лишь когда частота поднимется до 2000 герц.
@@titi3270 куда?
@@titi3270 Убогие жертвы ЕГЭ, вам нужно разжевывать элементарные вещи.
Попробую объяснить не понятно ТЕБЕ языке. Статичное изображение НЕ НАПРЯГАЕТ мозг, его напрягает мельтешение. Понял? Идем далее. Чем выше частота «мельтешения» (герцы, фпс и мигание источника света), тем меньше нагрузка на зрительный нерв и мозг вообще (если он есть). Понял?
Тому, кто часами работал на ЭЛТ, эти вещи объяснять не надо. После четырех часов непрерывной работы в PS2 слезы текут так, что их уже не вытираешь.
Чем выше частота смены кадров, тем меньше утомляемость не только зрительного аппарата, то ТВОЕГО тела вообще (про мозг я сознательно уже не упоминаю).
Вообще-то я не злой, но меня бесят две вещи: тупость и хамство. Если по раздельности я могу их терпеть, то в совокупности - увы.
@@titi3270 по твоему когда ты статичные картинки листаешь у тебя 1 кадр в секунду?
Одна поправка - разница между 60 и 120 ещё как заметна. Надо просто попробовать разок. А так да, чем плавнее , тем лучше, мы же живём в мире, где фпс не ограничен
Ок, а теперь вопрос из реальной жизни: какой на данный момент самый мощный+дешевый проц после которого уже не будет видно разницы?
R5 3600
Практически любые шесть ядер из последних поколений, i5 12400f или r5 5600(x). Дальше прирост практически не идёт, только по 5-8%
Благодарю за познавательное видео 👍 Процветания каналу!
Разница в двухъядерных процессорах тоже ощущалась сразу. Операционки-то уже давно были готовы к многопоточности. Поэтому одно ядро занималось всем, что связано с системой, а на другом - шла игра. Это давало ощутимый прирост производительности.
Это избавляло от затупов системы
Особенно ощущалось при записи дисков.
Даже одна win10_64 в простое тормозит в виртуалке с одним потоком, с двумя уже отзывчивей!!
С современными веб-програмистами класса Г даже 1000 ядер не хватит, чтобы просто зайти на сайт..Всё всегда висит.
постоянно крепко засыпаю пот твои ролики )) спасибо за чудный контент !!!
Очень интересно, спасибо! Но райзен 5700X это разве зен 2? Это зен 3 и мало того, в консолях не "полная" версия процессоров зен 2.
В консолях урезанный по тдп райзен 3700 .
@@gavnulina Ну я примерно это и имел ввиду, спс)
Включите рядом 60 и 120 герц - и вы заметите! Особенно на ЭЛТ! Шутка. Если серьёзно - то заметность зависит от быстроты движения в кадре (для статичной картинки хватит 0 фпс :), от наличия размытия (поэтому в кино хватает 24), а также от наличия очереди кадров (даёт инпут-лаг в 4 кадра, но хоть бы 1 блогер о нём рассказал!)
Очень отличается герцовка на больших диагоналях, особенна ультравайд. Так как микролаг кадра на 23" и 32" это севешенно разные расстояния. На 27" 60 кадров это слайдшоу после того, как привык к 165 кадрам.
Не знаю смотрел 3логию бэтмэна нолона в 60фпс имакс версии даже в 720пэ офигел от картинки в сравнении с 24фпс. А если фулл хд или 4ка, ещё круче будет. 60фпс за глаза, 120 в играх добиваться дороговато однако. В Винде, рисовалках и так будет выдавать на любой сидюхе, лишь бы Моник поддерживал развёртку в 120гц.
А этот настоящие 60 кадров или нет .
Я вот fate смотрел - там просто есть сочные аниме драки.
И мне не понравилось.
Это интерполяция больше мешает чем помогает.
Вот и спрашиваю.Так настоящие или нет?
Если настоящие,то это крута одназначно.А вот с анимцией - беда.Т.к. множество художественных хитростей завязанны на ФПС .
@@timurkantakuzin4485 Фильмы в 60 кадров это говно. Вот именно, что теряется вся художественность и смотришь как сериал из 90-х.
@@mikhailpass9349 да, 120 фпс дорого, тем более что игры оптимизируют под 4к 60, а не под 2к 120, например... 120 фпс повышают требования к процессору, а именно к быстроте на ядро, но вот беда: нам уже несколько лет поют про "куча слабых ядер норм" и "всё упрётся в видеокарту"... Но в старых играх 120 фпс достичь можно, а в новых просто включить 60.
Что значит "мучают"? 🤨
Мой Core 2 Duo до сих пор трудится (2024 год на дворе)! 💪😁👍
Назвать ВСЁ развитие PC до момента появление двух ядерных процессоров "30-летним застоем" сильное заявление 😊
Да, компьютеры до 2010-х годов устаревали за пару лет.
Билл Гейтс также говорил, что 128кбайт всем хватит на долгие годы 🤣🤣.
так и было
Не говорил он такого. 640 килобайт, вы чо?
Спасибо.Слово в слово мои мысли.Только уменьшеный техпроцесс изготовления.13700kf Жрёт много,да пофиг,но грееются...жесть.Пользуюсь много лет i7 2600к,забавно с костылями на 5100 ГГц тянет современные игры.Многопоточность оставляет желать лучшего....Если не бенчмарки,только увеличение частоты.Поставлю стакан с азотом,посмотрим))))
Ну теперь я спокоен - у меня всё норм. Я не проспал момент и пересел с 775 на 1700. Пойду спать ещё лет на 10-15 🤣
З.Ы. Со сборкой ПК на Пеньке-4 с ДДР-1 уже опоздали - Мурк сегодня это сделал 🙂
Ну, не 10 лет, но уж точно 5-6 лет хватит за глаза. Стоит только через пару лет прикупить какой нибудь 13600к и подразогнать его и всё. И то, не факт что это на производительность сильно повлияет, сейчас и ручной разгон по факту не имеет смысла, автобуст и так все соки выжимает. Особенно если ты в 2к играешь. А вот видеокарта да, это другое.
@@eluiden ну хз, у меня 11700, не к, ибо перешёл с 10400f на b560
Смотрю пишут буст до 4.9, а по факту на 1-2 ядра, на все ядра буст 4.4
Был бы как в райзене (либо к) , то можно было бы все ядра разогнать до ну хотя бы 4.9- 5.0 , а тут уже как бы 0оть какой то прирост мощей был бы, 1-3% особенно в рабочих программах
@@eluiden в бимку катаю, там машин 10 спавнишь , и смотрю у меня нагрузка на видяху уже не 100%, а под 75, и проц все соки из себя выжимает
@@eluiden Да, именно так и планирую. Сменить 12400 на 13600 и будет совсем хорошо. Плата у меня хорошая, так что потянет легко.
@@Sa300dvideo Правильный выбор) Я сам буду скоро обновлять свой 10400 на 12400, которого мне хватит за глаза и на долго. Потом можно будет и 13400 взять, когда через годик-два цена спадет. Думаю, это самый лучший вариант)
Здраво! Чуо сам много о криптовалути, али не разумем како да улажем и зарадим од тога. Потребан ми је прави приступ да улажем добре приносе у акције, криптовалуте и другу профитабилну имовину?
Вау, какав мали свет...сјајно је видети људе са Робертом Аленом м, тргујем са њим већ више од годину дана и мој трговачки портфолио је значајно порастао. То ми је променило живот, у почетку сам имао много сумњи.
Како могу да га контактирам? Веома сам заинтересован.
Ово је било од велике помоћи, хвала вам пуно
спасибо за обзор.
У меня лично четырёх ядерный проц соre i7 4790, оперативки 16 гигов ddr3, и видюхи 6 гигов, - хватает за глаза, на сегодняшний день все игры идут на Full Hd разрешении. Производительность хорошая, не вижу смысла обновляться. Монитор у меня старый 27 дюймов, HP, 2013 года выпуска, Full Hd, 60 герц всего, а картинка такая сочная, аж глаза не оторвать. Обновляться буду где то в 2026 году, сам я лично геймер со стажем.
тоже самое. 1150-ый, i7-4950HQ @ 4404 MHz (ratio 38 x 115.9/BCLK), noctua NH-D14, 24 Гб 2318 МГц 11-13-12-20-224 1T + опущенные вторичные и третичные тайминги. видеокарта GTX 1070 в максимальном разгоне. для моих задач этого конфига хватает с избытком. также специально тестировал разные современные ААА-помои, нигде никаких проблем не было, а фризов тем более, что с упором в видеокарту, что без него (низкое разрешение). люди зажрались неимоверно, особенно бесит, когда пишут/говорят, якобы 4/8 - ОФИС, аж сердце кровью обливается, мой процессор мне жалко.
я его поменяю только когда он уйдет на тот свет, даже если он перестанет тянуть что-то, так сказать "буду сидеть до тех пор, пока даже браузер не начнет тормозить"...
современное железо я терпеть не могу, и не только его, операционные системы - также. раньше был на windows 7 и 8.1, теперь из-за вынужденности перешел на обрезанную windows 10 LTSC 1809 от ув. LeX_6000.
честно говоря, тянет блевать от современных вещей, автомобилей, домов, техники: видеокарт, материнок, да даже корпусов, и также смартфонов. сейчас происходит активная деградация всего и вся, даже интерфейс ютуба отвратительный! нормальный ютуб остался в 2019 году, вечная память ему - перестал работать. телефон старичок Xiaomi Mi 6 из 2017 года, работает идеально так же, как и мой компьютер, радуя каждый день, старый добрый хороший дизайн, без "безрамочности" и дофигища камер. стоит кастом android 9.
бесит когда говорят что 4 ядра = офис, это и близко не так!
@@K961KKK спасибо.
Шикарная сборка у тебя на сегодняшний день, получше чем у меня.
@@Kai-ew3zi я на нем даже в кривой the last of us part 1 играл. нехватку видеокарты только там впервые увидел, так как даже на минималках иногда fps падал ниже 40, и это не из-за процессора, у него ещё хоть какой-то запас есть, упор именно в видеокарту. только интересный факт: на минималках эта игра выглядит даже хуже, чем более старые. допустим, AC Odyssey на высоких выглядит получше, только вот он на этой видеокарте просто летает. так что эту игру еще пилить и пилить.
@@K961KKK спасибо за поддержку.
Я до сих пор сижу на 8-ми ядерном процессоре Xeon E5 2667v4 с 32ГБ серверной DDR4 и для всех моих задач этой платформы более чем хватает.
Обновляться несколько побаиваюсь из-за высоких температур новейших процессоров, да и DDR5 не сильно впечатляет ибо моя DDR4 в 4х канале показывает не сильно меньшую пропускную способность памяти, а задержка в ns примерна та же.
ну чо ж ты в аиде свою сборочку тестишь и успокаиваешь себя. Вот запусти ааа игры с лучами и посмотри хватает тебе 30-40 фпс или нет,
Привет, брат) а у меня 2699 и 128 гб))
@@costea. ну почему же я делаю вывод только по аиде? Во всех играх фпс больше 60 кадров при том что играю в QHD разрешении, а потому нагружена видеокарта, а не процессор.
@@costea. комп, для того что бы играть, а не в виде тестить. Сижу на зеоне, и 1060 3 гига. Играю в киберпанк, на средних, 50-60 фпс.
@@АндреВяткин не пизди
*"640 КБ должно хватить всем"*
Зачётный канал...постоянно черпаю много интересного с аших рублик.
Будущее за тем, кто сможет уменьшить энергопотребление и соответственно нагрев, со всеми вытекающими плюшками
Не уменьшат. Нужна новая архитектура тогда. Полностью с 0.
@@KRPzap а это задача для нового игрока на рынке процессоров когда старички упрутся в свой максимум , выйдет новый герой какой-нибудь "квадриум" Q1-15
@@КириллКонышев-м2ы вы правы, только вот....
Не будут на новой архитектуре работать старые программы, даже линукс с виндой не запустится.
Ничего работать без адаптирования, переписки кода и портатировсния не будет. Прогресс тормозят программисты нынче.
Новая архитектура - это будет всё с нуля, ибо век х86 закончится
Говорить что разницу между 60 и 120 не заметишь - мда..
Ностальгия Спасибо М.К.
Пользуюсь i5 10400f, 16gb ОЗУ и RTX3060 12gb. Всего хватало, пока не начал заниматься разработкой, есть нехватка озу
Ну это уже не потребительская задача, а профессиональная. К счастью ОЗУ поменять проще всего с приятным приростом. Особенно на DDR4
Видюха какого бренда и температура в играх какие?
Я ещё в 2019 купил 64GB micron e-die AES про запас(289евро при курсе ниже 70), год назад неплохо разогнал, передрочил вообще все тайминги, 3733CL16
Друг всё время стебался, нахера, НЕ используется и вдруг появилась задача, для которой 32GB мало,
как говорицца сосните хуйца, экономя копейки! щас продаётся почти такая же память с индексом U4, есть вариант для богатых - samsung b-die!
У автора узкий взгляд на игры, по сути он ориентируется только на играх экшенах, но по мимо их есть еще жанр стратегий, так же весьма популярный. Наприер такие игры как серии Total War, Surviving Mars и прочие, весьма требовательны к процессору и способны загрузить и 16-ти ядерники.
Ранние тотал вары были однопоточными, и с настройками, выкрученными на полную, тормозят до сих пор
@@SteelyGlow если ты зионщик, то может и тормозит, я иногда играю в старые серии, у меня ничего не тормозит.
hearts of iron IV. Даешь 300 дивизий СССР на узком фронте.
@@kirillkozlov9238 на i7-8700k @4.8 ГГц medieval 2 тормозит, если войска по тысяче с каждой стороны и детализация/кол-во бойцов выкручены на всю
согласен с прогнозом, В далеком 2011 году купил sandu bridge 2500к , разогнал его на 4.5ггц и сменил его только в 2022 году, на более мощное решение. И сменил сенди бридж только ради того , что он перестал вывозить мой новый монитор в 4к, виде 4к начало подтормаживать. Получается скачек технологий с 1080 на 4к, меня сподвигло поменять компьютер. В данный момент сижу на райзене 5700х и я так думаю сменю его только тогда, когда пойдут уже мониторы в 8к. Ну это будет лет так через 5. Автору ролика спасибо, за проведенное время).
Я 1,5 года назад купил ryzen 5 2600 (6 ядер 12 потоков) и до сих пор мне его хватает в связке с rtx 2060 6гб и 32гб ОЗУ
1,5 года ничего не решает. Если бы ты 5-10 лет назад что-то купил и тебе хватало - был бы другой разговор
@@r-morozov 2023-2018 это 5 лет
@@MsSvech вот именно,,спустя 5 лет после выхода r5 2600 он до сих пор хорош
@@Potapkaban я от своего r7 1700 избавился только в этом году. 5,5 лет прослужил. И заменил его на 5800x3d только потому что взял себе новый видик в лице 3080ti и перешёл с фуллхд монику на wqhd..
@@r-morozov вот материнка с моим r7 1700 отслужила мне 5,5 лет, а теперь в неё же вставил 5800х3д, который простоит думаю не меньше чем ещё 5 лет. А ведь я помню как мне говорили во время покупки, что это пустая трата денег, и платформа неактуальна уже на момент выхода. Кто бы знал тогда что я не особо обламываясь просижу на ней лет 10.
Так себе заявление, что разницы между 60 герцами и 120(и о боже все если и сидят на таких чистотах, то это 144 герца) мало кто может заметить. Заметно и очень, все наши глаза замечают.
Аааа! Это старая добрая Asus p4p800-se на s478! Была у меня такая, очень долго ею пользовалась! Большее время сидела на Celeron, потому что р4 стоил нереально. И только потом, когда платы на s775 уже начали терять свою актуальность, купила с рук p4 на, 3,2GHz. Кажется, это максимальный процессор, что могла держать эта материнка. По цене обошёлся около 3-3,5 тыс руб. Счастью не было предела! 😂 По графике и результатами тестов тогда не гналась за супер шедеврами - хватало средненькой Radeon x..... xt (уже и не помню модель). Но было бы очень интересно понаблюдать за тестами игровой сборки из дня сегодняшнего. Качество игры Fallout 3 на то время меня более чем устраивало))) С приогромным удовольствием бы взглянула ещё раз. Спасибо за приятный сюрприз в начале и в конце ролика! Спасибо вам за вашу работу! ❤
Помните всякое унылое гомно, а более мощный GPU даже НЕ вспомнился, парадоксально!!
@@2008dmx_new а это вообще к чему вы сейчас? Что вспомнила, о том и написала. Значит, такой был плохой маркетинг у производителей, что не запомнила название видеокарты. Мне как-то на ваши подозрения совершенно фиолетово.
Не думал что вкусно и точка будут делать полезные видео
Я до сих пор сижу на Феноме 1090Т, и меня устраивает.
И теперь если надумаю менять железо, то буду по вашему совету покупать райзен 7700х. Зачем покупать более дорогой если разницы нет никакой.
зашел случайно, решил остаться, подписался ) понравился видос про старые ящики, помню их ) классика )
Собираю себе пекарню в 2024. Долго думал между A5 и LGA1700. Всю жизнь сидел на Intel. По началу очень даже понравилась цена и производительность AMD в гейминге. Наверное они сейчас лучшие по соотношению цена/качество именно для гейминга. Но пекарня мне нужна не для гейминга, а для работы. Запускать десятки и сотни Docker-контейнеров, поднимать тестовые сети на VirtualBox, тестить различный дистрибутивы в том же VirtualBox, писать скринкасты и стримить через OBS, монтировать видео, рендерить сцеы в Blender, моделить в Sketchup. И для всего для этого, как по мне, 13700k без видяхи будет более чем достаточно. А если решу заняться AI, тот тут уже и видяху докуплю. А в CS2 и SC2 покатать и этого сетапа вполне хватит.
Сделайте видео о подборке не дорогого железа, для видео монтажа в 4к в в программе Адобе Премьер! Очень прошу вас!
18:30 ага, только вот Directx 12 есть 12, 12.0 и 12.2. И то, что его поддерживает аж с Fermi на программном уровне никак не помогает древним картам. Скорость работы очень низка.
Клёвый канал! Все помню с процесора 66mgz! Настольгия да и только🎉
ядра конечно важны, но для игр важен кеш тот же 5800х3д для игр улет если у вас не 4080-4090, для них уже нужен 7800х3д. Да есть много мощных процессоров от Intel, но переплата за них не оправданна( они нужны для работы). В бюджетных разницы между intel и AMD нет в принципе...
Ну вот почему всё про FPS всё время? Он от цпу давно зависит вторично. Но в проц много чего упирается, установка, загрузка, например, при быстром ssd часто упирается в цпу. Это тоже во многом определяет комфорт использования игрового ПК. Вот одна из новинок делает компиляцию шейдеров, все ядра загружает и очень на долго.