Для контекста: 5090 поизводит примерно 104 триллиона операций с float-числами в секунду (TFLOPS). ASCI White обладал производительностью в 12 TFLOPS, а у новых телефонов производительность около 3 TFLOPS
@igorseledtsov7345в 10000 раз урезать - это будет 0.3 GFLOPS fp32 - уровень самых ранних смартфонов на Android. А сегодня Qualcomm Snapdragon 8 gen 4 выдает около 3 TFLOPS fp32. Это уровень настольных видеокарт типа gtx 1650.
Да количество транзисторов уже не так сильно увеличивается. Т.к их просто невозможно делать меньше. Но сами транзисторы стали работать быстрее. И если считать эквивалентное количество транзисторов на объём то он всё ещё работает.
Компьютеры раньше занимали целую комнату , щас просто небольшой параллелепипед. Теперь же квантовые компьютеры которые тоже примерно занимают комнату , возможно что в будущем квантовые компьютеры будут домшние как сейчас
Как мне кажется, развитие «железа» реально очень сильно замедлилось. Новые процессоры и видеокарты почти не отличаются от прошлого или позапрошлого поколения по производительности.
Так реально прогресс в эффективности вычислений остановится. Не в следующем году, конечно, но в думаю в этом столетии уж точно. Даже если будут технологические инновации, то на текущей логике все равно просто упремся в предел Ландауэра, а дальше только выжимать крохи фокусами с обратимыми вычислениями
Можно смотреть на топовые супер-компы по годам. И оценивать какой год побит в новом поколении железа. Или оченить, топовый супер-комп какого года у тебя под столом / в кармане.😅
Закон Мура всё же говорит не о росте производительности, а о том, что число транзисторов на единицу площади удваивается каждые 24 месяца, а транзисторный бюджет можно потратить на новые команды (в CISC), новые ядра, дополнительные сопроцессоры, или просто сделать чип меньше физически, уменьшив энергопотребление
Воо, крутые шортсы, спасибо. Про остановку развития это на самом деле такая чушь, что диву даëшься, как многие это повторяют всерьёз. Ну допустим возьмём мы, что размер так сказать транзисторов стал минимальным и дальше уже квантовые эффекты не дают уменьшать. Но Во-первых есть же оптимизация архитектуры. Во-вторых есть кстати оптимизация кода. В-третьих, например, можно просто тупо увеличивать размеры, например сравните размер видеокарты 25 лет назад и сейчас. Ничто фундаментально не запрещает например процессоры делать тупо площадью больше, или делать слоëные бутерброды, или в конце концов сделать больше самих процессоров. Ну к примеру даже если видеокарты достигнут какого-то предела и по размеру условных транзисторов и по предела по площади, оптимальной архитектуре и тд, то вспомнят про технологию sli, с объединением двух видеокарт, или сделают чтоб их можно было полключать сколько угодно, тогда всё упрëтся только в размеры системных блоков, которые начнут расти. Вообще в будущем видится мне такая возможность - люди будут делать вместо системного блока условный шкаф вместо какой-нибудь кладовки, где кучи предельно мощных процессоров и видеокарт, и выводить это всё к себе на монитор, а так же соединить с ним все внешние устройства, к примеру смартфон, ноутбук и очки дополненной реальности, в итоге ты ходишь по городу, что-то делаешь в гаджетах, действия отправляются на твой сервак, обрабатываются и отправляются обратно, как в облачном гейминге, на самих гаджетах в основном только устройства вывода результатов, ну и некоторая вычислительная мощность на экстренный случай пропажи интернета. А так у тебя на всех гаджетах будет вычислительная мощность твоего домашнего системного шкафа.
Про развитие вычислительной мощности в GPU: Современные видеокарты сильно увеличили потребление электроэнергии.. И если ввести коэффициент мощности потребления относительно которой будет считаться производительность, то обнаружится, что прогресс реально замедлился и по факту сейчас увеличивают не эффективность, а масштабируют мощность.. Грубая аналогия близка из CPU, когда перешли от повышения частот к увеличению количества ядер
Да, толькл видеокарта не способна на часть вычислений. С плавающей запятой все прекрасно. А вот с более сложными вычислениями видеокарта не справляется из-за архитектуры. Поэтому у нас и есть разделение на cpu и gpu
Дак и так есть упор в технологии уже сейчас, физику не обманешь и нельзя бесконечно уменьшать транзисторы) 1080ti скоро будет 10 лет, а она до сих пор актуальна. Если только будет что то принципиально новое, например - квантовый компьютер.
Ну так рост по закону Мура прекратился где то в 2010 году. Давайте сравним развитие с 2015 по 2025. А потом посмотрим на то как изменились домашние ПК с 1995 по 2005
При том, что я согласен, с тем, что видимого прогресса с 2015 по 2025 мало, всё же стоит заметить, что закон Мура, ничего не говорит о производительности, он говорит только о увеличение транзисторного бюджета, а именно: каждые 24 месяца число транзисторов на единицу площади удваивается. И всё. Просто теперь при небольшом увеличении вычислительной мощности, уменьшается сильно выделяемое тепло, например, в мобильных чипах это прям заметно, то как автономность телефонов/планшетов/ноутбуков подросла
TFLOPs не совсем адекватная оценка - GPU все-такие не во все инструкции умеют. Это как сравнивать двигатели только по лошадиным силам, игнорируя крутящий момент
Так а что там на счёт закона Мура? Какое у тебя мнение? Мы реально движемся к стагнации или есть ещё пути для развития? Можно поподробнее осветить эту тему?)
Ну про закон Мура правильнее говорить так: он уже не работает в том виде, в котором сформулирован изначально. Но всем плевать, так как почти никто не вспоминает точную начальную формулировку, с которой и надо сравнивать
Поясни по каким критериям ты оценивал ту самую мощность? Просто многие в подобных сравнениях не учитывают компоновку устройства: то есть, при прочих равных, мощнее окажется более компактное устройство, так как его компоненты находятся ближе друг к другу и соответственно быстрее обмениваться информацией. То есть, если старый супер-компьютер имеет больше оперативной памяти и вычислительных ядер, каждое из которых будет мощнее ядра современного телефона, то это ещё не значит что современный телефон проиграет.
Тут правда есть нюанс. Разница архитектур. Не просто так у тебя в компьютере стоит как ЦПУ так и ГПУ. Видеокарта может обеспечивать огромную производительность, но есть нюансы. Эту огромную производительность она может обеспечивать только на определённом наборе задач. Перемножение матриц? Это да, это её любимое. Но дай ей задачу которая плохо распараллеливается и все. Пуньк-среньк.
@OnigiriScienceи да и нет. С одной стороны да, параллельность. Однако если бы ты был в курсе архитектуры ГПУ то ты бы знал, что там не просто параллельность. Там есть определённые ограничения на параллельность, в ГПУ ядра не независимые, что ещё больше суживает круг задач с которыми они могут эффективно работать. Как бы в современных ЦПУ тоже дохрена ядер и современные ЦПУ тоже на полную раскрываются только в многопоточности. Но не нужно путать многопоточность ЦПУ и ГПУ.
Кстати насчёт отсутствия развития компов. Мне кажется странным что буквально каждый год выходит новая версия процессора видеокарты и т.п кроме основных это самых оперативок и носителей типо хдд и ссд. В плане как бы сказать. С какой вероятностью они уже могли сразу сделать 5090 но решили полутать деньги на рынке и десять лет по чуть чуть улучшать карту?
Самый мощный суперкомпьютер можно просто собрать из серверов AWS или Azure или GCP. Заплатить за расчет задачи и освободить ресурсы. И это будет в разы дешевле!
Чипы модно просто делать не 2д, а 3 д. Увеличение на 1 миллиметр по z горизонтали даст тысячекратные приросты мощности. Вопрос только в производстве, но что то придумают)
@Rezedent12ну да, охлаждение и правда вопрос. Да и энергопотерм большие будут. Я просто прикинул вариант, детали над прорабатывать, ясное дело, да я и не специалист
@vasikkot4083 много что можно. Вопрос в другом. Сколько в среднем люди готовы заплатить за персональный компьютер? А уже из этого следует то что выгодно производить массово. Ведь без массовости вменяемых цен не будет.
Конечно, ничего не остановится, просто домашний ПК через 3 года будет потреблять не 120 ватт, как 10 лет назад, а 3500. А закон мура нет, работает, ага. Что будет с законом мура, когда он упрется в ограничение проводки в доме?
2000-2010 год - Примерно в 18 раз по процессорам. Примерно в 200 раз по видеокартам. 2015-2025 Примерно в 4 раза по процессорам. Примерно в 5 раз по видеокартам.
Важная поправка, которая делает озвученную информацию некорректной. При сравнении производительности важно учитывать разрядность чисел, для которых измерена эта производительность. Rtx 5090 имеет производительность 104 TFLOPS в режиме вычислений 16 и 32-битных чисел. В 64-битных вычислениях она выдает "всего лишь" 1.6 TFLOPS. Тогда как ASCI White - выдавал 12.3 TFLOPS именно в операциях с 64-битными числами. То есть, RTX 5090 почти в 8 раз слабее этого суперкомпьютера.
эм, если логически посмотреть, то процессоры то особо не развиваются… как были 4-5ггц лет 10 назад, так и остались на этом уровне. развивается архитектура, которая и дает нам эту производительность, за счет некоторых ухищрений видеокарты в чистой производительности тоже мало что имеют, каждое поколение по 10-15% чистой мощности все эти проблемы вытекают из тепловыделения, пока инженеры не решат этот вопрос, увеличение частот нам не светит
Для контекста: 5090 поизводит примерно 104 триллиона операций с float-числами в секунду (TFLOPS). ASCI White обладал производительностью в 12 TFLOPS, а у новых телефонов производительность около 3 TFLOPS
Nvidia недавно выпустили видеокарту rtx pro 6000
@АртёмПерминов недано выпустили B200 и скоро выпустят R200
Так же я с GTX 1660:
А что такое 5090?
(P.S. я знаю что такое 5090, но не вижу смысла)
сколько там у телефона? вы раз так в 10 000 то осетра урежьте
@igorseledtsov7345в 10000 раз урезать - это будет 0.3 GFLOPS fp32 - уровень самых ранних смартфонов на Android. А сегодня Qualcomm Snapdragon 8 gen 4 выдает около 3 TFLOPS fp32. Это уровень настольных видеокарт типа gtx 1650.
Когда Онигири узнал про формат Shorts:
Да да😂
Знаете, учитывая цены на видеокарты дешевле будет купить себе этот суперкомпьютер, вместе с помещением и ценой на обслуживание.
Нет
Цены на недвижимость тоже растут, так что нет
@ТатьянаГерасимова-ь1о Ничё, в гараже постоит
@MRSpace-en1tzесли условия что ЛИШЬ ТОЛЬКО В ГОРАЖ то выйдет дороже чем аренда помещения
Он жрал 3 МВт электроэнергии - как заводик или спальный микрорайон 😂
Онигири уже не остановить делать шортсы...
Онгири был у бабушки?
грубо
@artun42зато честно
И неоднократно)
Был. Есть. И будет...
...Есть
Немножечко аэробной активности и будет как новенький
давно не видел онигири, поначалу не узнал, слишком много онигири ел видимо
Есть ощущение что автор похож на Линуса Торвальдса
а я всегда когда вижу его, то сразу вспоминаю надоедливый апельсин из начала десятых
если вы не знали - это его реинкарнация
@hashslingingslaherоригинальный Линус вроде бы ещё в ряду живых)
Онигири теперь захватит RUclips shorts
Такой формат тоже очень подходит)
Ещё шортсы?!?! Мы попали в симуляцию?
Неожиданно... Шортсы?
уровень моих разговоров с чатом ГТП в 3 часа ночи
так легенда программирования перелез в шортсы
Интересные темки затрагиваются, вообще пишу коммент чтобы продвигался контент дальше, а то ведь реально интересно
Так на единицу площади чипа закон Мура уже сломался. Современные CPU и GPU стали тупо в размере увеличиваться.
И что? Помимо самой плотности, есть ещё и качество, а качество и другие технологии
Да количество транзисторов уже не так сильно увеличивается. Т.к их просто невозможно делать меньше. Но сами транзисторы стали работать быстрее. И если считать эквивалентное количество транзисторов на объём то он всё ещё работает.
@АртёмРябцов-ш1фкачество в закон Мура не входит.
Но делать чипы больших размеров становится куда сложнее и шанс брака сильно возрастает.
@Bomje_Juckпоэтому и придумали чиплеты.
Добавить 2 строчки кода для новой стрелочки ❌
Ютуб шортсы ✅
Продолжай шортсы. Это интересно
О, мой приятель - второй подбородок)
Ура мой любимый ютубер в шортах, мы кстати все еще ждем твои новые видосы.
Что мощнее видеокарта или процессор?
Круто! ❤ больше рилсов!
Мне одному кажется некорректным это сравнение? По какому конкретно параметру идёт сравнение? По количеству простейших операций за секунду?
Теперь я понимаю почему в модемные времена картинки грузились со скоростью один ряд пикселей в час
Спорт - друг человека. Особенно если работа сидячая!
хочу нейробутер с нейромясом
Неужели снова онигири...?
Ахаха, буквально неделю назад с друзьям это же говорил, но они не верили
Пока все ограничивается приделами точности обработки кремня
Лучше уж купить суперкомпуктер,нежели копить на новые топовые видюхи
Забавно
Сделай монтаж, выверяй паузы и это залетит на МИЛЛИОНЫ
Я в 2019 сидел на Пентиуме 4
Это интересный вопрос
Я думал что на рт будет реакция поинтереснее
Хотел сказать, что чел воздух вентилирует, а потом увидел коммент от него)
Красавчик
буду ставить лайки чтоб на хорошую еду хватало
Компьютеры раньше занимали целую комнату , щас просто небольшой параллелепипед. Теперь же квантовые компьютеры которые тоже примерно занимают комнату , возможно что в будущем квантовые компьютеры будут домшние как сейчас
Онигири ходит на хорошую работу и хорошо кушает
Мне уже второй твой шортс попался в ленте...
Вероятно вопрос не про мощность а про производительность...
он стал чуть больше по килограммам, заметно но норм
Как мне кажется, развитие «железа» реально очень сильно замедлилось. Новые процессоры и видеокарты почти не отличаются от прошлого или позапрошлого поколения по производительности.
1080ти которой лет 15 сейчас мощнее многих бюджетных видюх поновее.
@_molochko_9723 она 9 лет назад вышла
Так реально прогресс в эффективности вычислений остановится. Не в следующем году, конечно, но в думаю в этом столетии уж точно. Даже если будут технологические инновации, то на текущей логике все равно просто упремся в предел Ландауэра, а дальше только выжимать крохи фокусами с обратимыми вычислениями
Источник поверь брат 😢
Развитие кремниевых ПК действительно замедляется. Но зато мы стоим на пороге новых квантовых ПК.😉
Квантовые компьютеры - это про другое. Они решают другие задачи. Поэтому квантовые компьютеры не заменят ПК.
Что лучше, (новый двигатель) или какой нибудь камаз?
Я напомню, первую симуляцию черной дыры провели на компьютере с мощностью как умная зубная щётка
ухх какая же мощь нам доступна... но мы не знаем и не умеем ее применять. и смотрим так токи вместо того что бы продвигать науку и технику вперед
А с каких пор 4 раза это "немножко"?
Теория бесконечных денег... А, стоп, это не Романцев.
Работает этот закон, развитие идёт, меньше транзисторы уже не сделают конечно, но есть развитие именно в технологиях их архитектуры
про rtx 6000 pro blackwell не слышал
Можно смотреть на топовые супер-компы по годам. И оценивать какой год побит в новом поколении железа. Или оченить, топовый супер-комп какого года у тебя под столом / в кармане.😅
Закон Мура всё же говорит не о росте производительности, а о том, что число транзисторов на единицу площади удваивается каждые 24 месяца, а транзисторный бюджет можно потратить на новые команды (в CISC), новые ядра, дополнительные сопроцессоры, или просто сделать чип меньше физически, уменьшив энергопотребление
ЗаконМура Будем прошлым, когда Инженеры возьмут за основу другие материалы, архитектури, для продвижения прогресса.
Почему именно 2000 год?
Воо, крутые шортсы, спасибо.
Про остановку развития это на самом деле такая чушь, что диву даëшься, как многие это повторяют всерьёз. Ну допустим возьмём мы, что размер так сказать транзисторов стал минимальным и дальше уже квантовые эффекты не дают уменьшать.
Но Во-первых есть же оптимизация архитектуры. Во-вторых есть кстати оптимизация кода. В-третьих, например, можно просто тупо увеличивать размеры, например сравните размер видеокарты 25 лет назад и сейчас. Ничто фундаментально не запрещает например процессоры делать тупо площадью больше, или делать слоëные бутерброды, или в конце концов сделать больше самих процессоров. Ну к примеру даже если видеокарты достигнут какого-то предела и по размеру условных транзисторов и по предела по площади, оптимальной архитектуре и тд, то вспомнят про технологию sli, с объединением двух видеокарт, или сделают чтоб их можно было полключать сколько угодно, тогда всё упрëтся только в размеры системных блоков, которые начнут расти.
Вообще в будущем видится мне такая возможность - люди будут делать вместо системного блока условный шкаф вместо какой-нибудь кладовки, где кучи предельно мощных процессоров и видеокарт, и выводить это всё к себе на монитор, а так же соединить с ним все внешние устройства, к примеру смартфон, ноутбук и очки дополненной реальности, в итоге ты ходишь по городу, что-то делаешь в гаджетах, действия отправляются на твой сервак, обрабатываются и отправляются обратно, как в облачном гейминге, на самих гаджетах в основном только устройства вывода результатов, ну и некоторая вычислительная мощность на экстренный случай пропажи интернета. А так у тебя на всех гаджетах будет вычислительная мощность твоего домашнего системного шкафа.
Видеокарта ≠ компьютер
А что такое мощене. В каких цифрах и в каких задачах ?
Капец, уже Онигири скоро скуфом станет. Куда летит время😮
Братиш, у тебя метаболизм замедлился, пора начинать следить за питанием
Просто питание ускорилось
он не просто так канал назвал в честь кушанья 🤣
2 шортса готовы ещё 10 на подходе
Про развитие вычислительной мощности в GPU:
Современные видеокарты сильно увеличили потребление электроэнергии..
И если ввести коэффициент мощности потребления относительно которой будет считаться производительность, то обнаружится, что прогресс реально замедлился и по факту сейчас увеличивают не эффективность, а масштабируют мощность..
Грубая аналогия близка из CPU, когда перешли от повышения частот к увеличению количества ядер
Ты чего так заплыл?
Да, толькл видеокарта не способна на часть вычислений. С плавающей запятой все прекрасно. А вот с более сложными вычислениями видеокарта не справляется из-за архитектуры. Поэтому у нас и есть разделение на cpu и gpu
Дак и так есть упор в технологии уже сейчас, физику не обманешь и нельзя бесконечно уменьшать транзисторы) 1080ti скоро будет 10 лет, а она до сих пор актуальна. Если только будет что то принципиально новое, например - квантовый компьютер.
Вот это бегемот... 3 подбородка не тяжело таскать?
Ну так и есть посмотрите на NVIDIA. Просто какие-то Remaster своих предыдущих видеокарт выпускают и всё
Немного, раза 4
За какое время эта 5090 подберëт ключ к зашифрованному архиву?
Ну так рост по закону Мура прекратился где то в 2010 году. Давайте сравним развитие с 2015 по 2025. А потом посмотрим на то как изменились домашние ПК с 1995 по 2005
При том, что я согласен, с тем, что видимого прогресса с 2015 по 2025 мало, всё же стоит заметить, что закон Мура, ничего не говорит о производительности, он говорит только о увеличение транзисторного бюджета, а именно: каждые 24 месяца число транзисторов на единицу площади удваивается. И всё.
Просто теперь при небольшом увеличении вычислительной мощности, уменьшается сильно выделяемое тепло, например, в мобильных чипах это прям заметно, то как автономность телефонов/планшетов/ноутбуков подросла
На протяжении 20 лет…
Но тебе не 40
пара худеть. в шорты не умещаешься :D
Что значит мощнее? Автор ты что курнул? Вычислительная мощность видеокарты и суперкомпьютера мальца разная. Как насчёт суперкомпьютера на видеокартах?
согласен. В терафлопсах вроде измеряется. Одно дело пальцем в небо тыкать, другое дело конкретные цифры приводить.
Что мощнее телевизор или компьютер?
TFLOPs не совсем адекватная оценка - GPU все-такие не во все инструкции умеют. Это как сравнивать двигатели только по лошадиным силам, игнорируя крутящий момент
Сравнивать видеокарту и компьютер? Я так же могу сравнить морковь и плов
Так а что там на счёт закона Мура? Какое у тебя мнение? Мы реально движемся к стагнации или есть ещё пути для развития? Можно поподробнее осветить эту тему?)
А мне вот чё-то мало 5090 💀
Думаю брать H200
Ну про закон Мура правильнее говорить так: он уже не работает в том виде, в котором сформулирован изначально. Но всем плевать, так как почти никто не вспоминает точную начальную формулировку, с которой и надо сравнивать
А разве сравнивать разные устройства, одно универсальное, суперкомпьютер, другое, гпу некоректно? Или я что то путаю?
Поясни по каким критериям ты оценивал ту самую мощность?
Просто многие в подобных сравнениях не учитывают компоновку устройства: то есть, при прочих равных, мощнее окажется более компактное устройство, так как его компоненты находятся ближе друг к другу и соответственно быстрее обмениваться информацией. То есть, если старый супер-компьютер имеет больше оперативной памяти и вычислительных ядер, каждое из которых будет мощнее ядра современного телефона, то это ещё не значит что современный телефон проиграет.
Оно уже остановилось, вы это еще не поняли.. склады то был подзабиты и пустеют потихоньку..
Еще лет 5-7 и телефон в кармане будет мощнее самого мощногоо суперкомпьютера 2000 года 😮
Видеокарта слабее будет, потому что там всего один процесс крутится на параллелях.
Тут правда есть нюанс. Разница архитектур. Не просто так у тебя в компьютере стоит как ЦПУ так и ГПУ. Видеокарта может обеспечивать огромную производительность, но есть нюансы. Эту огромную производительность она может обеспечивать только на определённом наборе задач. Перемножение матриц? Это да, это её любимое. Но дай ей задачу которая плохо распараллеливается и все. Пуньк-среньк.
Суперкомпьютеры делают много вычислений за счет той же параллельности
@OnigiriScienceи да и нет. С одной стороны да, параллельность. Однако если бы ты был в курсе архитектуры ГПУ то ты бы знал, что там не просто параллельность. Там есть определённые ограничения на параллельность, в ГПУ ядра не независимые, что ещё больше суживает круг задач с которыми они могут эффективно работать.
Как бы в современных ЦПУ тоже дохрена ядер и современные ЦПУ тоже на полную раскрываются только в многопоточности. Но не нужно путать многопоточность ЦПУ и ГПУ.
Кстати насчёт отсутствия развития компов. Мне кажется странным что буквально каждый год выходит новая версия процессора видеокарты и т.п кроме основных это самых оперативок и носителей типо хдд и ссд. В плане как бы сказать. С какой вероятностью они уже могли сразу сделать 5090 но решили полутать деньги на рынке и десять лет по чуть чуть улучшать карту?
с вероятностью 100%. ))))
Ну так и улучшения уже не столь значительные, если сравнивать даже с периодом 10 летней давности.
Самый мощный суперкомпьютер можно просто собрать из серверов AWS или Azure или GCP. Заплатить за расчет задачи и освободить ресурсы. И это будет в разы дешевле!
Нет шансов у видеокарты...
если 2000 год современные видеокарты обогнали, то с каким годом сравнялись?
2005. Там стабильно около 20 лет разница
Чел любая видеокарта уровня или выше чем 1080 ti бьет этот супер пк по количеству tflops
Чипы модно просто делать не 2д, а 3 д. Увеличение на 1 миллиметр по z горизонтали даст тысячекратные приросты мощности. Вопрос только в производстве, но что то придумают)
Вопрос в охлаждении.
@Rezedent12ну да, охлаждение и правда вопрос. Да и энергопотерм большие будут. Я просто прикинул вариант, детали над прорабатывать, ясное дело, да я и не специалист
@vasikkot4083 много что можно. Вопрос в другом. Сколько в среднем люди готовы заплатить за персональный компьютер? А уже из этого следует то что выгодно производить массово. Ведь без массовости вменяемых цен не будет.
ну если использовать видеокарту для компиляции кода, то она соснет у любого проца. Вопрос в том, какие вы решаете задаче, а не тупо флопсы
69 лайков
Херасе ты л3 кэш нарастил смотрел тебя в 2020м
Конечно, ничего не остановится, просто домашний ПК через 3 года будет потреблять не 120 ватт, как 10 лет назад, а 3500. А закон мура нет, работает, ага. Что будет с законом мура, когда он упрется в ограничение проводки в доме?
Так прирост производительности кабздец как замедлился. 2015-2025 и близко не стоит рядом с условным 2000-2010
2000-2010 год -
Примерно в 18 раз по процессорам.
Примерно в 200 раз по видеокартам.
2015-2025
Примерно в 4 раза по процессорам.
Примерно в 5 раз по видеокартам.
Важная поправка, которая делает озвученную информацию некорректной. При сравнении производительности важно учитывать разрядность чисел, для которых измерена эта производительность.
Rtx 5090 имеет производительность 104 TFLOPS в режиме вычислений 16 и 32-битных чисел. В 64-битных вычислениях она выдает "всего лишь" 1.6 TFLOPS. Тогда как ASCI White - выдавал 12.3 TFLOPS именно в операциях с 64-битными числами. То есть, RTX 5090 почти в 8 раз слабее этого суперкомпьютера.
эм, если логически посмотреть, то процессоры то особо не развиваются… как были 4-5ггц лет 10 назад, так и остались на этом уровне. развивается архитектура, которая и дает нам эту производительность, за счет некоторых ухищрений
видеокарты в чистой производительности тоже мало что имеют, каждое поколение по 10-15% чистой мощности
все эти проблемы вытекают из тепловыделения, пока инженеры не решат этот вопрос, увеличение частот нам не светит