С глупыми цитатами из википедий)) проц завелся из-за утечки тока на плате, он явно не понимает о чем говорит =) цитирует какой-то убогий перевод, который делался таким же человеком.
Что-то я так и не понял насколько все-таки различается производительность x86 и ARM процессоров в данный момент? Условная производительность на Ватт у ARM, я думаю выше (я в этом почти не сомневаюсь). А вот как обстоят дела с абсолютной производительностью? Apple планирует переход ноутбуков с Intel на ARM: будет ли это скачек в энергоэффективности при сохранении производительности? Или производительность будет ниже?
в теории возможно сохранение производительности. Для сравнения Apple A13 имеет схожую производительность с i3 skylake , если сделать арм хотя бы с третью энергопотребления x86 он его порвет
Как программист, скажу, что разницы нет особой. Пишут сейчас код на Java, C#, Python, JavaScript, PHP (редко С и С++). Так вот: там тебе пофиг ARM, x86-64, SIMD расширения явно не используется. Так что бизнес приложения примерно одинаково работают.
@@megachelick ага всё будет хорошо говорила КПСС распиливая сук на котором сидела, удивительно но члены КПСС не сильно то постродали, а вот люди следовавшие за ними хлебнули (большинство) горя, намек понял ;).
Десктоп на арм будет выполнять те же операции, что и айфоны с айпадами, логично же. Если все получится, у х86 появится конкурент, (но это не точно). Будем посмотреть, так сказать
Маловато информации. Историю мы и сами в википедии почитаем. Интересно, что в итоге получается быстрее: Райзен или Кортекс-А8 на миллион ядер? Что-то мне подсказывает, что современные планшеты сопоставимы по производительности с х86 процами 10 лет назад (intel core i3, amd phenom). Там где нужно что-то тяжелое варить (кодировать видео h264), x86 существенно быстрее. Но для офисных делишек современных АРМ по факту вполне хватает
Сейчас это advanced risc machines Так же во всех спецификациях на айфоны 2г и 3г указаны что там стоят чипы Самсунг , не помню модель может вы имели ввиду что там использовались чистая архитектура арм, а позже модифицированая самим самсунгом ?
Больше бы информации, как эпл реализует проект по переходу на ARM архитектуру. Предположения как будут выглядеть процессоры. Как у них будут решать вопрос производительности на ядро? Они сделают много ядер, смогут ли они их реализовать?
Если не пишешь на ассемблере, то какая разница кто будет раскладывать сложные инструкции на более простые. Соответственно победит в конечном итоге тот кто сделает большую производительность на ватт, а это упирается в нанометры. Так что все сложности перекладываются на ПО, а элементы проца делать как можно проще дабы физики смогли мельче.
Полная и нелепая чушь. К тому же, сообщаю, никакая производительность и производительность "на ватт" никого не интересует. х86 существует не поэтому. И никакого выбора у хомячков нет.
twinkle delight очень даже интересуют. Всех. Как производителей, так и потребителей. Не в абсолютных значениях, а в результате. Чем меньше устройство сожрёт при той же производительности... ну, вы поняли.
по факту к технологиям это никак не относится, ЭТО УЖЕ ПОЛИТИКА. Да, Инвидия может по сути убить на корню всю задумку эйпл с полным переходом на арм архитектуру, но есть фантомные надежды на "антимонопольную, такую монопольную" службу США.
Ожидал больше сравнений и технических особенностей. А тут почти весь ролик из истории состоит. Даже белый халат у автора не помог добавить атмосферу "научности" :)
Еще интересно по поводу производительности графики: я не играю, но мне всегда было любопытно, на мобилках с процессорами, потребляющими вместе с графикой суммарно 3-5 Ватт идут игры, которые на десктопах требуют порядка 100 (на процессор и видеокарту). Разница в десятки раз! При этом разрешение экранов на мобилках такая же! Как так получается?
Совершенно не такое же. Детализация, количество полигонов, дальность прорисовки, разрешение текстур, антиалайзинг в мобильных версиях все это в разы урезано, но за счет маленького экраны мы это все не всегда замечаем. Если вывести изображение на более менее большой экран все станет печальненько ))) Чудес не бывает. Та же GTA на мобилках значительно топорнее.
Обычно ничего не понимаю, т. к. ем мало, а тут даже без еды с разными названиями не справился. Впрочем, ничего удивительного, уж очень замечательное интро получилось, только начнёшь смотреть и уже не оторваться.
в названии написано про отличия x86 и ARM, а весь видос про истории фирм и названий процессоров, а как дошло до отличий, то :"Вот тут CISC, а тут RISC, но про отличия в рамках этого видео я не расскажу". Ради этого стоило накручивать 15 минут хронометража и выливать кучу исторических фактов...
Как же ты милый человек, мог упустить, различие в работе с памятью (оперативной), что значительно сказывается на производительности: в частности ARM - гарвадская архитектура, где для передачи данных и комманд используется одна шина, а вот у x86 Фон-Неймоновская, где есть две шины под две задачи. Таким образом у ARM есть узкое горлышко, в виде работы с оперативкой - всё сильно упирается в производительность одной единственной шины. Qualcomm пошли по пути реализации ARM во VLIW варианте, за счёт этого удалось получить 256 битную шину и нагружать её по максиму данными в момент когда VLIW конвеер простаивает или считает 1 поток (которых к слову может быть до 4х). Поэтому вопрос не раскрыт: при прочих равных ARM явно проигрывает IBM POWER, MIPS, SPARK и RISC V по расчётной производительности (а эти архитектуры, за исключением POWER имеют более гибкие, чем у ARM условия лицензирования: SPARK - 99$ единоразово, MIPS и RISC V - бесплатно, без отчислений совсем). Поэтому переход Apple на собственные ARM процессоры - это исключительно вопрос маркетинга и имиджа, дескать: мы сильные и независимые и процессоры у нас свои. Даже если эти процессоры будут обладать некой производительностью, их производительно на ватт (как показала практика с суперкомпутерами, в частность с хвалённым Fujitsu), будет аналогичной решениям от Intel.
В школу сходи, для начала, а уже после неси херню. Никаких "гарвадская"/"Фон-Неймоновская" и прочей чуши не существует. Это всё базворды уровня начальной школы. Как и не существует никаких шин. Давай я тебе открою тайну. Никакие вычисления с памятью оперативной не работают, ядро имеет доступ только в l1. l1 и в arm и в x86 и везде - разделён на два типа. На самом деле никакого разделения, конечно же, нет. Это два отдельных кеша, просто они оба первого уровня - т.е. память, единственно доступная ядру. Далее, начиная от l2 - память общая, никакого разделения на код/данные не существует. И именно кеш уже связан с памятью и работает "автоматически", о том, что там в этом памяти находится - не знает и знать не может. И да, дошколёнок, никаких "битов" так же не существует. Это вообще ничего не значит. К тому же, кеш работает с кешлайнами, и вычитывает/записывает в память их. Поэтому, даже если там данные читались бы в "один поток" - это уже 256/512 бит. Насколько я помню 32байтные кешлайны в arm есть.
@@rustonelove Ну зачем же так напористо..? "...никакого разделения, конечно же, нет. Это два отдельных..." - что за дуализм мысли, я вас спрашиваю? "никаких "битов" так же не существует" - а сдвиговые команды CPU разве не с битами работают?
Я так и не понял - на арм будет многозадачность х86, живой оконный режим или будет что-то типа Samsung Dex с замирающими и вечно выгружаемыми из памяти окнами? Или Эпл приучит людей, что многооконность это зло, монопольное потребление ресурсов приложением в фокусе - единственный верный путь?
Это не важно, смысла в этой информации нет. Важны только характеристики процессора, мы покупаем производительность, а не техпроцесс, вон у райзена 7нм и не шибко это ему помогло бы если бы не новая архитектура.. да и так едва догнал интеловские 22-32нм.. потом правда обогнал в конечном продукте за счёт количества ядер но это уже совсем другая история.
@@МихаилСпесивцев-ь9э У AMD производительность на ядро почти такая-же, как и на интеле, даже при условии более низких частот на AMD. Так что тут не только кол-во ядер зарешали.
@@markin_slava677 во сне и то на уровне Интел 22-32нм и смотря о каких конкретно АМД мы говорим 14нм или 7, зен+ или зен2.. А все тесты своих видеокарт АМД проводит только на процессорах и соответственно платфорем Интеле чем сама и признает что не имеет собственного конкурентного продукта.
Проблема в софте, все остальное неважно. Стоимость перевода очень большого количества софта очень дорого если ты 1 игрок, если все сговорились или кто-то крупный как Apple запускает цепочку, то через некоторое время 5-10 лет произойдет полное замещение архитектуры. В США это будет быстрее ввиду того что там тупо чаще покупают новую технику. Но а когда ваша новая игрушка будет только на АРМ, то придется покупать как в 00х и 10х новый компьютер.
вопрос автору- а какая разница сколько тепла выделяет десктопный процессор и сколько он потребляет если видеокарта для десктопа выделяет и потребляет в разы больше???? в чем смысл вася??
Apple Newton - не первый планшет! До него были grid, а до grid были еще более малоизвестные штуки (не помню названий, если что гляньте у Кирилла Лейфера)
2:45 Год был 78й и то была эпоха 386х. Чегобля? 386 был выпущен в 1985 и широкое распространение начал получать в 87 и позднее. Эпоха 386х пошла с появлением продуктов под 32 бита - расширители dos4gw, windows 3.x - это уже только 1990 год.
Argument600, благодарность за свежие выпуски. Нет ли идей выпустить ролик на тему методов инкапсуляции чипов? В частности, дабы раскрыть разницу между "Kirin 710" и его близнецом в другой одёжке - "Kirin 710F". Спасибо.
блин,такой ахеренный ,полезный контент делаешь. Почему бы не расширить аудиторию,видеокарты -их разбор и сравнение ,очень популярны. С удовольствием смотрел бы и эти обзоры
Просто не нужно башлять Интелу. А как будет - время покажет. Чудес не бывает. Intel на 10нм и Super FinFET может покорить 6ГГц. А потом спустится с горы и возьмёт 7нм с прибавкой частоты.
Потому что, как сказали в видео, команды в циск очень обьемные, и разбиваются логикой процессора. Нет самых низкоуровневых команд, как в риск. Т.е. нельзя сказать процессору подними яблоко и все. Таких мелких команд просто нет. Самые мелкие это: подними яблоко, иди туда, положи яблоко. А в риск возможно сказать процессору подними яблоко и все. Ими проще манипулировать. Это как лего. Циск это огромные комплексные детали, риск это блоки 1х1х1. Именно поэтому риск опасен для непроверенного софта, ибо делать то что нужно злоумышленнику гораздо легче, спектр манипуляций больше.
@@sur4349 если очень грубо: есть кодеки видео, и они делают определенные шаги (группу команд), заранее встроенные в логику проца на циск. В риск же, кодек контролирует каждую команду. Т.е. можно при открытии видео напоротся на вирус, который встроен в видео и делает вещи очень далекие от воспроизвидения видео.
Не осветил и не разжевал конкретно для практики и понимания Может ли например процессор с iPAD PRO 12,9 A12Baionic конкурировать против Intel i5? Это видео смотрят же не только академики и профи, но и обычные школьники
iPad и не должен конкурировать с ноутбукоми на i5, т.к. он по сути представляет из себя большой Айфон с частью функций от ноутбука. На новом процессоре в первую очередь выйдут Macbook и iMac 2021, вот там уже будет совершенно другой чип с кучей производительных ядер, который сможет потягаться с Интеловскими процессорами, в т.ч. по производительности встроенной графики.
Можно было без истории залить ! Тема не раскрыта , ну например в АРМ процессоре на одном кристалле могут находиться CPU+ GPU+ Северный Чипсет + Южный мост что существенно удешевляет тех процесс ! Интел только недавно дошло до этого и то с косяками от перегрева кристалла графический процессор тупо отключался !)))
Вопрос не в том возможно ли сделать десктопный АРМ проц. Вопрос в том сколько он будет стоить в сравнении с конкурентами. И что-то мне кажется что АРМ будет оверпрайс.
На ARM'е сложней программировать на ассемблере, так же сам ассемблер менее удобный. Например, в х86 команда пересылки это просто mov, а в АРМе куча разных инструкций под пересылки, в зависимости от куда и что пересылаешь. Хотя тут можно синтаксис х86 адаптировать под ARM, уверяю ассемблещикам будет легче освоить ARM. Так же х86 гораздо быстрей АРМа при одинаковой частоте и поколения процессора.
Дождались! Ждём тестов таких систем, ибо демонстрация возможностей A12Z (который по сути слегка модернизированный A12X 2018 года), которую показали Apple на презентации, даёт фору машинам с не мобильным i7 на борту. Даже немного стрёмно от того, насколько далеко процессоры Apple оторвались от индустрии
Вот именно что уже три года Эппл сидит на процессоре А12. А до этого каждый год был прирост производительности вдвое! " Вот прошло три года и я куплю новую обновлённую модель iPAD PRO 12,9 почти на том же процессоре??? Это как понимать?
Так и энергопотребление у него 15 ватт. У a13 всего 6 ватт, а у кастомного qualcomm sq 1 с той графикой, что и у a12z потребление 9 ватт. А например kingpeng от Huawei имеет 64 ядра и гораздо мощнее a12z. Так что ничего особенного, по крайней мере графика у Apple не лучше чем у AMD и qualcomm.
Не в тему, но добавь в следующую проверку боем игру mudrunner, графика на ультра, как на пк (фпс на ультра ~50 на oneplus 8) + можно анлок 90 и 120 фпс ставить.
Могут делать эти арм чипы тоже самое что и х86, или не могу, разницы 0, если для задач офисного планктона их достаточно :) интел давно мог бы сделать свою линейку процессоров на арм и продвигать ее в мобильном сегменте, но нет, они сделали атом и засрали его благополучно. Вообще, с учетом давления от амд, с одной стороны, и арм с другой интел может стать еще одной нокией. У них нет конкурентных решений на данный момент. А новый чип от эпл показывает что арм вполне годнота для полноценной системы. Амд еще чуток будет брыкаться, а за интел страшно. Хочу и надеюсь что винда последует за эпл и все перейдет на арм...это именно то, что и надо потребителям - мощь, тишина и долгое время работы от акб. Жаль только что винда так и не довела свои потуги до норм продуктов. Ведь винда для арм есть...а простимулировать переход они не смогли
Причём, оказывается Apple M1 это ещё цветочки. Ожидаются М1Х и М2, которые аж в несколько раз мощнее М1. Куда блин? М1 и так рвёт i5/i7 и иногда i9, куда ещё мощнее... Тем временем Xiaomi переводит ноуты на AMD, как и другие производители. Ryzen 5-го поколения показывает новые рекорды, а Intel нового поколения показывает тот же самый результат. Очень жалко, но похоже Intel в ж*пе)
@@pradainnov ну мощнее есть куда, как минимум по графике. + Мы говорим о мобильных чипах. А есть еще мобильные чипы повышенной производительности. Тот же 5800 от райзена для мобильных устройств. И есть десктопы. Есть куда! И жаль что опять эпл делает продукты рвущие рынок и реагируют потом на догоняющих. Хотим больше мощи дадим. Хотим немного меньше, все равно впереди будем. Нужен рывак как смог кэнон в беззеркалках, от которого эпл как бы забеспокоится
@@simplevvay сейчас такой тренд в мире, что нужно каждый год отчитываться и показывать что ты можешь. Лучше показать 5 лет по +10%, чем 1 раз 50%. Одноразово это будет выглядеть намного хуже, и засмеют, заплюют. Между Samsung S8 и S21 по сути нет отличий, кроме процессора, и камеры. Как и между iPhone X и 12. Но нужно каждый год показывать ВАУ
Помимо микроопераций существуют ещё макрооперации, которые стоят где-то посередине между первыми и инструкциями, они могут исполняться серверной частью конвейера в 1 такт. Также во фронт-энде CISC-процессора существуют особые движки (в очередях предекода и отправки) которые выполняют слияние микроопераций и мопов и ещё мультиплексоры "усредняющие" выход, ещё кэш мопов может соединять попадающие в него микроопераций, которые являются короткими инструкциями, отсеенными предсказателем, в основном, это инструкции ветвления, также применяются принцип разделения работы между декодерами - есть комплексные для очень длинных инструкций и простые, кроме того, существуют секвенсеры микрокода, которые выполняют часть работы по генерации адресов, в некоторых ARM-микроархитектурах их тоже используют; на этапе исполнения ALU CISC приспособлены под исполнение более сложного комплексного микрокода, также результаты особо длинных микропераций не записываются в регистры а попадают в мультиплексор возврата, что сокращает латентность их выполнения двукратно и разгружает блоки генерации адресов с кэшем данных, так что эти микрооперации всё ещё в несколько раз сложнее армовских и эффективность использования кэша выше. Можно ли создать такой же по производительности на ядро чип на ARM ещё и с трансляцией кода? Вполне, хотя для этого потребуется намного больше вычислительных блоков с кэшами и в конечном счёте даже производительность в однопоточных задачах может упереться в предел возможностей параллелизма на уровне инструкций (хотя это больше актуально для CISC, поэтому за многопотоком будущее и в конечном счёте SMT4 приживётся в потребительском сегменте, но не суть), да и потреблять это дело будет не меньше (если что, то вычислительные блоки занимают даже в CISC менее трети от площади ядра, тот же кэш с регистрами на шеститранзисторных ячейках - это более половины площади ядра, так что процессор на ARM со схожей производительностью при трансляции кода может быть ещё больше и прожорливее, вероятно, в Apple произвели глубокую модификацию конвейера ядер и добавили новых блоков для критического уменьшения места в кэш-памяти, занимаего микрооперациями).
@@ИванИванов-ъ4м9с Там полный шуе-активизм. Услышал где-то базворды и нагенерил шизофазии. Там в первой же потуги он перепал уопы(микроопарации) и micro-fusion/macro-fusion.
Что-то коротковато для рубрики "тяжёлый контент". Даже чай попить не успеешь.
Виноват
Залпом чай пец
Надо скорость 0,5 ставить
@@argument600 про особенности архитектуры хоть пару слов бы, а то ролик на вовсе дебилов рассчитан.
@@dartnihilus Да. несерьёзный ролик. Обзорный.
Увы но это не сранение архитектур , а просто история архитектур!
Всё равно интересно и познавательно, но да, ты к сожалению прав🤷🏼♂️
это пища для размышления браток.
@@xasthured7074 но не сравнение..
С глупыми цитатами из википедий)) проц завелся из-за утечки тока на плате, он явно не понимает о чем говорит =) цитирует какой-то убогий перевод, который делался таким же человеком.
@@xswwsxzaqqaz просто у кого-то случилась утечка серого вещества.
Это не тяжелый контент, так чисто современный инди-рок)) Тарелка с едой только наполовину съедена) За труды и понятное объяснение кончено спасибо
Кончено
так даже аппетит появился под столь информативный контент))
потрачено, спасибо
Блин, зашёл посмотреть про особенности архитектуры (логики, устройства питания, какие блоки на кристалле есть....) а проучил урок истории. Мдэ.
Да ты жив!
Как я съел свою гречу и не понял:сыт я или нет, так и про все эти процы и архитектуры🕵
Спасибо, не заметил как время прошло, хорошо раскладываешь!
Почему тяжёлый контент перестал быть тяжёлым?
Считай, что ты подкачался за это время)
@@AmbiguityCaptive ну чё, нужно тяжелее , пойду на оверклокерс
@@antagonistofmystory надеюсь, что это сейчас был сарказм)
@@AmbiguityCaptive абсолютный)
Возможно после всего, что мы видели до этого, мы стали умнее?
Что-то я так и не понял насколько все-таки различается производительность x86 и ARM процессоров в данный момент?
Условная производительность на Ватт у ARM, я думаю выше (я в этом почти не сомневаюсь). А вот как обстоят дела с абсолютной производительностью?
Apple планирует переход ноутбуков с Intel на ARM: будет ли это скачек в энергоэффективности при сохранении производительности? Или производительность будет ниже?
Хромбуки будут делать :)) с платной подпиской на все
если серверные arm на cpuboss есть, то это ответит на твой вопрос
@@sokol-cool Серверные ARM - это какие?
в теории возможно сохранение производительности. Для сравнения Apple A13 имеет схожую производительность с i3 skylake , если сделать арм хотя бы с третью энергопотребления x86 он его порвет
Как программист, скажу, что разницы нет особой. Пишут сейчас код на Java, C#, Python, JavaScript, PHP (редко С и С++). Так вот: там тебе пофиг ARM, x86-64, SIMD расширения явно не используется. Так что бизнес приложения примерно одинаково работают.
Ииии? Апл перейдёт и что??? Каков прогноз? Что нас ждёт? Какие задачи будут решать десктопные ARM? Что будет с x86?
всё будет хорошо
@@megachelick ага всё будет хорошо говорила КПСС распиливая сук на котором сидела, удивительно но члены КПСС не сильно то постродали, а вот люди следовавшие за ними хлебнули (большинство) горя, намек понял ;).
Я не понимаю зачем ты пишешь сюда такие вопросы
Десктоп на арм будет выполнять те же операции, что и айфоны с айпадами, логично же. Если все получится, у х86 появится конкурент, (но это не точно). Будем посмотреть, так сказать
@@e_kad К этому времени вырастят поколение, которое будет грязным пальцем пальцем тыкать в 27" монитор, интерактив, ёпта!
очень мило у Вас получается шепелявить иногда или путать звуки букв ^_^ за видео спасибо
Спасибо за контент, всегда приятно посмотреть и послушать.
Маловато информации. Историю мы и сами в википедии почитаем. Интересно, что в итоге получается быстрее: Райзен или Кортекс-А8 на миллион ядер? Что-то мне подсказывает, что современные планшеты сопоставимы по производительности с х86 процами 10 лет назад (intel core i3, amd phenom). Там где нужно что-то тяжелое варить (кодировать видео h264), x86 существенно быстрее. Но для офисных делишек современных АРМ по факту вполне хватает
Всё понравилось, спасибо за чёткий доклад, ребята! ) Теперь хоть какая-то ясность в терминологии.
Сейчас это advanced risc machines
Так же во всех спецификациях на айфоны 2г и 3г указаны что там стоят чипы Самсунг , не помню модель может вы имели ввиду что там использовались чистая архитектура арм, а позже модифицированая самим самсунгом ?
Плюсанул за историю и фотки архипроцов, сам с 386-го сижу за пнями, а до них на ZX-спектруме :-)
Гроб уже купил?
Причём здесь тяжёлый контент? Настолько интересно, захватывает концентрированностью годноты и доступностью изложения, браво)
Жаргон вроде «камень» и «яблоко» режет слух. Кажется, два раза повторить слово «apple» в соседних предложениях - не так уж и ужасно.
Больше бы информации, как эпл реализует проект по переходу на ARM архитектуру. Предположения как будут выглядеть процессоры. Как у них будут решать вопрос производительности на ядро? Они сделают много ядер, смогут ли они их реализовать?
Об этом мы узнаем совсем скоро... Видос был не об этом.
@@vertigo093i если бы видос был об этом, я бы этого не просил.
Если не пишешь на ассемблере, то какая разница кто будет раскладывать сложные инструкции на более простые. Соответственно победит в конечном итоге тот кто сделает большую производительность на ватт, а это упирается в нанометры. Так что все сложности перекладываются на ПО, а элементы проца делать как можно проще дабы физики смогли мельче.
Полная и нелепая чушь. К тому же, сообщаю, никакая производительность и производительность "на ватт" никого не интересует. х86 существует не поэтому. И никакого выбора у хомячков нет.
@@rustonelove поговорим через пять лет)))
twinkle delight очень даже интересуют. Всех. Как производителей, так и потребителей. Не в абсолютных значениях, а в результате. Чем меньше устройство сожрёт при той же производительности... ну, вы поняли.
@@rustonelove подсказка: nvidia купила arm и будет разрабатывать свой cpu....
БЕСКОНЕЧНАЯ ГОДНОТА!!! 😎👍
Как вся жизнь перед глазами промелькнула за 15 минут!
Кто зашел посмотреть видео на фоне покупики NVIDIA компании разработчиков ARM?
по факту к технологиям это никак не относится, ЭТО УЖЕ ПОЛИТИКА. Да, Инвидия может по сути убить на корню всю задумку эйпл с полным переходом на арм архитектуру, но есть фантомные надежды на "антимонопольную, такую монопольную" службу США.
+
@@retrest1119 зачем убивать если можно продавать
Не очень понятно почему это еще не сделал Apple.
Ожидал больше сравнений и технических особенностей. А тут почти весь ролик из истории состоит. Даже белый халат у автора не помог добавить атмосферу "научности" :)
Контент то может быть и был, но где его тяжесть?
Пожалуй лучший выпуск по процессорам
Еще интересно по поводу производительности графики: я не играю, но мне всегда было любопытно, на мобилках с процессорами, потребляющими вместе с графикой суммарно 3-5 Ватт идут игры, которые на десктопах требуют порядка 100 (на процессор и видеокарту). Разница в десятки раз!
При этом разрешение экранов на мобилках такая же!
Как так получается?
Детализация, куча дополнительных фоновых процессов, на мобилах нет той же скайрим - не потянет столько операций, а вот свиней кидать, нормально)))
Ну ГТА есть на мобилки и многие другие порты
@@lexlutor1325 ps2: цп 300мгц(техпроцес 180нм), 32озу, гпу 147мгц 4мб. И тоже трешку, VC и SA запускает)
Совершенно не такое же. Детализация, количество полигонов, дальность прорисовки, разрешение текстур, антиалайзинг в мобильных версиях все это в разы урезано, но за счет маленького экраны мы это все не всегда замечаем. Если вывести изображение на более менее большой экран все станет печальненько ))) Чудес не бывает. Та же GTA на мобилках значительно топорнее.
Какая какая утечка? Уверен, что питание "просочилось" через защитные p/n переходы ног i/o в режиме input.
С 2008 i3 apple используют? I9 тоже не припомню тех лет.
Обычно ничего не понимаю, т. к. ем мало, а тут даже без еды с разными названиями не справился. Впрочем, ничего удивительного, уж очень замечательное интро получилось, только начнёшь смотреть и уже не оторваться.
в названии написано про отличия x86 и ARM, а весь видос про истории фирм и названий процессоров, а как дошло до отличий, то :"Вот тут CISC, а тут RISC, но про отличия в рамках этого видео я не расскажу". Ради этого стоило накручивать 15 минут хронометража и выливать кучу исторических фактов...
"КвалЬкомм" аж ухо режет
Зато верное прочтение💪
Как же ты милый человек, мог упустить, различие в работе с памятью (оперативной), что значительно сказывается на производительности: в частности ARM - гарвадская архитектура, где для передачи данных и комманд используется одна шина, а вот у x86 Фон-Неймоновская, где есть две шины под две задачи. Таким образом у ARM есть узкое горлышко, в виде работы с оперативкой - всё сильно упирается в производительность одной единственной шины. Qualcomm пошли по пути реализации ARM во VLIW варианте, за счёт этого удалось получить 256 битную шину и нагружать её по максиму данными в момент когда VLIW конвеер простаивает или считает 1 поток (которых к слову может быть до 4х). Поэтому вопрос не раскрыт: при прочих равных ARM явно проигрывает IBM POWER, MIPS, SPARK и RISC V по расчётной производительности (а эти архитектуры, за исключением POWER имеют более гибкие, чем у ARM условия лицензирования: SPARK - 99$ единоразово, MIPS и RISC V - бесплатно, без отчислений совсем). Поэтому переход Apple на собственные ARM процессоры - это исключительно вопрос маркетинга и имиджа, дескать: мы сильные и независимые и процессоры у нас свои. Даже если эти процессоры будут обладать некой производительностью, их производительно на ватт (как показала практика с суперкомпутерами, в частность с хвалённым Fujitsu), будет аналогичной решениям от Intel.
В школу сходи, для начала, а уже после неси херню. Никаких "гарвадская"/"Фон-Неймоновская" и прочей чуши не существует. Это всё базворды уровня начальной школы. Как и не существует никаких шин.
Давай я тебе открою тайну. Никакие вычисления с памятью оперативной не работают, ядро имеет доступ только в l1. l1 и в arm и в x86 и везде - разделён на два типа. На самом деле никакого разделения, конечно же, нет. Это два отдельных кеша, просто они оба первого уровня - т.е. память, единственно доступная ядру.
Далее, начиная от l2 - память общая, никакого разделения на код/данные не существует. И именно кеш уже связан с памятью и работает "автоматически", о том, что там в этом памяти находится - не знает и знать не может.
И да, дошколёнок, никаких "битов" так же не существует. Это вообще ничего не значит. К тому же, кеш работает с кешлайнами, и вычитывает/записывает в память их. Поэтому, даже если там данные читались бы в "один поток" - это уже 256/512 бит. Насколько я помню 32байтные кешлайны в arm есть.
@@rustonelove Ну зачем же так напористо..? "...никакого разделения, конечно же, нет. Это два отдельных..." - что за дуализм мысли, я вас спрашиваю? "никаких "битов" так же не существует" - а сдвиговые команды CPU разве не с битами работают?
Я так и не понял - на арм будет многозадачность х86, живой оконный режим или будет что-то типа Samsung Dex с замирающими и вечно выгружаемыми из памяти окнами? Или Эпл приучит людей, что многооконность это зло, монопольное потребление ресурсов приложением в фокусе - единственный верный путь?
@RetroToaster да, точно, про распбери я и забыл. Тогда всё ок.
Спасибо за труды!
Ну ведь профессионально и дрходчиво доносишь информацию, сам материал качесвенный и интересный. Почему мало роликов?
Переводить долго и сложно. ;-)
Ты живой!
Запропал на месяц, так что у меня уже борода расти перестала без тяжёлого контента... Не надо так больше)
Зря не сказал о том что 10нм интела равны 7нм у тсмц,Самсунга. Их немного по разному измеряют компании.
Это не важно, смысла в этой информации нет. Важны только характеристики процессора, мы покупаем производительность, а не техпроцесс, вон у райзена 7нм и не шибко это ему помогло бы если бы не новая архитектура.. да и так едва догнал интеловские 22-32нм.. потом правда обогнал в конечном продукте за счёт количества ядер но это уже совсем другая история.
@@МихаилСпесивцев-ь9э У AMD производительность на ядро почти такая-же, как и на интеле, даже при условии более низких частот на AMD. Так что тут не только кол-во ядер зарешали.
@@markin_slava677 во сне и то на уровне Интел 22-32нм и смотря о каких конкретно АМД мы говорим 14нм или 7, зен+ или зен2.. А все тесты своих видеокарт АМД проводит только на процессорах и соответственно платфорем Интеле чем сама и признает что не имеет собственного конкурентного продукта.
@@МихаилСпесивцев-ь9э Intelboy detected!
@@markin_slava677 amdboy detected!
Проблема в софте, все остальное неважно. Стоимость перевода очень большого количества софта очень дорого если ты 1 игрок, если все сговорились или кто-то крупный как Apple запускает цепочку, то через некоторое время 5-10 лет произойдет полное замещение архитектуры. В США это будет быстрее ввиду того что там тупо чаще покупают новую технику. Но а когда ваша новая игрушка будет только на АРМ, то придется покупать как в 00х и 10х новый компьютер.
вопрос автору- а какая разница сколько тепла выделяет десктопный процессор и сколько он потребляет если видеокарта для десктопа выделяет и потребляет в разы больше???? в чем смысл вася??
Короткий, но очень насыщенный тяжёлый контент. Как всегда спасибо за него
Маловато, требуем продолжение банкета!
Apple Newton - не первый планшет! До него были grid, а до grid были еще более малоизвестные штуки (не помню названий, если что гляньте у Кирилла Лейфера)
Дружище, я так и не понял, смогут ли современные процессоры из смартфонов потянуть гта вайс сити, которая в свое время тормозила у меня на компе?
Как ты во всём этом разобрался ? Я имею ввиду в историческом плане основании и продажи компания и лицензий.
Перевод же! Не он сам, увы, разбирался.
Спасибо. Всё как мы любим - заставка с тяжёлым, хардкорным контентом и белый халат
2:45 Год был 78й и то была эпоха 386х. Чегобля? 386 был выпущен в 1985 и широкое распространение начал получать в 87 и позднее. Эпоха 386х пошла с появлением продуктов под 32 бита - расширители dos4gw, windows 3.x - это уже только 1990 год.
ARM в серверном сегменте?
посмотри на топ500 за июль 2020 :)
Вы наверно ошиблись или оговорились 2:45 , в 1978 году i 386 еще и близко не было.
Почему в ARM значительно больше транзисторов в сравнении с х86? Почему тогда нет большей производительности?
Tak yestj zhe
Argument600, благодарность за свежие выпуски.
Нет ли идей выпустить ролик на тему методов инкапсуляции чипов? В частности, дабы раскрыть разницу между "Kirin 710" и его близнецом в другой одёжке - "Kirin 710F". Спасибо.
блин,такой ахеренный ,полезный контент делаешь. Почему бы не расширить аудиторию,видеокарты -их разбор и сравнение ,очень популярны. С удовольствием смотрел бы и эти обзоры
ARM будет производительние чем 86 ? или просто будет мало затратно по энергии ?
Просто не нужно башлять Интелу. А как будет - время покажет. Чудес не бывает.
Intel на 10нм и Super FinFET может покорить 6ГГц. А потом спустится с горы и возьмёт 7нм с прибавкой частоты.
В серверном сегменте арм чипы??? Это какие? Intel Xenon и AMD EPYC х86 процессоры.
Разве эти НМ не маркетинговый ход в природе своя?
Очень интересное видео!
>А в серверном сегменте ARM чипы как были, так и останутся
Оговорка? Наверно x86 имелись ввиду?
Прикольный рюкзак, ка кназывается?
Стас, ты вернулся!! Супертема, спасибо за выпуск
А где различия?? Видео не отражает название. История появления arm- вот как видео назад надо было
Когда будут тесты серии процов dimensity
Спасибо Братан!
А про эльбрус и mips чонить подобное будет в будущем?
MIPS же умер лет 20 назад вместе с SG. Чего про него рассказывать? Тут не поймут.
@@vertigo093i www.cnews.ru/news/top/2020-04-23_vladelets_arhitektury_mips
@@vertigo093i, существуют весьма неплохие современные ядра MIPS64.
Видео хороше, но на тяжёлый контент не тянет. Просто когда видишь это надпись, то ожидания завышены. Ну а вообще, видео годное! 👍
Спасибо! Как раз мой уровень - успел выпить кофе с твиксом и (прости Господи!) сигаретой. Подписка, лайк, отправлю малому.
Доктор Стас! 👍👍👍
Спасибо. Было очень интересо!
Единственная весомая разница это малое кол-во игр на арм!
В новых реалиях нужно будет пересмотреть концовку выпуска
А безопасность, почему говорят что cisc безопаснее?
Потому что, как сказали в видео, команды в циск очень обьемные, и разбиваются логикой процессора. Нет самых низкоуровневых команд, как в риск. Т.е. нельзя сказать процессору подними яблоко и все. Таких мелких команд просто нет. Самые мелкие это: подними яблоко, иди туда, положи яблоко. А в риск возможно сказать процессору подними яблоко и все. Ими проще манипулировать.
Это как лего. Циск это огромные комплексные детали, риск это блоки 1х1х1.
Именно поэтому риск опасен для непроверенного софта, ибо делать то что нужно злоумышленнику гораздо легче, спектр манипуляций больше.
@@an_angel можно конкретный пример, а то суть то понял, но не могу понять применение этой уязвимости
@@sur4349 если очень грубо:
есть кодеки видео, и они делают определенные шаги (группу команд), заранее встроенные в логику проца на циск.
В риск же, кодек контролирует каждую команду.
Т.е. можно при открытии видео напоротся на вирус, который встроен в видео и делает вещи очень далекие от воспроизвидения видео.
@@an_angel спасибо
@@an_angel Видео само себя не воспроизводит. Если какая-то ошибка при воспроизведении видео значит разработчик видеоплеера или кодека был криворукий.
Tilera и MIPS. Сделайте пожалуйста видео по этим архитектурам.
Не осветил и не разжевал конкретно для практики и понимания
Может ли например процессор с iPAD PRO 12,9 A12Baionic конкурировать против Intel i5?
Это видео смотрят же не только академики и профи, но и обычные школьники
Ну вроде же отметил, что если поднимаеть теплопакет за счет увеличения количества ядер, то может.
не может.
чем слушал, софт надо весь адаптировать под ARM
Ты плохо слушал видимо, об этом говорится на 12:30
iPad и не должен конкурировать с ноутбукоми на i5, т.к. он по сути представляет из себя большой Айфон с частью функций от ноутбука.
На новом процессоре в первую очередь выйдут Macbook и iMac 2021, вот там уже будет совершенно другой чип с кучей производительных ядер, который сможет потягаться с Интеловскими процессорами, в т.ч. по производительности встроенной графики.
эппл может может любые циферки нарисовать, через пару лет тредриперы обгонит
4:56 название StrongARM похоже производная имени ARMstrong
Nanomachines, son!
@@FaZuQ you're not a Snake, I'm not an Ocelot🤦♂️
2:50 "1978 год - эпоха 386-х". При том, что минуту назад про историю процессоров расказывал.
Можно было без истории залить !
Тема не раскрыта , ну например в АРМ процессоре на одном кристалле могут находиться CPU+ GPU+ Северный Чипсет + Южный мост что существенно удешевляет тех процесс ! Интел только недавно дошло до этого и то с косяками от перегрева кристалла графический процессор тупо отключался !)))
Тяжёлый контент
Вопрос не в том возможно ли сделать десктопный АРМ проц. Вопрос в том сколько он будет стоить в сравнении с конкурентами. И что-то мне кажется что АРМ будет оверпрайс.
Вопрос в том, где взять софт под десктопный АРМ. С х86 будут портировать до морковкиного заговенья.
@@edgarfedosov1440, perekompilirovatj?
Ну где же отличия то?
А чего про безопасность ничего не добавил?
Рад видеть!!!
Топ контент!
однозначно!!
Контент лайтовый потому, что всем бы не зашло. А так многие посмотрели. Не нойте. Лайк за труды
Для чего здесь омерзительноπдарские призвуки в фоне?
Кто знает, что за трек в конце видео? :)
Почему процы квадратные, шестиугольнын намного круче выглядят
А потом NVidia купили ARM, и теперь нужно добавить в ролик ещё полчаса истории NVidia.
Это политики. Вопрос к антимонопольной службе США. А не к технологиям.
На ARM'е сложней программировать на ассемблере, так же сам ассемблер
менее удобный. Например, в х86 команда пересылки это просто mov, а в
АРМе куча разных инструкций под пересылки, в зависимости от куда и что
пересылаешь. Хотя тут можно синтаксис х86 адаптировать под ARM, уверяю
ассемблещикам будет легче освоить ARM. Так же х86 гораздо быстрей АРМа
при одинаковой частоте и поколения процессора.
Ne proboval posmotretj na benchi M1?
А где сравнение-то?
Дождались! Ждём тестов таких систем, ибо демонстрация возможностей A12Z (который по сути слегка модернизированный A12X 2018 года), которую показали Apple на презентации, даёт фору машинам с не мобильным i7 на борту. Даже немного стрёмно от того, насколько далеко процессоры Apple оторвались от индустрии
Вот именно что уже три года Эппл сидит на процессоре А12.
А до этого каждый год был прирост производительности вдвое!
"
Вот прошло три года и я куплю новую обновлённую модель iPAD PRO 12,9 почти на том же процессоре???
Это как понимать?
Так и энергопотребление у него 15 ватт. У a13 всего 6 ватт, а у кастомного qualcomm sq 1 с той графикой, что и у a12z потребление 9 ватт. А например kingpeng от Huawei имеет 64 ядра и гораздо мощнее a12z. Так что ничего особенного, по крайней мере графика у Apple не лучше чем у AMD и qualcomm.
очень сомневаюсь насчет того, что даст фору арм процессор немобильному ш7
@@niconicodouga6755 смотря сколько ядер. 64-ядерный kingpeng от Huawei мощнее даже зеонов.
@@georgeastaldo5159 64 ядерный проц от Хуавей против зеонов? Интересно было бы сравнить его и 64 ядерного эпика и сравнить эффективность
там это, вроде инвиде покупает арм. если конечно не раздутые слухи
люблю тяжелый нудный контент)
Qualcomm до Krait еще ядро Scorpion делали для Snapdargon S1 (QSD8x50), S2, S3 (двухъядерные)
Не в тему, но добавь в следующую проверку боем игру mudrunner, графика на ультра, как на пк (фпс на ультра ~50 на oneplus 8) + можно анлок 90 и 120 фпс ставить.
Камеру бы чуть отладить, засветов много.
Весьма лайтовенько для "тяжёлого" контента.
Могут делать эти арм чипы тоже самое что и х86, или не могу, разницы 0, если для задач офисного планктона их достаточно :) интел давно мог бы сделать свою линейку процессоров на арм и продвигать ее в мобильном сегменте, но нет, они сделали атом и засрали его благополучно. Вообще, с учетом давления от амд, с одной стороны, и арм с другой интел может стать еще одной нокией. У них нет конкурентных решений на данный момент. А новый чип от эпл показывает что арм вполне годнота для полноценной системы. Амд еще чуток будет брыкаться, а за интел страшно. Хочу и надеюсь что винда последует за эпл и все перейдет на арм...это именно то, что и надо потребителям - мощь, тишина и долгое время работы от акб. Жаль только что винда так и не довела свои потуги до норм продуктов. Ведь винда для арм есть...а простимулировать переход они не смогли
Причём, оказывается Apple M1 это ещё цветочки. Ожидаются М1Х и М2, которые аж в несколько раз мощнее М1. Куда блин? М1 и так рвёт i5/i7 и иногда i9, куда ещё мощнее...
Тем временем Xiaomi переводит ноуты на AMD, как и другие производители.
Ryzen 5-го поколения показывает новые рекорды, а Intel нового поколения показывает тот же самый результат.
Очень жалко, но похоже Intel в ж*пе)
@@pradainnov ну мощнее есть куда, как минимум по графике. + Мы говорим о мобильных чипах. А есть еще мобильные чипы повышенной производительности. Тот же 5800 от райзена для мобильных устройств. И есть десктопы. Есть куда! И жаль что опять эпл делает продукты рвущие рынок и реагируют потом на догоняющих. Хотим больше мощи дадим. Хотим немного меньше, все равно впереди будем. Нужен рывак как смог кэнон в беззеркалках, от которого эпл как бы забеспокоится
@@simplevvay сейчас такой тренд в мире, что нужно каждый год отчитываться и показывать что ты можешь.
Лучше показать 5 лет по +10%, чем 1 раз 50%. Одноразово это будет выглядеть намного хуже, и засмеют, заплюют.
Между Samsung S8 и S21 по сути нет отличий, кроме процессора, и камеры. Как и между iPhone X и 12.
Но нужно каждый год показывать ВАУ
Да и правда, про сравнения так ни чего и не услышал.
Слушать надо внимательнее.
@@jamesdigriz8937
Тут одна история больше половины ролика, что я должен был там услышать про сравнения?.
Прикольный полезный видосик)
Что за трек в конце?
Использует ли арм Биос?
Просто от на телефон не поставишь загрузочной флешкой ОСь.
И возможно ли линуксом телефон прошить? Десктопный нормальным
1) естественно может
2)линукс полноценный на некоторые телефоны портировали. Только никому это не надо
Помимо микроопераций существуют ещё макрооперации, которые стоят где-то посередине между первыми и инструкциями, они могут исполняться серверной частью конвейера в 1 такт. Также во фронт-энде CISC-процессора существуют особые движки (в очередях предекода и отправки) которые выполняют слияние микроопераций и мопов и ещё мультиплексоры "усредняющие" выход, ещё кэш мопов может соединять попадающие в него микроопераций, которые являются короткими инструкциями, отсеенными предсказателем, в основном, это инструкции ветвления, также применяются принцип разделения работы между декодерами - есть комплексные для очень длинных инструкций и простые, кроме того, существуют секвенсеры микрокода, которые выполняют часть работы по генерации адресов, в некоторых ARM-микроархитектурах их тоже используют; на этапе исполнения ALU CISC приспособлены под исполнение более сложного комплексного микрокода, также результаты особо длинных микропераций не записываются в регистры а попадают в мультиплексор возврата, что сокращает латентность их выполнения двукратно и разгружает блоки генерации адресов с кэшем данных, так что эти микрооперации всё ещё в несколько раз сложнее армовских и эффективность использования кэша выше. Можно ли создать такой же по производительности на ядро чип на ARM ещё и с трансляцией кода? Вполне, хотя для этого потребуется намного больше вычислительных блоков с кэшами и в конечном счёте даже производительность в однопоточных задачах может упереться в предел возможностей параллелизма на уровне инструкций (хотя это больше актуально для CISC, поэтому за многопотоком будущее и в конечном счёте SMT4 приживётся в потребительском сегменте, но не суть), да и потреблять это дело будет не меньше (если что, то вычислительные блоки занимают даже в CISC менее трети от площади ядра, тот же кэш с регистрами на шеститранзисторных ячейках - это более половины площади ядра, так что процессор на ARM со схожей производительностью при трансляции кода может быть ещё больше и прожорливее, вероятно, в Apple произвели глубокую модификацию конвейера ядер и добавили новых блоков для критического уменьшения места в кэш-памяти, занимаего микрооперациями).
Было проще снять полезный обучающий ролик, чем столько писать
@@ИванИванов-ъ4м9с Там полный шуе-активизм. Услышал где-то базворды и нагенерил шизофазии. Там в первой же потуги он перепал уопы(микроопарации) и micro-fusion/macro-fusion.
samson c01?