Это видео недоступно.
Сожалеем об этом.

Comment Apple a détruit Intel ?

Поделиться
HTML-код
  • Опубликовано: 8 дек 2020
  • linux vs unix • Linux n'est pas Unix !...

Комментарии • 777

  • @trash
    @trash 3 года назад +890

    Des fois les suggestions RUclips elles font découvrir des pépites

    • @abdinemaiga2994
      @abdinemaiga2994 3 года назад +4

      Trasheur 😄😄😄

    • @elrisitas6487
      @elrisitas6487 3 года назад +23

      Je quitte trash

    • @Ddbg774
      @Ddbg774 3 года назад +1

      Heuuuuuuuuuu stp Trash debunk ce qu'il dit mes oreilles saignent 😭😭

    • @what4401
      @what4401 3 года назад +1

      C’est donc grace un peu à vous que j’ai trouvé cette vidéo

    • @christophekatanga8910
      @christophekatanga8910 3 года назад +2

      Grave de ouf

  • @Micode
    @Micode 3 года назад +654

    Quelle masterclass

    • @cocadmin
      @cocadmin  3 года назад +63

      Omg une STAR dans les commentaires !!🌟 🌟 🌟

    • @pal-1855
      @pal-1855 3 года назад +8

      @cocadmin Non, franchement bon bouleau, je viens de découvrir cette chaîne, c’est super intéressant ! Continue cocadmin !

    • @NEATHOFF
      @NEATHOFF 3 года назад +9

      Un Micode sauvage apparaît

    • @pal-1855
      @pal-1855 3 года назад +1

      @@NEATHOFF pas mal 🤣

    • @retrox4923
      @retrox4923 3 года назад

      @@cocadmin frère y a que des stars dans tes commentaires

  • @ChristopheCasalegno
    @ChristopheCasalegno 3 года назад +101

    Hello, et merci pour la vidéo. Ma petite contribution : le débat entre les architectures RISC et CISC date d'il y a bien longtemps maintenant. Chacun a des avantages et des inconvénients. Pour simplifier les architectures CISC ont des performances optimisées dans une logique "hardware", pour du RISC, les performances sont optimisées avec un focus sur le soft. Dans la pratique cela veut dire que les performances du RISC reposent sur un pari statistique de l'utilisation qui va en être fait du hardware par le logiciel.
    Les gens qui ont développé les architectures RISC sont partis des éléments statistiques qui indiquaient que 80% des programmes n'utilisaient que 20% du jeu d'instruction du CPU (oui je sais, encore le principe de Pareto...), que les instructions les plus utilisées étaient celle de chargement, de rangement et d'appel de sous-routines, que 80% des variables locales étaient des entiers et que 90% des structures complexes sont des variables globales. Enfin on avait aussi pu constater qu'on allait pas au delà de 8 niveaux d'imbrication des appels (les valeurs supérieures représentaient moins de 1% des cas rencontrés).
    De ce fait, si le programme utilisé (et Apple du coup maitrise aussi la couche logicielle de son offre) respecte ces principes : le gain est énorme. Par contre, si au lieu d'avoir principalement des entiers de différentes tailles et des nombres flottants en double ou simple précision tu te retrouves à manipuler des chaînes de caractère, des nombres complexes, des polynomes, etc. : alors les performances des processeurs RISC s'effondrent au profit du CISC.
    Du coup ce qui va faire la différence revient à la qualité et la pertinence du compilateur utilisé, puisque c'est lui qui va devoir optimiser le code en fonction de l'architecture. Plus ce dernier sera capable de trouver des stratagèmes pour "risc-er" le code, et plus il aura des chances d'être efficace sur RISC. Mais dans certains domaines, la meilleur optimisation logicielle ne peut compenser ce qui est "cablé" dans le processeur.

    • @ChristopheCasalegno
      @ChristopheCasalegno 3 года назад +20

      Du coup je rajoute concernant ta question, non je ne pense pas que les architectures CISC ne doivent s'inquiéter de la monté des architectures RISC. Les premières machines RISC sont plus vieilles que moi, même si ça s'est vraiment popularisé au début des année 1980. Pour autant j'ai adoré des machines comme les DEC Alpha ou les stations SPARC de Sun Microsystem. Mais je crois que ces 2 architectures continueront de cohabiter encore quelques décénnies avant d'être supplantées par des architectures modulaires hybrides classiques/quantiques. A suivre :) J'ai laissé un like au passage ;)

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 года назад

      Je vois pas l'avantage du CISC vraiment...
      Et non , le CISC n'a pas de performance "hardware" au contraire.
      Il y'a deux gros défaut du CISC :
      -Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Ce n'est pas pour rien qu'on ne fait plus de CISC depuis les années 90 ;)
      (Le x86 a continuer pour des raisons de compatibilité).

    • @ChristopheCasalegno
      @ChristopheCasalegno 3 года назад +9

      @@yamazakikaoru9579 : Hello, désolé mais encore une fois, et à l'image du monde tout n'est pas noir ou blanc, et bien que j'ai une préférence personnelle pour les architectures RISC (le DEC Alpha était "LA" machine de mes rêves, mais à 150.000 balles, innacessible pour moi à cette époque), le CISC dispose également d'avantages indéniables qui lui sont propres : tout dépend encore une fois des opérations à effectuer.
      Si le sujet te passionne, je t'invite à consulter cette thèse publiée à l'université du Michigan en 2017 qui est un excellent point de départ sur l'impact de l'architecture sur les performances délivrées par un processeur : scholarworks.wmich.edu/masters_theses/1519/
      Excellente soirée et bonne continuation.

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 года назад

      @@ChristopheCasalegno Je n'ai pas dit que tout est noir ou blanc , mais actuellement le CISC n'a plus aucun gros avantage .
      Je te met ici les différences :
      -Un proc RISC , c'est plus simple à faire tout en étant performant
      Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      c'est souvent 30% de transistor en plus qu'un RISC classique (tu as un microcode directement dans le core qui doit quand même reconnaître 700 instructions et faire sa conversion), ,2-3 étage en plus pour le décode.
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 se doit d’être rétrocompatible donc tu as plein de chose pas utilisé qui existe.
      Le plus flagrant est pour le "FPU" , non seulement on gère encore des float de 80 bits , mais aussi le FPU originel du x87.
      Alors que toute les x64 utilise les SSE pour les calcul flottant , donc on se retrouve avec un FPU qui existe mais qui ne sert à "rien"
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86/CISC).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Bref ce n'est pas pour rien qu'il n'y a plus de proc CISC actuellement ;)
      (Sauf le x86 qui est un mix des deux pour rétrocompatibilité )

    • @ikaztt85johnson83
      @ikaztt85johnson83 3 года назад

      je n'ai pas suivi la technologie des ordinateurs, mais je suis d'accord sur le fait que l'avenir dépend de paramètres plus complexes, et aussi de rapports investissements/bénéfices,
      Intel a la technologie RISC et ne s'en sert pas trop, je ne pense pas qu'ils soient "à la ramasse" mais qu'ils attendent
      fr.wikipedia.org/wiki/DEC_Alpha

  • @AngelDarthNet
    @AngelDarthNet 3 года назад +79

    Apple a co-develloper le PowerPC(Risc) avec IBM qui est un dérivé du Power(Risc) d'IBM , apres les Ax (Risc) de Arm , donc ils sont loin d 'etres totalement debutant dans le Risc

    • @Christian-hr7sq
      @Christian-hr7sq 3 года назад +5

      Avec IBM et Motorola...
      Le passage sous Intel a été fait car IBM arrêtait le PowerPC (fabrication et développement) seul Motorola continuait et ne pouvait pas fournir Apple.

    • @freddawin5347
      @freddawin5347 3 года назад +4

      @@Christian-hr7sq eh oui, le monde des affaires ... les PowerPC etait déjà plus puissant qu'Intel à l'époque, au vu des part de marché d'Apple, ca ne pouvait pas continuer dans ce sens ...

    • @Cardinal2Richelieu
      @Cardinal2Richelieu 3 года назад +2

      Et c’était vraiment triste qu’Apple abandonne les processeurs Risc. A l’époque cela m’avait attristé, car le x86 est vieux depuis longtemps déjà 😜. Leurs dettes technologiques est énorme aujourd’hui. Seul un acteur contrôlant toute la ligne (processeur / matériel en général / système d’exploitation / API de développement ) comme Apple pouvait tout revoir enfin ! En tous cas cela fait du bien, merci la pomme.

    • @Chris-in-Asia
      @Chris-in-Asia 3 года назад +4

      @@freddawin5347 Le PowerPC était dépassé par les puces d'intel, car IBM ne voulait pas investir seul dans le développement d'une nouvelle génération. Ils ont proposé à Steve Jobs d'investir avec eux, mais il a refusé.

    • @Chris-in-Asia
      @Chris-in-Asia 3 года назад +1

      @@Christian-hr7sq Non, Motorola avait arrêté depuis longtemps. Motorola semi conducteur n'existait d'ailleur déjà plus à cette époque, ils avait revendu à Freescale. IBM ne voulait pas investir seul dans une nouvelle génération de puces. L'ancienne génération devenait obsolète et ils ont demandé à Apple d'investir avec eux, mais ils ont refusés.

  • @philippe-lebel
    @philippe-lebel 2 года назад +11

    Ça fait 2 jours que je découvre cette chaîne. Un futur hit pour moi. Les sujets sont passionnant, originaux et bien traité. Bravo.

  • @elronn58
    @elronn58 3 года назад +82

    Excellent les explications à la "C'est pas Sorcier"

    • @Tux63
      @Tux63 3 года назад +2

      il fallait choisir entre le coca et le camion .... le choix a été vite fait 🤣😁😁

  • @Wagglepuff
    @Wagglepuff 3 года назад +124

    Tu t'es donné du mal mais ça valait le coup, c'était grave intéressant, merci pour ton contenu 👍

  • @louiscordhomme45
    @louiscordhomme45 3 года назад +22

    très bonne vidéo, je sais pas si tu compte continuer dans ce genre de format mais en tout cas j'ai trouver ca très intéressant et plutôt bien expliquer et clair.

  • @loupdanger
    @loupdanger 3 года назад +1

    Bonjour je suis ingénieur de l'Ecole des Mines de paris et je tiens à vous félicités pour la qualité du contenu fourni. Encore une fois Merci.

  • @politiquealgerie
    @politiquealgerie 3 года назад +67

    Merci pour toutes ces informations. Très bonne chaine que je viens de découvrir

    • @ROLLSKATETROTT
      @ROLLSKATETROTT 3 года назад +2

      tahia djazaaaiir

    • @user-bp6mz1gt5i
      @user-bp6mz1gt5i 3 года назад +3

      @Memes Heaven oui tahia l'djazair

    • @Flow-flop
      @Flow-flop 2 года назад

      @zakae6hdt7 :D il fais ce qui veut tu vas faire quoi?

    • @FatalBcr
      @FatalBcr 2 года назад

      @zakae6hdt7 :D Fan d’Éric zemmour 🤷‍♂️

    • @uzgar
      @uzgar 2 года назад +1

      kess sa fou là ?

  • @nidalege7416
    @nidalege7416 3 года назад +3

    Très bonne explication de vulgarisation.
    Apple avec le choix de l'architecture ARM me rappelle les moments forts de l'informatique des années 90 ou l'on avait une quantité de CPU disponible qui m'a fait révé. J'ai toujours voulu avoir un DEC Alpha qui exécutais des logiciel X86 plus rapidement que les CPU intel de l'époque.
    - ARM (RISC)sur les station Acorn très apprécié des monteurs vidéo et Intel faisait lui aussi des CPU ARM avec les Strong ARM. On trouve l'architecture dans les PlayStation 1 & 2 et les GameBoy depuis la Advance.
    - MIPS (RISC) dans les fabuleuse station de SGI que l'on retrouve maintenant dans des super calculateurs en chine et dans le monde de l'embarqué
    - POWER (RISC) que l'on a vu dans les serveurs AS400 à maintenant iSeries, dans le top 5 des super calculateur, les stations NeXT puis macs comme Be, des mod pour les Amiga et Atari et surtout dans le spatial via la NASA. Les consoles PlayStation 3, Xbox360 et GameCube
    - SPARC (RISC) de chez SUN qui est en train de mourir alors que fut un temps cette gamme de cpu était présent dans pas mal de calculateur surtout via Fujitsu. On trouve du SPARC dans l'espace via le CPU LEON pour l'ESA et quelques CPU de la NASA.
    - DEC Alpha (RISC) dans les machine du même nom. Mort après le rachat de Compact par HP.
    - IA-64 dans les CPU Itanium 1 & 2.
    ________________________________________________________________________________________________
    ARM ne fait que concevoir l'architecture logique et physique dont des licences sont vendues.
    Apple comme Qualcom eux ne prennent que la licence de l'architecture logique et conçoivent ensuite le cpu arm de zéro. (Je ne sais plus Nvidia, mais il me semble que c'est aussi partie d'une feuille blanche)
    Seul Qualcomm, Apple et Nvidia dans le monde ARM font des GPU de zéro. Si ma mémoire est bonne Samsung a un projet non concrétisé de GPU.
    Le reste est sous licence ARM avec les GPU Mali ou Imagination Technologies avec les PowerVR.
    Apple peut effectivement devenir via ses ARM un concurrent sérieux sur le marché grand publique des PC plus conventionnel sous x86-64.
    Mais j'ai des réserves. C'est la grande différence entre Apple et le PC x86. Apple est capable dans son propre marché de faire une rupture ce que le monde X86 ne peut pas pour des raisons de rétrocompatibilité. J'attend avec impatience ou Microsoft dise on arrête le x86.
    Apple est passé des CPU Motorola 68K au Power de Motorola puis IBM pour ensuite aller sur le x86 et maintenant ARM. Prochaine étape de leur émancipation, avoir une fab de semi-conducteur affin d'être intégralement autonome ?
    Et ce que tu soulignes dans la vidéo, le fait que Apple maîtrise le matériel, le kernel, l'os dans son ensemble, les compilateurs surtout Clang + LLVM et les applications font que les performances ne peuvent que être bonne. Chose que le monde Wintel (oui je suis veille) ne peux avoir du fait de l'ouverture même de la plateforme PC depuis sa création.
    Pour moi, Apple restera un marché de niche face au X86
    Concernant ARM face au x86, c'est déjà la victoire d'ARM de part le nombre de matériel tournant sous ARM : tablette, téléphone, carte de développement style Raspberry.
    Pour Intel, l'entreprise ses trop reposé sur ses lauriers, a merdé sur sa vision du futur qui en fait l'une des raisons dans le choix d'Apple de faire ses CPU pour les mac et du succès grandissant l'architecture ZEN d'AMD qui comporte une unité ARM pour la sécurité.
    ________________________________________________________________________________________________
    Dans le monde ARM c'est un bordel sans nom pour si retrouver entre les mélange CPU et SOC et les différentes versions de l'architecture.
    Pour le M1, Apple c'est basé sur la dernière version de l'architecture ARM : ARMv8.6-A (annoncé en 2019). ARM n'a pour l'instant aucun design de CPU à proposer en licence.
    Ce qui est intéressant avec l'ARMv8.6-A, ce sont les unités de calcul vectoriel et de virgules flottantes : GEMM, BFloat16, NEON qui sont comparable à ce que fait Intel avec son set d'instruction AVX-512.
    Et oui ARM est aussi tordu que le monde X86 dans l'ajout d'unité de calcul anexes. Ce qui me permet d'en arriver a ce que je voulais dire depuis le début, rien n'est plus CISC, MISC ou RISC. C'est un jolie cocktail. Même la toute dernière génération architecture RISC via le projet open sources RISC-V n'est pas si RISC que ca via ses unités de calcul vectoriel.
    Pour information, les CPU x86-64 ne fonctionne pas en interne dans ce type de jeux d'instruction gardé uniquement pour la compatibilité. Dans les CPU x86-64 il y a des unité de conversion des instruction X86-64 vers celle utilisé réellement par le CPU.
    Les jeux d’instruction comme le SSE ou l'AVX ne sont pas x86, ses unité ont leurs propres logiques.

    • @cocadmin
      @cocadmin  3 года назад +1

      Salut Nida! C'est toujours un plaisir de lire tes commentaire :)
      Microsoft on eu aussi tenter de passer a ARM avec leur dernière surface mais leur gros problème sont les performances en émulation pour rester compatible avec les programmes x86 encore majoritaire pour windows.
      Ils on l'air de faire des SoC custom avec qualcomm
      J'imagine qu'il vont s'inspirer d'Apple et continuer à pousser ARM pour windows.

    • @nidalege7416
      @nidalege7416 3 года назад

      ​@@cocadmin loin d'être si simple pour Microsoft. Intel a menacé plusieurs fois Qualcomm et Microsoft sur la propriété intellectuelle pour l'émulation X86.
      Il y a le soft App Assure qui doit aider les programmeur a la migration vers ARM. Mais en l'état actuel, si Microsoft ne bascule pas ses propres applications sur architecture ARM, ca part mal. Le mieux pour Microsoft est de copié la politique d'Apple en ayant un CPU ARM sous contrôle et Qualcomm est connu pour faire de bon SOC ARM.
      Mais je vois mal Microsoft ce créer un écho système matériel fermé comme Apple. Ca va crier de partout. Déjà chez Apple ca gueule chez les dev pour faire la migrations des applications. Je ne veux pas imaginer le bordel dans le monde du PC entre les jeux, les applis métiers, les cartes 3D, son, etc, CPU Intel et AMD qui sortent du jeux.
      Je me souviens encore de la mauvaise volonté lors du passage à Vista des fabriquant de matériels à accepter moins de liberté en mode kernel. Les fabricants de matériels ont une grosse responsabilité dans l'échec de Vista. Il y a eu aussi le cas ou Microsoft a serré la vis pour la sécurité de son OS, les éditeurs d'antivirus ont bien gueulé. Donc MS a du faire quelques pas en arrière au détriment de la sécurité.
      Apple a cet avantage de plateforme fermé ce que ne peut pas avoir Microsoft sans impact violent.
      Sur Android, Chrome Book, iPhone ou Mac, ça ne choque personne d'avoir par défaut les applications propriétaires de Google ou d'Apple. Quand on passe sous Windows qui a une logithèque libre et propriétaire conséquente, les utilisateurs trouvent un manque de liberté et cri au scandale ! J'ai toujours trouver cela ubuesque.

  • @panaf8702
    @panaf8702 3 года назад +9

    Arm n'est pas le depositaire des puces Risc. Il n'ont fait que remettre au gout du jour ce qui avait ete abandonné

    • @TheSampirat
      @TheSampirat 3 года назад +1

      Ca n'a jamais ete abandonné !

    • @CANALROBBY
      @CANALROBBY 3 года назад

      @@TheSampirat C'est vrai ça date, j'en entendais parler il y a longtemps, je crois que les stations graphiques Silicon Graphic utilisaient ce genre de processeur il me semble.

    • @DenisMauplot
      @DenisMauplot 3 года назад

      @@CANALROBBY il y a fort longtemps Apple avait avec IBM et Motorola fait les Puce POWER PC RISK sur les Power Mac en 1994 jusqu'en 2006 ou Apple est passé sous puces Intel

  • @Qyoon
    @Qyoon 3 года назад +4

    Excellent contenu , c'est travaillé , bien vulgarisé et clair.
    Vraiment une excellente, découverte.
    Du contenu de qualité, rare en Tech FR !

  • @nicolaskuntz8606
    @nicolaskuntz8606 3 года назад +4

    Première fois que je tombe sur ta chaine, je m'attendais pas à ce style de vidéo assez technique mais c'est très appréciable et intéressant. Continues comme ça !

  • @satan2k
    @satan2k 2 года назад +7

    Excellent récap, super la petite explication des pipelines ! :-)
    Je suis plus ou moins d'accord avec ton analyse, mais il faut replacer un peu tout dans son contexte. ARM est très efficace pour toutes les utilisations basiques, pour tout ce que fait Madame Michu, les 9/10 èmes des instructions x86 ne sont jamais utilisées. Par contre pour des trucs plus cossus, comme des maths, ou de la simulation, ARM montre vite ses limites. Mais comme le point fort d'ARM est sa consommation, on peut s'en permettre d'en mettre 10x plus pour gommer ce manque.
    Si AWS et consort se lancent dans ARM, c'est pour deux raisons:
    1) comme tu l'as cité, le contrôle. Quand tu achètes chez ARM, tu achètes le "blueprint". Après tu peux modifier tout ce que tu veux, ce qui n'est pas du tout le cas du X86. Seul AMD a une license pour le dévelloper. (Et ca s'est arraché aux forceps au tribunal)
    2) la consommation électrique. Quand tu as des centaines de datacenter, avoir une très grosse économie même sur le sleep, c'est une économie conséquente. Surtout quand tu peux te permettre d'étendre ("scaler") sans contraintes. Et là encore, dans 9/10 eme du temps, pour la plupart des workloads, une bonne partie des instructions x86 ne sont pas utiles.
    Pour revenir à Apple, selon moi, leur plus gros défaut dans cette approche, c'est d'avoir pas seulement viré Intel, mais aussi viré Intel ET Nvidia/Amd. Sur ARM tu n'as pas de support des GPUs comme ça l'est sur X86.
    Du coup, Apple met à la trappe tout le boulot fait sur le calcul distribué (OpenCL) ainsi que tout le calcul de rendu de scene. Je connais des graphistes / designers qui grincent des dents, car ils craignent de devoir retourner sur du Windows. (Ouais les mac pro existent encore en x86, mais le support va être bien plus court)
    Et concernant le x86, faut pas jeter le bébé avec l'eau du bain, je pense que tu es passé à côté des gros progrès de AMD qui permet par exemple 64 cores 128 threads, pour une empreinte thermique (TDP) de 250w. AMD qui, on doit le rappeler, équipe toutes les consoles de salon (la switch n'étant pas vraiment une console de salon, mais nomade), et a monté des technos pour l'accès en direct des ressources GPU -> stockage -> GPU direct sans accès processeur, ce qu'est incapable ARM vu que ce sont majoritairement des SOC :-)
    En gros pour faire court, avec son M1 et son approche, il flingue les graphistes / modelers / designers en CAD / data scientists (j'en connais) qui utilisaient du Apple. Il flingue aussi le gaming. (bon okay vu le peu de personnes qui "jouent" sur mac, mais bon ...)
    Donc, Apple a détruit Intel, ouais, enfin il a plutot abattu un cheval qui était déjà à l'article de la mort. Par contre il n'a flingué ni AMD, ni l'écosystème PC. Mis à part la hype ou bien à moins d'avoir besoin d'un appareil nomade performant, le M1 n'est pas concurrentiel. Si je compare par exemple avec mon refresh à base de 5900x, les perf sont équivalentes en single, poutrent le M1 en multi, poutrent le M1 avec la partie graphique, l'ensemble est compatible, réparable (pas de colle!), extensible et tout ça pour la moitié du prix..... Donc à part le dev ou l'IT nomade qui voyage souvent, je ne vois aucun interêt à acheter le M1, du moins pour le moment.

    • @Le-J-
      @Le-J- 2 года назад +1

      Commentaire excellent qui vient parfaitement compléter la vidéo. Merci !

    • @jeandupond7941
      @jeandupond7941 2 года назад

      Je suis d'accord, mais pour moi le mac m1 reste la meilleure alternative, consommation plutôt basse, machine polyvalente, avec le temps c'est sûr que les applications seront compatible sur m1, sans compter le prix, en suisse un Macbook air m1 coûte 880 chf, avec 880chf tu as aucunes machines avec de tel performance(fiable, très longue autonomie, os stable qui plante pratiquement jamais, très bon écran, léger, fin, et qui surchauffe pratiquement jamais et surtout le très bon support apple) en gros aucune machine fait mieux, pour moin de 880€ ,apple est devenu moin chère que les concurrents sur Windows, on vit une époque incroyable quand même

    • @satan2k
      @satan2k 2 года назад +1

      @@jeandupond7941 Effectivement, ce ne sont pas de mauvaises machines. Elles rencontrent leur public. Question prix, en Belgique, a l'écriture de mon commentaire, j'en ai eu pour 1100€ pour une machine de rêve, hors carte graphique vs 2500€ le M1 plus ou moins équivalent (avec les différences notées au dessus). Maintenant a notre époque, je conçois que le prix démentiel et inadmissible de cartes graphiques fait changer la balance. Au point de vue technique, je campe sur mon avis, mais au point de vue du coût, j'avoue que ça "devient" concurrentiel (justement parce que tristement les petits copains commencent a exagérer).
      Par contre, même si Apple a enfin fait des efforts niveau de la possibilité de réparer ses appareils, je trouve (et ce n'est que mon opinion) sa pratique générale honteuse. Réparation difficile ou impossible selon le cas, support qui se dédouane très rapidement (on a du retourner du Apple au boulot, la foire a l'empoignade...). Upgrade quasi impossible, obsolescence programmée des mises a jour OS, etc. Loin, très loin du Apple respecté et aimé de ses débuts ☹️

    • @jeandupond7941
      @jeandupond7941 2 года назад

      @@satan2k concernant les réparations ça concerne toutes les marques en général et surtout les ultra book, niveau technique je peux pas trop parler car je suis pas calé du tout sur le sujet, mais d'après les avis des gens général , ils sont tous d'accord pour dire que si tu veux un portable fiable avec lequel tu peux faire du montage, regarder des films en bonne qualité etc etc, le Macbook air reste la meilleure alternative pour l'instant, pour les modèles au-dessus (Macbook pro 14 et 16) ça je sais pas si ça en vaut la peine et si les prix sont justifiés ou pas, mais à moin de 900€ en suisse y a pas photo, aucun concurrent peut rivaliser

  • @astro.photographer
    @astro.photographer 3 года назад +3

    Super bien expliqué merci tu m’a éclairé en 24min alors que plusieurs heures de vidéo d’autre RUclipsrs tech ne le faisait pas

  • @vestoz1387
    @vestoz1387 3 года назад +1

    Pk j’ai cette vidéo que maintenant dans mes suggestions RUclips. Quel masterclass !!

  • @fridaycaliforniaa236
    @fridaycaliforniaa236 3 года назад +1

    La vache, je débarque ici par hasard après tout ce temps à baigner dans l'informatique, et ben c'est du superbe boulot ! Allez hop, abonnement immédiat ! GG l'ami... =)

  • @Wilky971
    @Wilky971 3 года назад

    Le processus de cleanage ca sous entends que l'opération prends plus de temps. Est-ce qu'il est possible lorsque qu'un ordinateur fait beaucoup d'instructions de voir une différence dans la vitesse de traitement du a cet erreur ?

  • @MDarkus3
    @MDarkus3 3 года назад +2

    J'aimerai si tu me le permet commenter quelques parties de la vidéo
    ARM vs Apple:
    - ARM ne fait que concevoir l'architecture, l'entreprise ne fabrique pas de chip. Elle vend des license d'utilisation de ses architecture processeur au autres compagnies, qui réutilise et intègre des fonctionalités supplémentaire par dessus l'architecture ARM on appelle celà des chip ASIC - Application-specific integrated circuit.
    - En 2011 ARM révèle sa nouvelle architecture ARMv8 basé sur une architecture 64-bit. Apple à été le premier à intégrer ce design dans leur produits: Apple A7 dans iPhone 5S. Dire donc que Apple à devancer ARM n'est pas faux en soit car ARM comme dit plus haut ne fabrique pas de processeur, seulement le design. Mais ce n'est pas leur rendre justice car ce sont eux les architectes de la technologie que ré-utilise apple.
    RISC vs CISC
    Opposé CISC & RISC n'est pas très productif car ces deux familles de processeur ont leur justification technique: les core RISC ne sont pas fondamentalement plus performent, tout dépend tu type de problème qu'on veux résoudre, un pipeline avec prédiction de branch, execution dans le désordre, parrallèlisme, etc ..., tout ce que fait fonctionner nos ordinateur Windows & Linux actuel, n'est possible qu'avec un jeux d'instruction complexe. De plus avec les nouvelles avancé technologique des mémoires ( MRAM, FRAM, PRAM, NRAM) la vitesse d'accès ne sera plus un problème et des architecture telle que CISC vont redevenir bien plus intéréssante que des RISC ou pour chaque instruction on LOAD depuis la RAM vers les registre processeur et inversement avec le WRITEBACK (store). Si le processeur devient capable d'opérrer directement depuis la RAM l'architecture RISC n'as plus grand d’intérêt. Il y à aussi des considérations énergétique mais je ne rentre pas dans le détail (où le RISC et moins énergivore que le CISC car pas de gaspillage de cycle, pour un nombre d’instruction donné).

  • @olivierrojo2003
    @olivierrojo2003 3 года назад +4

    Ça me rappelle mes cours d’architecture en école :) Bien résumé, bravo !

  • @YannEvn
    @YannEvn 3 года назад +8

    Je te découvre sur cette vidéo, explications super claires et logiques : tu gagnes un abonné ! Continues comme ça c'est top 💪

  • @duggy_tuxy
    @duggy_tuxy 3 года назад +1

    Belle présentation. Un joyeux Noël à toi @cocadmin😉

  • @ivymike9479
    @ivymike9479 3 года назад +6

    La vidéo la plus claire de tout youtube. Bravo !

  • @fabianstevenne
    @fabianstevenne 2 года назад

    Merci pour ces informations!! j'hésite encore à acheter un Mac studio car j'ai actuellement un Mac mini qui chauffe énormément que je le sollicite trop...mais c'est encore la génération avec le processeur Intel. Je suis certain en t'écoutant qu'un Mac studio avec la puce M1 ultra 128 Go de RAM sera plus performant qu'un pc avec des composants similaires voir plus performants sur papier. Mais quid de la surchauffe? je suppose qu'il n'ya pas de refroidisseur comme on peut en installer dans une tour classique. je voudrais m'en servir comme station de calcul pour faire tourner le programme Metashape (photogramétrie). Qu'en penses-tu? je parviens pas à me décider..

  • @JirAWS
    @JirAWS 3 года назад +6

    8 ans qu'on attendait la nouvelle vidéo, j'espère qu'elle va être cool
    EDIT: c'est bon on a pas attendu pour rien 🤓le budget est présent

    • @cocadmin
      @cocadmin  3 года назад +5

      ya au moins 10$ de budget papier crayon

  • @thierryleriche1196
    @thierryleriche1196 3 года назад +1

    C'est une des meilleures videos de vulgarisation que j'ai pu voir

  • @pierrederaunies6565
    @pierrederaunies6565 3 года назад +15

    Punaise Cocadmin tu m'as bluffé ! J'ai tout compris du début à la fin, merci pour les exemples avec post-it, c'était super clair.

  • @FanisMichalakis
    @FanisMichalakis 3 года назад +7

    Merci beaucoup pour cette excellente vidéo ! Je met rarement des commentaires, mais là, chapeau !

  • @sebastienaltounian8456
    @sebastienaltounian8456 3 года назад +1

    Excellent !!!! Je cherchais a comprendre pourquoi une telle différence ! Merci beaucoup ! C'est super ce que tu fais 👍

  • @NRichard
    @NRichard 3 года назад +4

    Bel effort de vulgarisation 👍 (j'aurai parlé un peu de SIMD).
    Le temps d'exécution dépend beaucoup du compilateur.
    Merci pour ces précisions sur Rosetta !
    Comme quoi on peut faire aussi bien avec un peu de papier et des ciseaux 😜
    Qqun comprend pourquoi le cours d'Intel ne baisse pas autant que ça devrait (échec sur le mobile, AMD qui monte, Xeon Phi vs NVidia et maintenant en frontal) ?

    • @cocadmin
      @cocadmin  3 года назад

      ils ont encore bcp de processeur a ecouler avant d'etre en diufficultée mais sur le long terme ca risque d'etre difficile effectivement.

  • @Tonyhunterblade
    @Tonyhunterblade 3 года назад +47

    Notez aussi qu'ARM a été racheté récemment par Nvidia... 👍

    • @ayleisma7590
      @ayleisma7590 3 года назад +7

      Ouai et connaissant la propension d'nvidia a se brouiller avec ses partenaires, ça annonce rien de bon pour le futur des licences ARM... Un des fondateurs de cette firme avait d’ailleurs exprimé ses craintes

    • @Username-xl6jj
      @Username-xl6jj 3 года назад +1

      @@ayleisma7590 Un petit coche pied à Apple ne fait pas de mal à ces gros monopoleurs (Taxe 30% AppStore) Mais c'est plus dangereux pour les autres utilisateurs de licence ARM.

    • @assirik
      @assirik 3 года назад +1

      l’accord de 40 milliards de dollars sur l’acquisition d’ARM par Nvidia est suspendu, à cause d’un conflit au sein de la coentreprise ARM China

    • @molotofmezcal
      @molotofmezcal 3 года назад

      C'est loin d'etre encore fait !

    • @assirik
      @assirik 3 года назад +3

      @@molotofmezcal oui effectivement mais vraisemblablement l'union européenne va aussi essayer de bloquer l'initiative. L'objectif est que l'europe ne devienne pas dépendant des semi conducteurs us ou asiatiques. On verra bien!

  • @ouanounours
    @ouanounours 3 года назад +2

    Excellente vidéo ! Un peu surpris néanmoins que tu n'aies pas parlé du fait que la plupart des composants matériels (RAM, contrôleurs, ...) sont directement intégrés à la puce, ce qui accélère aussi grandement la performance :)

  • @codeaveclechat
    @codeaveclechat 3 года назад +1

    Super sujet de vidéo ! J’ai vraiment kiff mec 💪🏾💪🏾

  • @BenoitDesmidt
    @BenoitDesmidt 3 года назад +1

    Ayant une chaîne RUclips aussi, je sais le travail que ça représente ce que tu as fait.
    Et sérieux c'est du lourd.
    Bravo 👏

  • @rikimaru749
    @rikimaru749 3 года назад +3

    Merci pour les explications 👍
    pour le moment AMD ne semble pas rencontrer les problèmes d’intel.
    AMD et Intel il peuvent aussi se payer la license ARM et développer leur composant ?!
    Curieux de voir comment cela va évoluer.
    Et que peut tu nous dire de RISC-V ?

  • @22000DADA
    @22000DADA 3 года назад

    salut!
    super video.
    tu precises que Apple vient de créer son premier processeur pour laptop.
    les proc. de la gamme G en RISC n etait il pas Apple aussi?

  • @sachavoronej5104
    @sachavoronej5104 3 года назад +1

    Abonné.
    EXCELLENT travail.
    Merci

  • @lophoto-net
    @lophoto-net 3 года назад +2

    Bravo ! J'hésitais à regarder cette vidéo pensant bien connaître le sujet (ha, les cours de micro-programmation suivis à l'université il y a bien des années...), mais j'ai bien fait de la regarder en entier !
    À noter cependant un point important qui n'a pas été abordé : les processeurs Apple intègrent directement la RAM au complet en leur sein (et non pas seulement les registres et une mémoire cache de premier niveau)... Ce qui doit avoir un grand impact sur la performance (surtout quand on a la maîtrise complète du matériel et du logiciel).

  • @albanbrument593
    @albanbrument593 3 года назад +1

    Je connaissais pas mal des éléments différenciants mais ta vidéo est très explicite. Beau travail.

  • @tanze67
    @tanze67 3 года назад +3

    Bravo ! Explications très simples et claires, je m'abonne de suite à votre chaine :-). Merci pour votre travail de recherche et d'exposer aussi clairement vos découvertes dans la production et le partage de cette vidéo. Continuez comme cela !

  • @philjustyn
    @philjustyn 3 года назад +11

    11eme!!! wow
    et j'ai droit à un cours d'architecture des microprocesseurs.
    je suis déjà abonné!!

  • @brunometronome1189
    @brunometronome1189 3 года назад +3

    Intéressant et très bien expliqué, bravo ! Après sur pc fixe (tour), quand on a des besoins classiques, je pense pas que la différence de perf fera basculer les gens.
    La puissance processeur est de moins en moins un problème. J'ai acheté un intel I3 pas très cher il y a 2 ans lors d'un remplacement d'une carte mère qui a cramé, et il me fait tout tourner, même les jeux, je ne me sens pas restreint par le proc le moins du monde. Par contre pour les pc portables (pour la batterie qui se décharge moins), ou pour les besoins professionnels spécifiques (montage vidéo, ...), Apple montre de sérieux arguments.
    Mais la grosse masse des utilisateurs sous windows a la patate requise pour faire tourner toutes ses applis, ils ne changeront pas pour un nouvel OS qui bousculera leurs habitudes, pour de la puissance de calcul en plus dont ils n'ont au final pas vraiment besoin. Surtout que quand tu migres chez Apple, c'est pas le même budget, et c'est pas non plus la même philosophie (j'ai l'impression qu'on cherche à te tordre le bras pour te faire raquer à la moindre occasion). Bref, détruire Intel et AMD ? Il y a d'autres paramètres que la puissance brute qui nuancent fortement la réponse à cette question... C'est mon humble avis.

    • @RenaudKyoku
      @RenaudKyoku 3 года назад

      Oui on utilise surtout le GPU pour les gros calcul. Dans la majorité des cas, le CPU est beaucoup moins important que la RAM ou le stockage de masse ou autre.
      Après c'est toujours mieux d'avoir un truc + optimisé et + performant. Mais c'est facile d'être optimisé quand on n'a qu'un sous-ensemble limité à gérer, et qu'on arrive sur le marché 30 ans après les autres (cf GoLang par exemple).

  • @neonesso
    @neonesso 3 года назад +3

    J’ai appris tellement de choses dans ta vidéo c’est incroyable, merci pour ce moment 🙏

  • @onetouch97111
    @onetouch97111 3 года назад +3

    Merci, je comprends mieux la différence entre une puce ARM/X86 au niveau performance et architecture. C'était très bien expliqué

  • @ybcanal21
    @ybcanal21 3 года назад +1

    Excellente vidéo ! Très pédagogique. Faudrait faire la même vidéo avec Micro Magic et leur architecture RISC-V car ils annoncent des performances encore bien meilleures que celles de l'Apple M1 et en consommant moins d'énergie. À suivre...

    • @cocadmin
      @cocadmin  3 года назад +1

      les performances par watt sont meilleures, pas les performances globables. Le risc-v consomme moins d'1 watt et le m1 consomme 25 donc il ne sont pas du tout dans la même catégorie. C'est comme dire une fourmis est plus forte qu'un éléphant parce qu'elle peut soulever 2x sont poid :)
      Dans le futur, il se peut que des risc-v scalent bien et viennent concurrencer les cpu d'apple mais ce n'est pas encore le cas.

  • @cedricpellegrini6340
    @cedricpellegrini6340 3 года назад

    Ma question peut peut-être paraître noobie mais si les proc Apple permettent de passer directement à l'execution d'une instruction (ex: Var++) à quel endroit est ce que cette instruction est "découper" en load/inc/push?

    • @cocadmin
      @cocadmin  3 года назад

      Justement elle ne sont pas découpé par le processeur, elle sont déjà séparé dans le programme pour ARM.
      Si tu veux c'est le compilateur qui va transformer ton var++ en 3 instructions

  • @richardbarbat4127
    @richardbarbat4127 3 года назад +2

    Bravo pour ta vidéo, c'est vraiment pas évident à faire comprendre, et tu y arrives très bien. Par contre je trouve que tu n'as pas insisté sur la consommation electrique délirante des proc Intel par rapport au M1. On est sur des rapports de X4, X5 pour atteindre la même puissance ! Là se situe le plus gros soucis pour les X86 AMHA.

    • @cocadmin
      @cocadmin  3 года назад

      Tu as raison mais je préférais parler des différences d'architecture :)

  • @Wibration
    @Wibration 3 года назад +2

    Woaw la vidéo est GOLD ! J'ai jamais cliqué aussi fort sur un bouton Abonnement !

  • @yungchris5631
    @yungchris5631 3 года назад +1

    sah quel plaisant plaisir.... merci pour les travaux
    vidéo de qualité, avec en plus ma petite dose de choses apprises.

  • @denilsson31
    @denilsson31 3 года назад +1

    3:38 : Ce n'est pas la taille variable des instructions qui implique l'emploi d'un décodeur.
    C'est le code op, c'est à dire le codage binaire du code instruction qui doit expansé pour commander électriquement des circuits impliqués.
    si l'instruction inc AX a pour code machine 0000 0101, le nombre 5, exprimé en binaire, le décodeur produira en sortie 0000 0000 0001 0000 qui concrètement se traduit par un seul fil à la fois, le 5ème, sous tension. Ce fil-là, commandera l'activation de la partie combinatoire de l'unité de calcul chargé d'effectuer l'addition d'entier.
    Les 4 premiers bits à 0 du code machine peuvent représenter l'adressage du registre AX. Dans ce cas, cela peut être aussi décodé de façon comparable de telle sorte qu'un fil en sortie commande l'aiguillage d'accès à la cellule mémoire de AX vers l'entrée de calcul de l'addition.
    Donc, RISC ou CISC, tout processeur a besoin d'une unité de décodage pour expanser les instructions en signaux individualisés.

  • @fredericl3949
    @fredericl3949 3 года назад

    je serais curieux d'avoir ton avis sur les derniers classement cinebench r23 qui inclu le M1 qui se retrouve plutot tres loin derriere ? merci pour la video

  • @FallerToon
    @FallerToon 3 года назад +1

    Nice, c'est très instructif.
    Je retombe sur tes vidéos en recommandé (encore).
    J'approuve le type qui à validé les explications à la "c'est pas sorcier".
    N'ayant qu'un iota de connaissances dans ce domaine et après avoir compris pas mal de choses, je ne peux que laisser mon pouce de pseudo-approbation en tout état de conscience.
    (Ok j'deconne, j'en fais peut-être un peu trop mais j'ai bien appris grâce à toi ! merci)

  • @MonBureauLinux
    @MonBureauLinux 3 года назад +1

    Merci pour la vidéo. Grossomodo il n'y a pas cette partie décodage/découpage qui fait perdre du temps dans les processeurs "ARM". A voir le marché de l'offre et la demande. Un petit risque d'augmentation des prix pour avoir du ARM Apple si Intel et AMD n'arrivent pas à suivre la cadence. Dans 3ans on verra bien.

  • @Sigri2TV
    @Sigri2TV 3 года назад

    Pour une fois, je vais mettre un petit commentaire ! Juste WOUAH !!!! La claque dans la figure, excellentes explications, pédagogies parfaites, sources/histoire au top, rien à dire je me suis régalé dans cette vidéo ! Vivement la prochaine dans ce genre :)

  • @chauvaudziggy9802
    @chauvaudziggy9802 3 года назад +1

    Tu mérites tellement plus de visibilité
    Cette vidéo es incroyable 💪 a toi

  • @pandaDotDragon
    @pandaDotDragon 3 года назад +4

    23:58 ils ont essayés de repartir de zéro avec le processeur Itanium basé sur une architecture IA64/EPIC qui reprennait les principes RISC en y ajoutant du parallélisme
    mais bon il n'a pas trop eu le succès escompté ^^' donc ils se sont lancés à fond dans le x86 tout en sachant bien qu'ils ne faisaient que repousser l'inévitable...

  • @gaetanhugot2303
    @gaetanhugot2303 2 года назад

    Salut ! Je viens de découvrir ta chaîne, j'espère que tu gagne bien ta vie avec ce que tu fais parce que c'est tout simplement incroyable, super qualité ! Merci de partager avec nous !

    • @cocadmin
      @cocadmin  2 года назад

      pas encore mais on y crois 🙏

  • @Lakitu1446
    @Lakitu1446 3 года назад +1

    J'ai adoré cette vidéo les explications étaient très claires tu viens de gagner un abonné ;)
    Cependant je n'ai pas tout à fait saisi l'intérêt du wide branching comme expliqué dans la vidéo.
    Je le disais que si les 2 éventualités étaient prises en compte ce serait plus avantageux même en RISC mais ça doit poser d'autres problèmes je pense.

  • @matthieurome4805
    @matthieurome4805 3 года назад +1

    Je découvre ta chaîne au travers de cette vidéo, superbe vidéo facecam simple efficace avec du papier et des feutres : lourd léger professionnel !

  • @doganddev
    @doganddev 3 года назад

    Très intérésant et bien expliquer :)
    Existe-il un emulateur x86 < - > ARM ? En gros faire en sorte qu'un processeur fonctionne d'une manière ou de l'autre ? et/ou pourquoi pas un mix des deux processeurs dans un ordinateurs est-il possible ?

    • @cocadmin
      @cocadmin  3 года назад +1

      oui il y a des emulateur dans les 2 sens.
      Je doute qu'on mix dans le futur mais tout est possible :)

  • @Aken0o
    @Aken0o 2 года назад

    OMG je viens de découvrir ta chaine je m'abonne direct !! Super boulot O_O

  • @BusinessBonheur
    @BusinessBonheur 2 года назад

    Tu es vraiment doué. T'es vidéos sont top, claires, ludiques et agréable à regarder. J'adore.

  • @ronybuzz
    @ronybuzz 3 года назад

    un sujet aussi complexe, expliqué avec autant de facilité et de clarté c'est impressionnant !! contenu fluide , merci . Force !!

  • @PrcProd21
    @PrcProd21 3 года назад

    Super vidéo merci! Pourriez vous me conseiller ? Je possède un MacBook Pro 2020 i5, 256Go, 8RAM. Si j'ai l'opportunité de l'échanger contre un MacBook Air M1 de base, devrais-je le faire ?

    • @cocadmin
      @cocadmin  3 года назад +1

      J’imagine que ça dépend de ce que tu veux faire mais si t’es app sont optimisées sur arm la question est vite répondue

  • @stanlouverture5863
    @stanlouverture5863 3 года назад

    Franchement trop bonne explication, posé, serein pas de musique de fond qui déconcentre plus qu’autre chose. Merci tu assures ✌️.

  • @P4pa-Joe
    @P4pa-Joe 3 года назад

    Vidéo proposée par RUclips... Curieux mais très sceptique au début. Au final c'est une super bonne surprise ! Merci pour ton travail.

  • @geojoh3026
    @geojoh3026 3 года назад +1

    Merci pour le cours, première vidéo que je visionne qui m’explique la base à la place de belle image.

  • @kaourantperennou8810
    @kaourantperennou8810 3 года назад +3

    Même si on peut imaginer qu'effectivement dans les usages courants les processeurs Arm domine en termes de puissance/consommation, je pense d'une part que cette puissance ne sera pas utile à tous (beaucoup sont contents d'un Intel Pentium voir même atome.) aussi cela vas demander beaucoup trop d'efforts coter software (Microsoft, Linux fondation ...) et surtout de rétrocompatibillité (Windows 3.1 dans certains aéroports) mais aussi tout simplement juste de comptabilité (je m'explique comme l'a dit Cocadmin les processeurs ARM n'intègrent pas tous les même fonctions, alors il faut presque une version de système et d'application pour chaque soc, on est loin de l'universalité du X86). Aussi, il ne faut pas oublier bien qu'ARM a des avantages, il a aussi des inconvénients comme une moins bonne stabilité, des compléments différents (Ecc, AES, SSE, nombres de bus...) et très très souvent bloquer à une série très réduite d'équipements et périphériques compatibles.
    En somme l'ARM présente un avantage de puissance qui n'est peut-être pas une nécessité dans l'univers PC quand on regarde les efforts à faire pour sortir du X86 surtout si on souhaite garder, ses avantages comme l'universalité, la compatibilité, et ses logiciels. Cependant, il possible a l'avenir de voir émerger pour des usages spécifiques encore alors destinés au X86 des processeurs ARM. Ou alors une hybridation type un X86 avec des cœurs ARM et X86 avec une émulation native du même type que le shader model v2 sur les 32 bits (le système ne voit même pas la différence, il faudrait cependant une nouvelle version du système d'amorçage pour indiquer au processeur quel mode de compatibilité utiliser en fonctions du système).

  • @arnaudleconte6735
    @arnaudleconte6735 3 года назад +1

    Je travaille dans le développement de processeur et je vraiment surpris par la qualité technique de la vidéo (de la part d'un softeux :p). Très bon travail ^^

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 года назад +1

      Oui ,en général au mieux on a la description d'un processeur des années 80 :)

    • @cocadmin
      @cocadmin  3 года назад

      merci ca fait plaisir! J'avais peur de sur-simplifier ou de louper quelque chose d'évident. :)

  • @edotoine
    @edotoine 3 года назад +1

    Merci BEAUCOUP pour ces explications et toutes ces informations (et hop, un abo de plus ;) )

  • @guillaumemarmorat8293
    @guillaumemarmorat8293 3 года назад +1

    C'est vraiment ultra interressant, bravo et merci ! 👍

  • @eachdayonepiceachdayonepic8908
    @eachdayonepiceachdayonepic8908 3 года назад +2

    Merci l’algorithme pour cette excellente vidéo ❤️

  • @vincentgomes8209
    @vincentgomes8209 3 года назад

    Du coup pour l'ensemble des applications apple compte sur le mode émulation pour accepté les application AMD 64 ou x86 ?

    • @cocadmin
      @cocadmin  3 года назад

      oui, mais les perf en emulation sont quand meme meilleur qu'en natif pour beaucoup d'app donc ce n'est pas torp un probleme.

    • @vincentgomes8209
      @vincentgomes8209 3 года назад

      @@cocadmin et autre questions à la con c'est possible d'émuler du 64bits vers 32bits ou genre le 64 bits demande trop de jeux d'instruction

  • @launay98
    @launay98 3 года назад

    Hop je m'abonne direct! Vidéo très bien expliquer et puis faudra remercier les suggestions RUclips c'est même énorme que Micode ainsi que Trash soient tomber sur ta vidéo

  • @Cryptopunkstar
    @Cryptopunkstar 2 года назад

    Merci ! Est ce qu'on peut transformer un Intel avec la processus ARM ?

  • @LaurentKarouby_
    @LaurentKarouby_ Год назад

    Un grand merci pour ces éclairages !!!

  • @sofiyan_ifren
    @sofiyan_ifren 3 года назад +1

    Chapeau l'artiste tu as envoyé du lourd ! 😉
    En tant que dev j'ai beaucoup galéré avant de trouver des personnes aptes à bien comprendre le système sur lesquels tournent les programmes, même parmi les sysadmin. Alors je te fais un compliment 😅

  • @printthehacker1560
    @printthehacker1560 2 года назад +1

    Une vraie pépite cette vidéo

  • @kidam2448
    @kidam2448 3 года назад +1

    Géniale cette vidéo!!
    Très bien expliqué!!
    Merci!!!!!!👍👍👍🙏🍻👌

  • @Runs59
    @Runs59 3 года назад

    Ouch ! Superbe effort de vulgarisation. C'est super clair et super intéressant ! Bravo !

  • @elcordobes11
    @elcordobes11 3 года назад +1

    Explications simples et clair! Jolie trouvaille :) merci pour ta lumière!

  • @piphi8186
    @piphi8186 3 года назад

    Cool explication merci.... D'ici un an je change mon Macbook Pro 16'' x64 contre un Macbook Pro 16'' ARM 😅 ...
    Pour l'instant question virtualisation CISC s'en sort mieux....
    Toi qui vient de quitter l'industrie du jeu vidéo comment vont opérer les GPU sur l'ARM ? Est-ce que l'ARM prendra en charge directement une partie graphique (comme sur les proc Axx) ou clairement il y aura demain des GPU ARM? Car faire tourner Call of Duty en 4K doit demander de sacré ressources ?

    • @cocadmin
      @cocadmin  3 года назад

      les gpu d'apple son bien meilleur que ceux d'apple mais je pense pas encore au niveau de ceux de adm/nvidia

  • @lesteph69
    @lesteph69 3 года назад +1

    Excellente vidéo! Très instructive ... merci et longue vie à ta chaine

  • @fre.lacroix
    @fre.lacroix 2 года назад

    Salut, après bientôt 1 an et demi de cette vidéo. As-tu des commentaires de la réaction des autres constructeurs ? J'aimerais bien une vidéo ract de la riposte de intel et amd ainsi que t'a vision du futur au niveau cpu. :)

    • @cocadmin
      @cocadmin  2 года назад

      honnêtement personne n'as vraiment réagis, intel et amd sont trop investis dans le x86 pour changer du jours au lendemain.

  • @Chrys974
    @Chrys974 3 года назад

    Tinnn!!!
    Merci beaucoup. Je cherchais une vidéo de vulgarisation du RISC, et c'est bien Foutu 👍👍

  • @TonyRICHER
    @TonyRICHER 3 года назад

    Merci pour ta vidéo ! Ce serait possible d’expliquer la différence d’exécution dans un ARM et un ordinateur quantique ? Est-ce vraiment le futur de l’ordinateur ? (Le quantique) Merci

  • @MasterEquinoX
    @MasterEquinoX 3 года назад +1

    Vidéo très bien construite, merci pour les efforts de pédagogie :)

  • @lolo29_
    @lolo29_ 3 года назад +1

    Très tres bonne video ça part sur un abo en plus 😉

  • @JamesAdamsTech
    @JamesAdamsTech 3 года назад +1

    Super vidéo comme d'habitude j'ai appris pas mal de chose et l'explication papier était vraiment bien !

  • @jumpman120
    @jumpman120 3 года назад +1

    8:05 erreur de script ici : Les processeurs ARM consomment moins que les processeurs CISC et non RISC puisque ARM est une architecture RISC

    • @alloquoi3281
      @alloquoi3281 3 года назад

      Pas sûr que tout le monde suit ce qu'il dit à la lettre. Ses explications sont parfois tangentes pour ne pas dire plus...

  • @elektrikspace7451
    @elektrikspace7451 3 года назад +1

    Même si l'architecture ARM permet des gains énormes par rapport à AMD64, j'espère qu'elle ne sera pas la référence dans le futur. Il y a par exemple RISC-V qui a l'énorme avantage d'être open source (pour le jeu d'instruction), qui exploite encore plus efficacement le côté RISC qu'ARM (on peut lire +10% de perfs sur internet), et qui est beaucoup plus modulaire au niveau des extensions.

    • @cocadmin
      @cocadmin  3 года назад

      je crois que les processeru risc-v sont meilleur en perf par watt, mais a une consomation bien plus faible, donc il reste a voir si ils scale aussi bien que les ARM.

    • @elektrikspace7451
      @elektrikspace7451 3 года назад

      @@cocadmin c'est sûr que ce sont surtout des microcontrôleurs pour l'instant, mais on commence à voir des implémentations sur avec des cœurs plus costauds, comme le U740 de Sifive. Après il manque encore des extensions au jeu d'instructions qui ne sont pas encore ratifiées (en SIMD surtout) pour avoir des gros cœurs.

  • @toudou1311
    @toudou1311 Год назад

    Tu peux nous dire comment fonctionne les processeurs graphiques ? Ça fonctionne pareil que les processeurs que tu as présenté ? Merci pour la vidéo 👍

  • @Ywqqqq
    @Ywqqqq 3 года назад +2

    Excellente vidéo, il en faut plus du genre !

  • @simon9640
    @simon9640 3 года назад +1

    Lourd mec c'est qualitatif

  • @amau345
    @amau345 3 года назад

    Très claire et très intéressante à regarder .peut être qu'une musique de fond pourrait être intéressante pour être plus agréable mais sinon super

  • @Vulcanul
    @Vulcanul 3 года назад +1

    Salut, super vidéo je ne savais pas tout ça ! Je pense aussi que le secret de d'Apple réside dans la finesse de gravure de son M1. le Intel i9 est en 14nm la ou Apple arrive à faire du 5nm. C'est une énorme différence et ça peut aussi expliquer pourquoi ils ont autant de place sur leur processeur :)
    Sinon super vidéo comme d'hab !

    • @cocadmin
      @cocadmin  3 года назад +1

      Effectivement ca joue beaucoup, j'ai hésité à en parler mais je voulais insister sur les différences d'architecture que je trouvais plus intéressantes.

  • @Mrziggyspider
    @Mrziggyspider 3 года назад

    Bravo pour la clarté du propos. Super vidéo.

  • @EricDeLyon
    @EricDeLyon 3 года назад +1

    Tres interessant merci, et oui gérer toute la chaine de production est un énorme avantage, et pouvoir simplifier et épurer c'est le bonne évolution pour le futur.

  • @ludoblnc3994
    @ludoblnc3994 3 года назад +1

    Qualcom a aussi fait des processeurs ARM pour Windows il y a peu (sur les dernières surface ) mais Windows n’a pas encore fini sa transition ARM mais là je penses que ça va s’accélérer