Le coup de maîte d'Apple pour détrôner ChatGPT

Поделиться
HTML-код
  • Опубликовано: 14 дек 2024

Комментарии • 409

  • @jacquesdelapince3669
    @jacquesdelapince3669 Год назад +849

    Petite précision / correction : Aujourd'hui la finesse de gravure 3 nm ne correspond plus à aucune dimension réelle du transistor dans les processeurs.
    Historiquement, la finesse de gravure faisait référence à la taille du Gate d'un transistor dans les processeurs, c'était la mesure de référence pour évaluer la performance d'un processeur, plus on peut graver petit le transistor, plus son gate est petit, plus on peut mettre de transistor, faire des calcules, et augmenter la puissance.
    Or, depuis les 40 nm on ne peut plus diminuer la taille du gate à cause des limites / lois de la physique, (si le gate était encore diminuer on s'exposait à ce qu'on appelle "l'effet tunnel" qui perturberait le fonctionnement du transistor).
    Il a donc fallu modifier le design, la conception même du transistor, le "réarranger", pour continuer à améliorer les processeurs. En conséquence, on ne pouvait plus prendre la taille du gate comme référence de la puissance d'un processeur, car ca n'avait plus de sens, le gate restait de la meme taille mais la puissance des processeurs augmentait quand même.
    Aujourd'hui, les termes de finesse de gravure 3nm, 5nm, etc. sont des labels qui sont données au processeur si ils remplissent certains critères définis. Mais qui définie ces critères vous allez vous dire ? Et bien c'est l' I.E.E.E (Institute of Electrical and Electronics Engineers) qui au travers de l' I.R.D.S (International Roadmap for Devices and Systems) qui définie ces critères. Pour obtenir ces labels les transistors doivent être conçus et gravés d'une certaine manière. Les entreprises ne peuvent pas donner le label aux processeurs comme elles le souhaitent elles doivent suivre ces critères. On a décidé de garder les termes de "finesse de gravure" car le public c'était tout simplement habitué à ce que : plus fin = plus puissant, c'est un terme marketing. Il n'est pas falacieux, il permet juste de faire plus simple pour le grand public.
    lien :
    fr.wikipedia.org/wiki/International_Roadmap_for_Devices_and_Systems
    fr.wikipedia.org/wiki/Institute_of_Electrical_and_Electronics_Engineers
    irds.ieee.org/editions

    • @OtakugameFR
      @OtakugameFR Год назад +22

      Merci pour ton incroyable expertise !

    •  Год назад +26

      Cette réponse devrait être bien plus upvote que les conneries de trading et compagnie qu’on peut lire 🙂

    • @jacquesdelapince3669
      @jacquesdelapince3669 Год назад +8

      @@OtakugameFR merci beaucoup :D ca me flatte, je ne suis pas du tout un expert, je mets le plus de liens pour sourcer ce que je dis.

    • @Remzer241
      @Remzer241 Год назад

      Whoah merci

    • @Kannagichan
      @Kannagichan Год назад +1

      Alors exact mais la finesse de gravure n'a jamais mesuré "la performance d'un processeur".
      Effectivement le reste suit , Intel vs AMD le montre bien Intel à une moins bonen finesse de gravure et ils font des fois mieux que AMD.
      Et les performance de AMD ne s'explique pas du tout via la finesse de gravure.
      D'ailleurs cela fait un moment que cette finesse représente plus trop les performance, quand tu peux mettre 8 cores sur ton die , bon , c'est pas le soucis de place qui te pose soucis.

  • @darkkaribou
    @darkkaribou Год назад +262

    Petite erreur sur les tailles :
    Un atome d'oxygène à une taille de ~300 picomètres (si on prend comme référence le rayon de van der Waals). Donc pour 3 nanomètres on est davantage dans l'ordre de 10 atomes d'oxygène (ce qui reste très impressionnant).

    • @laurentmiltgen-delinchamp5508
      @laurentmiltgen-delinchamp5508 Год назад +8

      152 pm pour un atome d'oxygène, donc 0.152 nm

    • @4Moorish
      @4Moorish Год назад

      Monjp ?

    • @ke0zom204
      @ke0zom204 Год назад +1

      @@laurentmiltgen-delinchamp5508Effectivement, c'est bien 152 pm et non 240.

    • @NO14122.
      @NO14122. Год назад

      @@laurentmiltgen-delinchamp5508 152 si tu prends en compte le Rayon de Van der Waals, ce qui, d'une certaine façon dépasse le rayon d'un atome à proprement parler, soit son rayon covalent, soit 60pm l'atome d'oxygène.

    • @rotrot.graddiv.-.3766
      @rotrot.graddiv.-.3766 Год назад +18

      Ça veut rien dire les copains la taille d'un atome. En effet un atome est constitué en son extrêmité d'électrons qui sont localisés dans des orbitales atomiques. L'atome n'a pas de taille propre en revanche on peut lui assigner des tailles caractéristiques en général en raisonnant sur les moyennes statistiques de position des électrons de valence par rapport au noyau.
      De plus, les électrons ne sont pas nécessairement collés. Dans une maille il y peut y avoir un espacement plus ou moins grand entre les atomes. On peut déduire la distance entre deux atomes en trouvant la distance locale où l'énergie potentielle des atomes est la plus faible.
      Bref à voir mais ton raisonnement de diviser la taille de la gravure par le rayon atomique des atomes est un peu bancal.

  • @Bourinos02
    @Bourinos02 Год назад +42

    Un détail mais les 3nm ne correspondent plus à la distance entre la gate et le drain du transistor depuis quasiment une dizaine d'années...
    maintenant il s'agit uniquement d'une valeur théorique qui correspondrait à cette taille si le transistor était "à plat" (ce qu'ils ne sont plus depuis un bon moment déjà c.f. FinFET et autres).

    • @ambroisetourneur3966
      @ambroisetourneur3966 Год назад +1

      y a pas de normes sur ce que doit signifier le 3nm, chaque entreprise fais comme ca l'arrange

    • @Bourinos02
      @Bourinos02 Год назад

      @@ambroisetourneur3966 Sur ce point on est d'accord, c'est largement un chiffre commercial maintenant vu qu'il est décorrélé d'une dimension réelle.

  • @tibo1671
    @tibo1671 Год назад +176

    Si jamais vous arriviez à interviewer un/une ingénieure qui fait de la conception hardware (VHDL / Verilog), pour donner des détails sur ces actus, ce serait grave intéressant !

    • @meisterpanzerkunst6410
      @meisterpanzerkunst6410 Год назад +7

      Ahaha hello c'est moi :3

    • @Le-J-
      @Le-J- Год назад

      Passe dans l'émission alors stp @@meisterpanzerkunst6410

    • @violinsontheblock
      @violinsontheblock Год назад +4

      ​@@meisterpanzerkunst6410je suis aussi là bon pas ingénieur mais un Master

    • @tibo1671
      @tibo1671 Год назад +2

      @@meisterpanzerkunst6410 Haha trop bien tu bosses sur quoi comme archi / système ?

    • @tibo1671
      @tibo1671 Год назад +1

      @@violinsontheblock J'en ai fait en cours aussi mais je me sens pas trop légitime de bosser dedans perso ^^'

  • @alexandrechaminas3108
    @alexandrechaminas3108 Год назад +47

    En fait selon plusieurs analystes cette keynote serait plutôt avant tout une réponse à Qualcomm (qui a récupéré quasiment l'architecture complète des puces M1 avec le rachat à prix d'or de la startup que les architectes de ces CPU ont créé après s'être barrés d'Apple...)
    Pourquoi cet avis? Car en fait Apple est pas du tout dans l'exception à mettre des NPU/TPU dans ses processeurs en ce moment, à vrai dire c'est même plutôt la norme!
    Qualcomm avec ses Snapdragon X (décidément une grosse annonce...), mais aussi et surtout Intel avec Meteor Lake, AMD avec Ryzen AI, Google avec ses Tensor, pour ne citer que quelques gros noms. Bon, Apple reste quand même bien costaud en performances!
    Parlant de Snapdragon X et de Ryzen AI, c'est deux exclusivités Microsoft (aucun contrat n'a été rendu public, mais bizarrement les seuls drivers pour utiliser ces materiels sont sur Windows). Microsoft est donc bien en train de jouer sur les deux tableaux, cloud comme edge
    J'en profiterais aussi pour rajouter que le terme de "X nanomètres" est purement marketing de nos jours, en fait aucun détail de la puce n'est vraiment gravé plus fin que quelques dizaines de nanomètres ! Il faut savoir que les technos les plus récentes ont abandonné les transistors à plat, pour passer à des designs 3d (FinFET surtout aujourd'hui, GAAFET dans le futur). Il faudrait plutôt voir ça comme "des transistors qui prennent autant de place que si on avait réussi à faire des transistors à plat de 3 nm". Oui, c'est tordu, mais c'est marketing
    PS: Merci pour cette introduction à l'industrie du semiconducteur, le domaine est malheureusement trop peu connu chez les développeurs

  • @albanjuan106
    @albanjuan106 Год назад +28

    Salut,
    Je trouve que Matthieu s’améliore de jour en jour, je le sens moins stressé en tout cas et ça fait plaisir

    • @philippest-martin2605
      @philippest-martin2605 9 месяцев назад

      c'est moins le cas de Tiffany on se demande son rôle dans l'émission

  • @Tetsujinfr
    @Tetsujinfr Год назад +9

    c 'est sympa le neural engine de Apple, mais je rappelerai que les ingenieurs de NVIDIA ne sont pas des idiots et que leurs puces ecrasent celles de Apple en performance par $, meme si en terme de perf par watt Apple est bien placé en effet. Concernant l'inference embarquée, Apple a en effet une strategie mais l'avantage du cloud c'est que 1) le calcul alloué a un model peut etre phenomenal alors que celui sur la puce M2 ou M3 ou Mx sera beaucoup plus limité, l'autre avantage c'est que le cloud est dimensioné pour le pic de calcul de la demande globale alors que Apple doit prevoir le chip pour la capacité maximum de chaque utilisateur. L'avantage de l'inference en locale c 'est 1) la confidentialité/vie privée , 2) la latence mais seulement si le model est tres rapide a inférer donc pas tres puissant par rapport a ce que l'on aurait avecle cloud au meme moment.

    • @enrickliber
      @enrickliber 10 месяцев назад

      Merci franchement merci beaucoup c’est gens qui raconte n’importe quoi juste pour gonfler leur egos par rapport a apple ,apple n’a aucun plan concernant l’IA . le vraie truc qui faisait apple c’est ”steve job”. Mettre ”sa” sur une puce oui …mais pas encore à notre époque. Nous avons pas encore créé la technologie qu’il faut. Bref en tout cas oui aujourd’hui il s’y intéresse a coup de 1 milliard€. Ce qui est dommage c’est que ces mecs ils vont après dire oui regarde ce qu’apple a créé. Regarde cette dinguerie et patati et patata. Sachant que du tchat gpt c’est vraiment incroyable.arrêtez de faire rêver les gens comme sa !

  • @Haze-bii
    @Haze-bii Год назад +3

    J'adore parce que tu vois Mica lorsqu'il parle d'IA c'est un enfant ! Il est heureux et ça fait plaisir de voir quelqu'un de vraiment épanouie dans un sujet. C'est rare de voir cette effet aussi fort. :D et merci pour les vidéos ! Franchement elles sont génial ! Et surtout elles ne sont pas indigeste !

  • @MickaelVest
    @MickaelVest Год назад +5

    Concernant le fait qu'Apple ne parle pas d'IA, c'est une grande habitude de leur part de prendre quelque chose de commun et le "re-brander" pour se démarquer, Marques Brownlee (MKBHD) a fait une super video sur le sujet (Apple's Forbidden Words). Ils parlent en fait énormément d'IA, mais en d'autres termes

  • @Saihttam35
    @Saihttam35 Год назад +25

    Je vais enfoncer une porte ouverte, mais c'est aussi de la géopolitique tout simplement par rapport à Taiwan.
    Apple cherche juste à sécuriser leur ligne d'approvisionnement, vu que TSMC est la quasi seule boite au monde qui a la technologie avancé pour faire les derniers processeurs.
    Et vu que l'invasion de Taiwan est qu'une question de temps, le marché des composants va devenir fou dans les prochaines années.

    • @TheBlackManMythLegend
      @TheBlackManMythLegend Год назад

      grave

    • @MadrafTintagel
      @MadrafTintagel Год назад +7

      L'invasion de Taïwan est loin d'être réalisée. Il est probable qu'elle ne survienne jamais. En tout cas, si cela devait arriver, nous aurions d'autres soucis que l'approvisionnement en processeurs...

    • @adanoether2777
      @adanoether2777 Год назад

      C'est justement TSMC qui les fabrique ces processeurs contrairement à Intel qui fabrique aux US il me semble.

    • @Fox-BZH
      @Fox-BZH Год назад +1

      cela n'est plus vrai depuis le chip act. Les US, enfin conscient du danger, investissent + de 50 milliard pour pouvoir produire chez eux les chips. Les usines sont en cours de construction au US avec de gros gros avantages fiscaux et financement du gouvernement. Tu m'étonnes ...

    • @Saihttam35
      @Saihttam35 Год назад

      En effet pour le chip act, cependant il faudra longtemps avant que cette usine soit opérationnelle ou même que les USA aquiert un niveau de compétence aussi développé que les employés de TSMC. Oui c'est une très bonne chose cette usine, mais la formation des ingénieurs derrière c'est un autre sujet. Pas sûr que l'ensemble soit prêt avant que Taiwan tombe...@@Fox-BZH

  • @Momossim
    @Momossim Год назад +17

    quick fact que personne n'a demandé: les optiques pour les machines lithographiques (pour les processeurs) sont faites par Carl Zeiss, et le fondateur de l'entreprise éponyme est littéralement le mec qui a inventé la production d'optique de masse (dans le sens pas à la main)

    • @tibo1671
      @tibo1671 Год назад +1

      merci pour ce détail ! Je connaissais la boite mais je savais absolument pas que leurs systèmes se retrouvaient là dedans

    • @airo.pi_
      @airo.pi_ Год назад +5

      Ok ok donc c’est de l’optique qui permet la fabrication de ces processeurs
      Je me demandais pourquoi Nikon et Canon fabriquaient des processeurs alors que pour moi c’était uniquement des marques d’appareil photo 😅

  • @Tisma.
    @Tisma. Год назад +19

    ça me fait rappeler le Qualcomm 8gen3 qui pourra faire tourner des IA de génération image, texte et autre. Localement sur un smartphone sans connexion internet. C'est très impressionnant

    • @nawabifaissal9625
      @nawabifaissal9625 Год назад

      seule innovation d'apple : les puces et l'ecran tactile (ça date maintenant), voili voilou... entreprise estimé a 3 trillions de $....

    • @Tisma.
      @Tisma. Год назад

      @@nawabifaissal9625 l'écran ça reste toujours principalement des technos Samsung ils ont juste renommé l'oled

    • @thomassankala6043
      @thomassankala6043 Год назад

      ​@@nawabifaissal9625 l ecran tactile a été inventé en 1971 par sam hurst bien avant la création de l apple

  • @gwened
    @gwened Год назад +5

    Les performances de Stable Diffusion, optimisé pour les GPU, étaient catastrophiques sur les Mac, c'est pourquoi Apple s'est mis en tête de l'optimiser. A l'époque, entre mon MacBook M1 Pro et mon laptop gamer Asus doté d'une puce Nvidia 3080 (la version portable donc) de génération et prix équivalents, il y avait un facteur 5 de vitesse de rendu en faveur du PC !!

  • @jjadragna
    @jjadragna Год назад +3

    Apple continue à communiquer sur la puissance brute du CPU (hors GPU, NSP) pour deux raisons:
    - ça leur permet de mettre la pâtée à Intel
    - ça continue à bien représenter les besoins utilisateur (compilation, effets audio/vidéo)
    Ils mentionnent le Neural Engine, mais on sent bien que leurs usages sur l’amélioration de photos ou la complétion de mail) sont assez petit joueur pour le moment. Mais ils insistent beaucoup sur l’aspect ´on device’. Je pense qu’ils attendent que ce soit mur, techniquement et socialement, pour frapper un grand coup

  • @Tony-ju2hr
    @Tony-ju2hr Год назад +2

    Les interventions de Tiffany Souterre = "Humm", "Oui" , "Hum" 🤣🤣🤣

  • @codix__
    @codix__ Год назад +3

    J'avais pensé à un petit "One more thing" d'Apple quand ils dévoileront enfin un vrai usage de l'IA sur leur matériel. Déjà bien sûr agrandir tes propres images avec l'IA pré-intégrer dans le Finder mais surtout une génération du fond d'écran de ton Mac en local après le premier setup sans ou avec logo Apple, et qui reprend l'aspect que tu veux selon la version de Mac OS que tu préférait.

  • @wxcvbnnbvcxwify
    @wxcvbnnbvcxwify Год назад +1

    Petit retour sur la taille des atomes. le silicium est de 0,2 nm; 3 nm nous donne de l'ordre de 15 atomes de coté.
    Au début des années 2000, nous perdions l'effet transistor aux alentours de 100 atomes. On ne trouve pas vraiment de données plus actuelle sur l'amélioration de cette limite.

  • @jeanfrancoisponcet9537
    @jeanfrancoisponcet9537 Год назад

    2:21 Un atome ne fait pas non plus 3nm.
    En fait quand on parle d’atome, il est difficile de donner une taille exact, car le volume des l’atome dépend de la distance entre son noyau et son nuage d’électron. Ce dernier variant selon l’énergie contenu et la nature de l’atome. Un atome d’hydrogène a un électron donc une couche d’électron. Un atome de lithium a 3 électron et deux couche d’électron (deux électrons sur la première couche, 1 électron sur la deuxième. Le lithium est plus volumineux que l’hydrogène. Par contre, le béryllium (plus lourd que le lithium, est moins volumineux : les deux électrons de la première couche du lithium repousse plus l’électron de la 3ème couche. Le béryllium a plus de charges positives mais autant de d’électron sur la première couche. La première couche est plus attiré par le noyau, et la deuxième l’est de facto aussi car moins repoussé par la première couche.
    On peut tout de même estimer une moyenne de taille d’atome en comparant la distance entre deux nucleus de même atomes. Mais les distance sont entre 0.1 et 0.5 nm.
    En aucun cas 3 nm.

  • @NicolasSchmidMusic
    @NicolasSchmidMusic Год назад +4

    Ouais bon la description du transistor laisse à désirer. C’est pas le « dopage qui fait des 0 et des 1 ». Aussi 3nm c’est beaucoup plus grand qu’un atom. C’est pas infos très dur à vérifier donc faut faire un peu gaffe quand même

    • @blacriderv
      @blacriderv Год назад

      Bah on sent que le gars il est pas du tout technique. Il a juste essayé de comprendre vaguement ce qui se dit sur le web mdr

  • @yohan9577
    @yohan9577 Год назад +2

    Pas mal ! Intéressant le coup d'avoir l'IA en local ! ça offre aussi une meilleure garantie de confidentialité (essentiel pour certaines entreprises!) et ça décharge les serveurs ! Vous m'avez appris quelque chose, merci !

    • @dedelefoudu88
      @dedelefoudu88 Год назад

      tu peux aussi en avoir dans ton reseau priver.
      aussi, L'IA en local reste limiter pour des model avec un nombre de parametre reduit, qui sont deja tres bon.
      Meta (facebook), est probablement un des lideur dans ces petit model avec son LLaMA 2, qui peut deja etre installer sur ton ordi perso, ou meme personalize (fine tune).

    • @resh6701
      @resh6701 Год назад

      Il y a LM studio qui permet de faire ça simplement, ou oogabooga.

    • @hesaiem
      @hesaiem Год назад

      Décharger les serveurs pour surcharger les appareils individuels je ne sais pas si c'est si utile que cela. La centralisation est aussi, malgré ses désavantages, moins consommante.

  • @siocdenarf1010
    @siocdenarf1010 Год назад +4

    Je suis étonné de ne pas voir le lien avec l'annonce de Qualcomm quelques jours avant qui annonçait le dépassement du M2 de beaucoup en mono-thread et ne pas voir non plus la prise en compte de la révolution de Canon sur la gravure des semiconducteurs qui devient énergétiquement beaucoup moins cher avec leur nouveau procédé....

    • @MultiMustash
      @MultiMustash Год назад +1

      Surtout que le NPU de Qualcomm série X est annoncé avec entre 50 et 100 Tops, bien plus balaise que le M3 qui plafonne à 20 Tops.

    • @bastienx8
      @bastienx8 Год назад

      @@MultiMustash Les Qualcomm series X sont au stade de prototype, les tests de performance sont fait sur des machines avec une alimentation et un refroidissement conséquent. On ne connait pas les conditions de test de Qualcomm du coup difficile de comparer

  • @pierrekilgoretrout3143
    @pierrekilgoretrout3143 Год назад +1

    si j'ai bien compris la chaîne, les fonderies fabriquent comme TSMC, fabless conçoivent comme Qualcom, architectes inventent l'architecture comme ARM tandis qu'ASML fabrique des machines que les fonderies utiilisent pour fabriquer les puces. Intéressant.
    Et l'enjeu des prochaines années, ce sera où l'IA tourne, localement ou dans un cloud.

  • @Gabriel-bj6jx
    @Gabriel-bj6jx Год назад +2

    Faut bien se rendre compte que le développement d'un processus de fabrication de puce prends entre 3 et 5 ans, que ça coûte des milliards. Les usines c'est pareil c'est des salles blanches de classe 1 de plusieurs milliers de m². Les usines sont maintenant à température constante toute l'année et même les vibrations sont aussi un problème à ces échelles. Résultats très peu d'entreprise de production (fondeur). Aujourd'hui seul Samsung et tsmc maîtrise le 3nm à des niveaux industriel.

  • @jirayatira9540
    @jirayatira9540 Год назад +4

    Y a aussi l'architecture risc-v qui est libre et open source mais pas encore au niveau de arm 👍

    • @lecornubruno2507
      @lecornubruno2507 Год назад

      ça commence ça commence avec les Si-five ou T-head mais on est plus au niveau du A72 pour le moment

    • @yamazakikaoru9579
      @yamazakikaoru9579 Год назад

      Pas sur qu'il arriveront à bien traiter le sujet :p

  • @olivardelamancha2896
    @olivardelamancha2896 11 месяцев назад +1

    Dommage que vous ne dites pas que Apple a une grande culture du processeur ! Le PPC (PowerPC) a été développé par Apple, Motorola et IBM pendant des années avant le passage chez Intel en 2007... Le PPC601, 602, G3, G4 et G5 !!! En maintenant seul avec les Apple Silicon...

  • @paulmichelart1197
    @paulmichelart1197 Год назад

    Clairement je rejoins ton hypothèse sur l'IA locale. Je table aussi sur le lien avec le développement de la ReRAM qui permettra de stocker "internet" en local, ainsi que l'écosystème fermé de apple pour au final proposer un système complet très sécurisé et maitrisé en terme de données personnelles et de capacité IA.
    Mon hypothèse est que la maîtrise de la sécurité des données sur toute la chaîne(physique on device donc) conférera à apple un avantage énorme en terme de confiance des utilisateurs. J'imagine un point de bascule ou une grande partie des gens se réfugierons chez apple, pendant qu'un autre géant pourrait sombrer.
    Et vous ? Quel 2 cents ?

  • @th0bo
    @th0bo Год назад +4

    Est-ce que c'est vraiment la latence due au temps de trajet des données qu'ils veulent solutionner ? Ce ne serait pas plutôt les problèmes de confidentialité des données et de disponibilité variable des services centralisés ?
    En tout cas très intéressant !

    • @omega6283
      @omega6283 Год назад

      Les deux + avoir une IA sur mesure je pense.

    • @bricewernet6493
      @bricewernet6493 Год назад +1

      Disons une pierre deux coup. Plus de l'avance sur le futur: avec la future envolée du cuivre, moins on aura de bis sur la cm, moins on aura de cuivre.
      Sans compter que l'architecture 'classique' actuelle est un gâchis de ressources: lire le ssd avec le CPU qui place le contenu en RAM, relire la RAM pour traiter l'info et la mettre en RAM, reprendre la RAM et la renvoyer au ssd, à chaque fois en utilisant le seul bus mémoire et un coeur CPU. Apple travaille à limiter ces copies et échanges.
      Quand à l'IA, à part NVidia, les annonces marketing ne veulent rien dire: le nombre maxi d'opérations n'est pas bien décrit (int8? Fp32)? Les instructions classiques prises en compte ne sont pas dites (j'ai un accélérateur qui ne supporte pas l'instruction quantité, donc plein de modèles sont inutilisables) ou les limites maxi (kernel 3*3? 8*8?)
      Sans ces infos, on ne sait pas quels modèles tensorflow existants on peut utiliser et dans qu'elles conditions

    • @HereIsANewGuest
      @HereIsANewGuest Год назад

      S’il vendent le matos qui fait le traitement, ça pourrait aussi leur permettre de proposer des services sans devoir financer les gros datacenters derrière ?

  • @lowlow38
    @lowlow38 6 месяцев назад

    Bien vu ! Au vu des annonces du jour, on peut en effet dire qu'Apple a pris du retard pour prendre de l'avance avec Apple Intelligence. Les annonces sont dingues et l'IA va très bientot arriver dans nos smartphone puissance 10 000. Bientôt les gens ne diront plus IA mais Apple Intelligence !

  • @autherplayer
    @autherplayer Год назад +3

    Elle a été virée la personne qui s'occupe des lumières du studio chez Underscore _ 🤣ou peut être qu'elle n'a pas encore été embauchée🤫
    Merci Matthieu 🙏je vais me coucher moins bête ce soir même si je ne suis pas sûr d'avoir tout capté

  • @tyloser1255
    @tyloser1255 Год назад

    En clair ils ont réussie à gravé le double voir le triple de microtransistor et non je pense pas que c'est du nano transistor car là on serait à l'ordi quantique.
    De plus dans cette vidéo très bien expliqué présenté etc il y a un gros impasse sur le refroidissement des composent car tu peux avoir bcp de Gram et et ram graphique si ton ordi chauffe trop rapiment il laguera indéniablement et si tu partage ta wifi idem.
    Bref back slash == bonne soirée, oui j'ai confondu avec angstrom

  • @cocopas80
    @cocopas80 Год назад

    Génial cette vidéo vraiment j'ai appris des truc de fou 🤩

  • @mathieup.1786
    @mathieup.1786 Год назад

    Très bonne chronique ! Merci 🙏

  • @EmmanuelBouillon0
    @EmmanuelBouillon0 Год назад

    Absolument passionnant ! Merci

  • @renatodomergue3996
    @renatodomergue3996 Год назад +3

    Pas de gravure avec une pointe, c'est de la photogravure, de la gravure par photographie.

  • @alexandrebernhard7015
    @alexandrebernhard7015 Год назад

    Génial! Merci pour ces informations!

  • @tawalioualao7444
    @tawalioualao7444 Год назад +1

    Une petite précision: Certes Intel fabrique aussi ses processeurs mais certains de leurs processeurs sont fabriqués par TSMC donc Intel fait du outsourcing aussi pour certains de se processeurs.

  • @anthonykaravane2177
    @anthonykaravane2177 Год назад

    Excellente vidéo/sujet.
    Merci

  • @Username-xl6jj
    @Username-xl6jj Год назад +1

    Une video sur le RISC V serait intéressante.

  • @Aythos
    @Aythos Год назад

    Si c'est bien le cas cette stratégie est très intéressante et me semble beaucoup plus pertinente que les applications cloud based qui reviennent extrêmement chère. Après il faut savoir qu'il existe déjà des moyen de faire tourné des LLM sous Linux ou Windows en utilisant le GPU et le CPU en parallèle et ça fonctionne vraiment bien, mais il est claire qu'il doit y avoir une perte de performance notable par rapport à l'architecture d'Apple (sans même parler de la différence en consommation). Intel semble aussi vouloir unifier CPU et GPU dans le future.

  • @gerismbougou9326
    @gerismbougou9326 Год назад +1

    Merci pour la vidéo. Je crois que c'est surtout qu'ils cherchent la bonne manière de le faire. Faire tourner des modèles d'IA en local c'est très bien mais comment en faire un outil simple et évident à utiliser? Il faut un bon pitch pour vendre ça. Et il faut que ça marche de manière transparente... En tout cas j'ai trop hâte de découvrir l'approche qu'ils vont choisir 😁😁😁

    • @ThomasSselate
      @ThomasSselate Год назад

      De quoi parles-tu, l’IA générative est déjà hyper simple à utiliser, chatGPT a été adopté par les personnes âgées d’une manière jamais vue pour une nouvelle technologie. Il suffit littéralement d’écrire une phrase pour faire un prompt

    • @airo.pi_
      @airo.pi_ Год назад

      @@ThomasSselateoui mais c’est pas du goût d’Apple de faire du prompt comme ça
      Ils vont chercher à intégrer subtilement l’IA un peu partout dans l’écosystème je pense
      Mais oui les outils actuels (génération d’image, de texte) sont incroyablement simple à utiliser 👌

  • @refusneant
    @refusneant Год назад

    Cette chaîne est remarquable. Vraiment.

  • @Jean-Denis_R_R_Loret
    @Jean-Denis_R_R_Loret Год назад

    Avant de bosser avec intel et en architecture x86_64, apple bossait avec IBM pour ses macs en archi PPC (power pc).
    Ce qui arrive maintenant, c'est plus ou moins la même histoire que quand apple est passé du PPC à x86_64 : pour des raisons logistiques.
    Truc amusant, les chips en archi PPC, on en retrouve encore aujourd'hui sur le marché des serveurs, dans plein de controleurs RAID SAS, chez LSI, ou même intel, qui sont en fait des LSI vendues sous la marque intel, ou les dell PERC.

  • @arthurlouette
    @arthurlouette Год назад

    Très intéressant merci !

  • @pouks
    @pouks Год назад

    je sais pas si c'est vraiment mieux d'avoir de l'ia en local? L'ia jusqu'ici c'est beaucoup de puissance de calcul et tres peu de données échangées (juste du texte et parfois des images), ce pour quoi les modeles centralisés qu'on utilise aujourd'hui sont parfaitement adaptés. Là ca risque de faire fondre la batterie de ton mac et on aura surement des resultats moins rapides puisque je pense pas qu'un mac aura des meilleurs perf qu'un giga serveur centralisé, apres à voir ce qu'ils vont nous faire.

  • @sfoutrel
    @sfoutrel Год назад

    Le rendement des LLM sur un MAC M2 par rapport a la puissance consommé est incomparable avec un PC et une NVIDIA... J'aime pas Apple pour tout un tas de raison mais ces CPUs me donnent vraiment envie d'avoir a nouveau un Mac.

  • @franckleveneur676
    @franckleveneur676 Год назад

    Votre idée qu’Apple pourra utiliser le M3, M4 pour le AI en local est intéressant. Apple utiliser AI déjà beaucoup dans Iphone, Mac M1, M2.
    Mais de la a ce qu’Apple puisse faire en local ce que CHatGPT fait avec un data center, je pense pas.
    Je ne sais pas combien de TB or PB of data fut nécessaire pour nourrir le model, mais a mon avis c’est assez gigantesque.
    Apple a sans doute d’autre idées en tête pour AI (traduction instantanée d’une langue a une autre par example, surtout a travers VisionPro)
    VisionPro va changer pas mal de chose. C’est Zoom en 3D, avec collaboration via bureau virtuel.
    A moins qu’Apple traine des models, qui soient downloadable via Apple AI Model Store et immédiatement utilisable sur iPHone ou autre.

  • @TerapiBoat
    @TerapiBoat Год назад +1

    Les derniers AMD ont aussi une puce intégérée pour l'IA "Ryzen AI"

  • @terror403
    @terror403 Год назад +1

    Super vidéo ! Du coup si tous ces macs en réseaux communiquent leurs puissance de calcul à Apple, la puissance de calcul est phénomènale

  • @jeanmatth1588
    @jeanmatth1588 Год назад

    Belle vidéo.
    J’ai toutefois l’impression que l’ia on device est déjà là depuis un moment chez la concurrence (Google pixel et leur puce Tensor par exemple)

  • @Lantement
    @Lantement Год назад

    C'est extrêmement simple, c'est une des plus grosses boite de la planète et elle contrôle une partie énorme du marché mobile et bureautique à elle seule.
    1. Elle n'a ni droit à l'erreur avec ce qu'elle propose, ni proposer des choses qui s'écartent de la ligne directrice de la boite.
    2. Comme pour tous les multinationales qui se lancent dans l'IA ou celles qui ont rachetés tous les acteurs actuels, mettre des barrières et éduquer une IA pour qu'elle soit en accord aux lois, à la non-vulgarité et à toutes les propagandes de ceux qui financent la boite prend du temps.
    3. L'IA arrivera avec quelque chose de révolutionnaire, qu'elle soit un nouveau concurrent ou une action précise, elle servira de soleil à un univers marketing précis

  • @MartinMichiels
    @MartinMichiels Год назад +1

    l'IA on device pose aussi moins de problèmes d'allées et venues de data personnelles sensibles entre un client local et un serveur. Certaines personnes livrent littéralement leur vie sur ChatGPT. Une solution locale pourrait en partie palier ce problème.

  • @TheEricDangerous
    @TheEricDangerous Год назад

    La principale innovation des M3, c'est leur meilleure segmentation . A 7200$ le M3Ultra toutes options (16 coresCPU 40gpu 128go 8tb) on tord un peu plus le bras de l'acheteur (le 14 coresCPU est 500$ moins cher).

  • @alexandremocan140
    @alexandremocan140 Год назад +1

    N'y aurait-il pas non plus une stratégie par rapport à la Reram ? En fabless ça eviterai d'avoir acheté un bras, une machine qui devient useless. Après je ne suis pas assez connaisseur

  • @HereIsANewGuest
    @HereIsANewGuest Год назад

    Pour voir autre chose que des hommes blancs parler, c’est de 12:21 à 1:26 !
    (Bon, cette ”blague” est sûrement dispensable, et franchement la vidéo est très bien comme ça. Il n’y avait rien à ajouter, je préfère d’ailleurs perso laisser parler tant qu’il n’y a rien de plus à dire. Mais en ces temps ”woke”, on remarque des trucs sans intérêt, et pire, parfois on commente dessus. :-D )

  • @thomaskahn6111
    @thomaskahn6111 Год назад +2

    Grosse erreur…… le 3nm c’est pas la finesse de la gravure mais le nom commercial du procédé ! #techcafe

  • @Mcnoklacyphie
    @Mcnoklacyphie Год назад

    Et si ce serait un coup triple! Intégration all in 1 + allégement monétaire chez Intel ET permission à Intel de valoriser l'entreprise... pour le 3mm... ce que je penses de ce que la présentation du m3 démontre : c'est que tout les acteurs sont gagnants

  • @PersonnePoker
    @PersonnePoker Год назад +1

    Je suis choqué par le manque de compréhension technique de l'intervenant. Confondre inférence et apprentissage, imaginer que le M3 est bon pour de l'apprentissage, ne pas insister sur l'avantage de la mémoire unifiée, ne pas savoir que l'autre avantage majeur est la bande passante de la mémoire, ne pas savoir que l'inférence sur M3 pour un LLM en local mais que pour faire de l'inférence sur un llm en cloud la puissance de calcul (A100/H100) redevient critique, ne pas savoir non plus que le NPU n'est pas fait pour implémenter un transformer (structure de base des LLMs) et que donc qu'aucune implémentation de llm sur Mx n'utilise les NPUs à date mais au contraire la partie CPU/GPU... J'ai du mal à comprendre la valeur ajoutée d'un intervenant quand le présentateur a clairement une bien meilleure compréhension de tout cela.

    • @MusicZtorm
      @MusicZtorm Год назад

      Sans compter que le NPU est déjà present sur le M1 et M2

  • @Sebxcz
    @Sebxcz Год назад +1

    Il y a déjà une app sur IPad qui applique des modèles Stable Diffusion en local sur l’Ipad : DrawThings. Et c’est bluffant de voir ce petit machin générer des images par IA, en local.

  • @lelectroniquecestpasautoma9420

    C'est très intéressant, cependant, la taille de la technologie depuis environ 15/20 ans ne correspond pas du tout à la taille physique des transistors. IBM veut sortir une technologie de transistor de 2 nm, pourtant, la longueur minimale entre le drain et la source pour cette technologie est de 40 nm. C'est une erreur, bien qu'en tant qu'expert en conception de circuits intégrés, j'aie cru.

  • @mightywizard7212
    @mightywizard7212 Год назад

    Pour moi c'est clairement pour des raisons économiques qu'Apple à fait ses puces M3, ils aiment bien faire de gros bénéfices et n'aiment pas être tributaire d'un "concurrent", ça leur a bien foutu les boules d'être obligé (pour des raisons évidentes de performances) de passer de Motorola à Intel à l'époque, et avoir ses propres composant ça permet de verrouiller encore plus l'écosystème et donc pour faire ce qu'on veux avec les données et/ou l'argent de l'utilisateur (ben oui désolé mais il n'y aura plus de mise à jour pour votre modèle vous devez acheter le nouveau :D), Apple c'est une machine à fric depuis bien longtemps, on est bien loin des débuts dans un garage.
    Et attendons de voir ce qu'ils vont faire niveau IA, parce que tout le monde ne peux pas se payer un M2 ultra avec 192 Go, hein! Et quand ce sera démocratisé et accessible à tout le monde ne vous inquiétez pas que sur les PCs se sera la même.

  • @hesaiem
    @hesaiem Год назад

    Est-ce vraiment intéressant en terme de consommation de porter les L.L.M vers du local ? Et pourquoi est-ce souhaitable ? On développe à intervalle régulier nos infrastructures réseau pour précisément faire davantage avec nos machines, et les data center ont cet avantage de constamment servir les utilisateurs, ce qui n'est pas le cas de nos appareils individuels.

  • @Distrido75
    @Distrido75 Год назад +1

    On fabrique des trucs d'une précision atomique et on lance des trucs dans l'espace, puis de l'autre côté on écrit encore sur du papier et on meurt de faim. On vit dans un monde bien étrange.

  • @swisswildpicsswp3095
    @swisswildpicsswp3095 Год назад +1

    Pendant ce temps là, iCloud a toujours une interface de merde et perd des données, il faut payer pour lire des HEIC sur Windows, RUclips bloque des adblocks, les services de streaming sont en crise...
    On s'excite beaucoup sur l'IA, mais est-ce que quelqu'un se préoccupe encore de l'expérience de base des utilisateurs?

  • @cslevine
    @cslevine Год назад

    Un sujet qui n'a absolument JAMAIS été traité nulle part ( FIRST ) : celui d'un arbre de l'évolution pour les machines.
    Ces machines capables de graver des CPU de 3 nanomètres : ont été fabriquées à l'aide d'autres machines de recherche la + récente,
    qui elles mêmes sont le fruit de recherches d'il y a 2 ou 3 ans, et ainsi de suite.
    Si l'on devait repartir de rien, même fabriquer un simple marteau à l'aide d'une branche d'arbre et d'un morceau de fonte :
    - la branche on peut la tailler à la main, avec beaucoup de patience, - le morceau de fonte, faut faire un four en terre
    Même si on a tous les plans, imprimés :
    QUESTION : Existe-t'il aujorud'hui le moyen de refabriquer TOUTE LA CHAINE depuis le départ, ( pour, par exemple : si on voulait ajouter une usine de fabrication en France, ou en Afrique, Australie ou à Gaza - ce qui serait très comode et agréable... - ) ... ou bien en serait-on totalement incapable, et déjà dépendant d'anciennes machines, à maintenir, si l'on souhaite fabriquer les machines plus modernes, qui elles même fabriqueront les "bus" de fabricaition des CPU à 3 nm ?

    • @yamazakikaoru9579
      @yamazakikaoru9579 Год назад +1

      La réponse est simple "on en serait incapable" , je suis surpris que tu pense à ça pour les CPU.
      Même une voiture , même ton T-shirt serait impossible de les faire à partir de rien...
      et ça date pas d'hier Adam Smith (18 eme siècle) disait la même chose, déjà que au 18 eme siècle on avait ce genre de penser ,tu imagine bien que de nos jours , surtout pour des CPU la question se pose plus ! :p

    • @cslevine
      @cslevine Год назад

      @@yamazakikaoru9579 Merci.
      Oui bien sûr : pour tous les objets du quotidien. Voilà qui exige une réelle maintenance à des niveaux qu'on n'imagine pas...

    • @yamazakikaoru9579
      @yamazakikaoru9579 Год назад +1

      @@cslevine Clairement , rien que de se dire , comment refaire des outils basique (genre un ciseau) serait un casse tête , il faudrait extraire des minerais , rien que ça , ça demanderait un temps fou , il faut une pioche (parce que tailler à la main t'en a pour quelque milliers d'années je pense lol ).
      faire des haut fourneaux , ensuite , avoir un moule , et rien que leur fabrication est pas si évidente.
      Je me suis toujours demandé comment tout cela à émergé !
      En tout cas , ça semble être dans des temps assez lointain , parce que même des vielles civilisation comme la Mésopotamie et quand on voit babylone ,il semblait déjà avoir pas mal d'outils , (pareil pour l’Égypte antique).
      Mais sur l'échelle de l'homme , ça a pris des dizaine de millier d'années !
      Parce qu'on dit que l'homme actuel est né il y'a -100 000 ans , pourtant niveau histoire , on connaît les grandes civilisations depuis -5000 ans , on peut se demandait ce qu'a fait l'homme entre pendant 95 000 ans , d'un coté une population faible + aucun outils , ça devait être chaud cacao pour faire des sociétés plus "élaboré" ,rien que l'agriculture ça demande déjà d'avoir quelque outils pour travailler la terre.
      Bref c'est un sujet que je pense que tout le monde à un peu pensé , sans trouver de réel réponse ,et donc oui de nos jours ça devient quasi inimaginable pour faire le moindre objet de A à Z.

  • @ConcreteAdvisory
    @ConcreteAdvisory Год назад +1

    Bah aux alentours de 20% de gain en puissance et le ray-tracing c'est quand même pas rien je trouve !
    J'avais besoin d'un nouvel ordi portable (j'en avais plus depuis 4 ans) et j'ai craqué pour un M3 Pro. Ça me permettra de me mettre un peu à la 3D, il permet de faire du montage très correct et devrait bien durer dans le temps. Même la RAM, 18Go au lieu de 16 c'est un petit plus. Pour du portable ça me suffit amplement en tout cas. Je ne comprends pas bien pourquoi les gens trouvent que cette mise à jour est médiocre. C'est sur que c'est pas la puce M1, mais c'était tout nouveau ! Là on repart dans un cycle incrémental je pense depuis le M1. Et encore... 20% j'appelle pas ça incrémental franchement !
    Par contre oui l'IA je les attends au tournant. J'imagine qu'ils attendent le bon moment pour sortir quelque chose de particulièrement abouti ?
    Bref franchement super intéressant !

    • @tbfrstudio5416
      @tbfrstudio5416 Год назад

      Bah typiquement si tu veux faire de la 3D 18Go de Ram c'est relativement peu si tu veux faire des objets avec des textures en haute résolution, j'ai un pc avec un i7 12700h, rtx 4060 et 16Go, même si le rendu dans son ensemble est fait rapidement bah le fait que j'ai "que" 16Go bah c'est embêtant parfois, surtout si je veux un rendu 4K avec des textures en 8K, la RAM a du mal à géré tout ça en même temps, c'est encore pire quand c'est de l'animation...
      32Go pour de la 3D c'est pas mal et ça commence à être suffisant pour du semi-pro. Mais oui le sens gueulent parce que à ce prix 550Go de stockage et 8Go de Ram c'est que dalle, 8Go même avec MacOs c'est assez peu et au bout de deux ans tu vas déjà avoir certains usages qui vont te faire ramer, ils auraient pû faire l'effort de mettre 16Go de base, ou quitte à laisser 8Go au moins augmenter à 1To de stockage de base, au pire que ça coûte maintenant c'est pas comme si ils allaient se ruiner.

    • @tbfrstudio5416
      @tbfrstudio5416 Год назад

      D'ailleurs intégré le calcul spécialisé dans le raytracing ça veut tout et rien dire, si tu sors un ordi qui fait du calcul raytracing mais qui en échange n'arrive pas à supporter une bonne partie des logiciels tiers par problème de compatibilité, pour le jeu c'est encore pire parce que faut trouver des stratagèmes qui te bouffent de la puissance pour y faire tourner des jeux windows ou linux. Et surtout bah si tu veux réellement un ordi spécialisé dans le calcul des rayons pour du pro tu prend un pc fixe avec une carte graphique pro qui fait faite pour ça, c'est pas les mêmes prix cependant, mais c'est le must have pour les concepteurs 3d.

  • @arnauda5561
    @arnauda5561 Год назад

    Il y a une histoire de gaz spécial dont la Russie produit 60% ou plus, je suis pas sûr. C'est la raison pour laquelle la Corée n'a pas pris une sanction contre la Russie..
    La France aurait du s'en inspiré d'ailleurs, 35 boîtes du CAC était présent en Russie . Quel dirigeant souhaiterait couper 30% à une des plus grosses boîtes de sont pays alors que les voisins n'en find pas autant.. 🤔

  • @rawz06
    @rawz06 Год назад

    Note: Apple ne communique jamais directement les mots IA/ML/DL mais amène des fonctionnalités dans leur OS qui l’utilisent, et je vous invite à lire la page de macOS ventura et les nouveautés vous y en verrez.

    • @bricewernet6493
      @bricewernet6493 Год назад

      Et c'est plus intelligent. Annoncer des chiffres alors que certaines puces ne peuvent pas charger des modèles disponibles gratuitement, c'est décevant. Apple au moins annonce de la fonctionnalité, pas de la potentialité

  • @franckdansaert
    @franckdansaert Год назад

    wow ! très bien vu

  • @alexterieur3394
    @alexterieur3394 Год назад +1

    Tiffany elle habille bien une pièce n'empêche

  • @ptitbenable
    @ptitbenable Год назад

    3 nm est inférieur à la longueur d'onde de la lumière utilisée pour la gravure. Et ça, c'est très compliqué.

  • @daye40k92
    @daye40k92 Год назад

    Ce qui est surprenant aussi c’est qu’ils fassent des comparaisons entre la M3 et la M1, et pas la M2 de mémoire

  • @sing4everoliiv944
    @sing4everoliiv944 Год назад

    Hello petite question, Y a-t-il des gens ici qui ont des problèmes d’écran avec des MacBook Pro M1 2021?

  • @yvangascogne
    @yvangascogne Год назад +1

    Canon a récemment développé une techno de nano impression qui semble prometteuse et qui reduit les coûts à une fraction du prix des bijoux d'asml

    • @alloquoi3281
      @alloquoi3281 Год назад +1

      Oui mais le débit des machines Canon serait bcp plus faible selon une personne de la profession, 80 plaquettes/h au lieu des 300 plaquettes/h des machines EUV d''ASML ... Affaire à suivre en tout cas.

    • @yvangascogne
      @yvangascogne Год назад

      @@alloquoi3281 si le tarif de 15M$ pièce est tenu cela peut valoir le coût s'ils fonctionnent en série. Et les restrictions seront peut-être moindres...

  • @goranszwajda9681
    @goranszwajda9681 Год назад +29

    Il y a beaucoup de bot dans les com

  • @Jimwatl
    @Jimwatl Год назад

    juste pour info stable diffusion fonctionne déjà sur apple silicon il tourne sur ios ipad os et mac os en natif via l'app draw things notamment et cela fait presque 1 an que je l'utilise

  • @pascalthomas1580
    @pascalthomas1580 Год назад

    Salut. Interressant la partie sur les capacités ia, et le lien avec la memoire unifiee, dommage qu'ils mettent moins de memoire sur leurs pc que sur la première carte graphique de base

  • @ange.g6157
    @ange.g6157 Год назад

    Sujet super interresant, je trouve dommage que trop d'images sans grand intérêt aient étés rajoutées au montage ce qui nuit selon moi a la compréhension de la chronique. Peut être faudrait il trouver un plus juste milieu en affichant que des images utiles a la compréhension.

  • @thibautt
    @thibautt Год назад +1

    Bon, il faudrait penser à faire revenir la table, malgré le retour des habitués, vous n'avez pas l'air à l'aise avec vos tablettes dans vos mains.

  • @mini-pouce
    @mini-pouce Год назад

    Honnêtement malgré le titre et le sujet, vous manquez le coche.
    Cette Keynote est plutôt la conséquence du changement chez Apple depuis Cook (gamme, marketting, certaines stratégie), une preuve de plus qu'Apple s’accoquine avec le mainstream en suivant d'autres marques si ça permet de gagner en PDM. Jamais on aurait vu un moove aussi disgracieux par le passé ni de révisions si rapide d'un produit far.
    Et évidemment Apple ne parle pas d'IA pour le moment puisque ce n'est pas esthétique, mais Siri et le traitement photo ou acoustique c'est quoi ? Et ce n'est pas tout jeune... Ils y étaient super tôt !
    Ils vont continuer de créer le besoin et l'introduire par l'applicatif (peut être d'abord en pro grâce au prouesses des puces dont vous parlez justement), et c'est à ce moment là qu'ils en feront la pub mais avec leur propre nomenclature, et encore.
    C'est ce qui fait la force d'Apple depuis toujours.
    Ce n'est pas pour faire le hater, plutôt pour aider et par habitude de mieux, mais la construction de la vidéo n'a aucun sens et on reste vraiment sur notre faim ! Je ne sais pas si c'est un manque de maitrise du sujet ou une collision d'envie d'idée à partager dans la vidéo, mais c'est vraiment dommage. Bref, continuez votre travail de vulgarisation ! :)

  • @layrosadnam3609
    @layrosadnam3609 11 месяцев назад +1

    Oui c'est un coup de maîte

  • @kiyana7261
    @kiyana7261 Год назад

    Magnifique!

  • @zaphodbeeblebox
    @zaphodbeeblebox Год назад

    Stable diffusion marche sur m2. En fait c’est surtout une question de pytorch qui marche sur apple silicon depuis au moins un an

  • @ДиванопитекПитэк

    Le sourir de madame est totalement passionant

  • @MrEldran64
    @MrEldran64 Год назад

    Ca se passe comment pour les gros gpu?

  • @franckmalers2299
    @franckmalers2299 Год назад

    Je me suis toujours dit qu'un Jarvis perso ce serait un truc de ouf mais je refuse de me servir des LLM et "IA" tant que les données partent je sais pas où et que tout n'est pas en local. Clairement, s'ils arrivent à le faire c'est le genre de truc qui pourrait me faire acheter du apple

  • @antocmartinaemz
    @antocmartinaemz Год назад

    Ca fait pas super longtemps quon a plus que 6go sur un gpu ? Meme mon gpu moyen de gamme achete il y a 5-7 ans en a 8, et le nouveau de l'année derniere en a 16 '-'
    En plus, avec le resisable bar chez amd et je sais plus comment a sappelle chez intel, on peut partager la ram du cpu avec le gpu non ?
    Et faire de l'ia sur gpu, cest un peu depasse dans certains cas aussi, il y a des carte d'ia notemment celle de google qu'on peut mettre dans un pc qui sont bien plus performantes dans certains cas

  • @patekreol974
    @patekreol974 Год назад

    Superbe vidéo

  • @Louckil21
    @Louckil21 Год назад

    Deux choses :
    -3nm ce n'est pas de la taille d'un atome d'oxygène, d'ailleurs l'échelle de l'atome va vite apparaître comme une limite à la gravure.
    -Elle sert à quoi la nana ?

  • @LM-wu4hx
    @LM-wu4hx 10 месяцев назад

    8:40 Franchement les gars, vous êtes constamment en contact avec la langue anglaise. Neural Enjaayne 😫😫😫
    9:43 oNE sheep… je vais vomir

  • @rowger1375
    @rowger1375 Год назад +6

    J'adore votre émission mais je trouve dommage que le temps de parole des 3 personnes soient toujours 2 + 1. Une personne est toujours là pour figuration, que pour de réelles interventions. Sinon changé rien les sujets, contenu sont tops :)

    • @robinhoodhimself
      @robinhoodhimself Год назад

      Oui, la femme est la figuration et franchement je me demande ce qu'elle fout là, mais les deux autres auraient leurs place chez Cyril Hanouna. Ici c'est de l'info pour la maternelle sur du glacé.

  • @arnaudt3935
    @arnaudt3935 Год назад +2

    Est-ce que ces "Neural engines" et autres Gb dédiés à l'IA pourraient être utilisés pour de l'entrainement déporté on-device ?
    Car là, ils auraient un avantage de malade en termes de capacité d'entrainement sur tout le hardware vendu.
    Ce qui rendrait encore plus essentiel le fait de consommer peu, pour que ça reste plus scred.
    Merci pour votre travail de qualité sur cette chaîne

    • @DavidBoura
      @DavidBoura Год назад +1

      Oui c'est le rôle de ces nouveaux NPU, qui sont des puces optimisées pour l'entraînement. Reste à voir ce que ça donnera, en comparaison des énormes clusters de calculateurs utilisés par les grosses boîtes d'IA.

  • @phenoumene
    @phenoumene 3 месяца назад

    allons les enfants, on pouvait dire aussi : "apple 'dessine' ses processeurs" 🇫🇷

  • @Ctrl_Alt_Sup
    @Ctrl_Alt_Sup Год назад

    Un sujet sur les processeurs analogiques Mythic?

  • @mariecentsous5478
    @mariecentsous5478 Год назад

    J'aime bien la prononciation "kinotte" au début.

  • @KodeurKubik
    @KodeurKubik Год назад

    Hello World depuis puce M3 :)

  • @s_m_d2667
    @s_m_d2667 6 месяцев назад

    6 mois plus tard... Apple demande à ChatGPT de l'aider.

  • @edmondj.
    @edmondj. Год назад

    Qui a dit que l'entrainement était impossible sur silicon ? Source ?

  • @samsonb6788
    @samsonb6788 Год назад +1

    Moi je pensais que c’était une réponse à l’annonce de snapdragon avec le nouveau processeur ARM !!? C’est arrivé aussi précipitamment que la surprise de l’annonce de snap !!??

    • @dukefsc
      @dukefsc Год назад

      Bah oui ils ont sorti le M3 du chapeau juste pour répondre à Qualcomm qui…. Pour l’instant n’a rien sorti ;)

  • @cartcurtis4236
    @cartcurtis4236 Год назад

    En vrai ceux qui font du arm aujourd'hui vont dans le même sens il n'y a qu'à voir la sortie des nouveaux snapdragon !

  • @zouloulima7053
    @zouloulima7053 Год назад

    c est pour ca que le gain en perf clasic a pas bcp augnenté