Petite précision / correction : Aujourd'hui la finesse de gravure 3 nm ne correspond plus à aucune dimension réelle du transistor dans les processeurs. Historiquement, la finesse de gravure faisait référence à la taille du Gate d'un transistor dans les processeurs, c'était la mesure de référence pour évaluer la performance d'un processeur, plus on peut graver petit le transistor, plus son gate est petit, plus on peut mettre de transistor, faire des calcules, et augmenter la puissance. Or, depuis les 40 nm on ne peut plus diminuer la taille du gate à cause des limites / lois de la physique, (si le gate était encore diminuer on s'exposait à ce qu'on appelle "l'effet tunnel" qui perturberait le fonctionnement du transistor). Il a donc fallu modifier le design, la conception même du transistor, le "réarranger", pour continuer à améliorer les processeurs. En conséquence, on ne pouvait plus prendre la taille du gate comme référence de la puissance d'un processeur, car ca n'avait plus de sens, le gate restait de la meme taille mais la puissance des processeurs augmentait quand même. Aujourd'hui, les termes de finesse de gravure 3nm, 5nm, etc. sont des labels qui sont données au processeur si ils remplissent certains critères définis. Mais qui définie ces critères vous allez vous dire ? Et bien c'est l' I.E.E.E (Institute of Electrical and Electronics Engineers) qui au travers de l' I.R.D.S (International Roadmap for Devices and Systems) qui définie ces critères. Pour obtenir ces labels les transistors doivent être conçus et gravés d'une certaine manière. Les entreprises ne peuvent pas donner le label aux processeurs comme elles le souhaitent elles doivent suivre ces critères. On a décidé de garder les termes de "finesse de gravure" car le public c'était tout simplement habitué à ce que : plus fin = plus puissant, c'est un terme marketing. Il n'est pas falacieux, il permet juste de faire plus simple pour le grand public. lien : fr.wikipedia.org/wiki/International_Roadmap_for_Devices_and_Systems fr.wikipedia.org/wiki/Institute_of_Electrical_and_Electronics_Engineers irds.ieee.org/editions
Alors exact mais la finesse de gravure n'a jamais mesuré "la performance d'un processeur". Effectivement le reste suit , Intel vs AMD le montre bien Intel à une moins bonen finesse de gravure et ils font des fois mieux que AMD. Et les performance de AMD ne s'explique pas du tout via la finesse de gravure. D'ailleurs cela fait un moment que cette finesse représente plus trop les performance, quand tu peux mettre 8 cores sur ton die , bon , c'est pas le soucis de place qui te pose soucis.
Petite erreur sur les tailles : Un atome d'oxygène à une taille de ~300 picomètres (si on prend comme référence le rayon de van der Waals). Donc pour 3 nanomètres on est davantage dans l'ordre de 10 atomes d'oxygène (ce qui reste très impressionnant).
@@laurentmiltgen-delinchamp5508 152 si tu prends en compte le Rayon de Van der Waals, ce qui, d'une certaine façon dépasse le rayon d'un atome à proprement parler, soit son rayon covalent, soit 60pm l'atome d'oxygène.
Ça veut rien dire les copains la taille d'un atome. En effet un atome est constitué en son extrêmité d'électrons qui sont localisés dans des orbitales atomiques. L'atome n'a pas de taille propre en revanche on peut lui assigner des tailles caractéristiques en général en raisonnant sur les moyennes statistiques de position des électrons de valence par rapport au noyau. De plus, les électrons ne sont pas nécessairement collés. Dans une maille il y peut y avoir un espacement plus ou moins grand entre les atomes. On peut déduire la distance entre deux atomes en trouvant la distance locale où l'énergie potentielle des atomes est la plus faible. Bref à voir mais ton raisonnement de diviser la taille de la gravure par le rayon atomique des atomes est un peu bancal.
Un détail mais les 3nm ne correspondent plus à la distance entre la gate et le drain du transistor depuis quasiment une dizaine d'années... maintenant il s'agit uniquement d'une valeur théorique qui correspondrait à cette taille si le transistor était "à plat" (ce qu'ils ne sont plus depuis un bon moment déjà c.f. FinFET et autres).
Si jamais vous arriviez à interviewer un/une ingénieure qui fait de la conception hardware (VHDL / Verilog), pour donner des détails sur ces actus, ce serait grave intéressant !
En fait selon plusieurs analystes cette keynote serait plutôt avant tout une réponse à Qualcomm (qui a récupéré quasiment l'architecture complète des puces M1 avec le rachat à prix d'or de la startup que les architectes de ces CPU ont créé après s'être barrés d'Apple...) Pourquoi cet avis? Car en fait Apple est pas du tout dans l'exception à mettre des NPU/TPU dans ses processeurs en ce moment, à vrai dire c'est même plutôt la norme! Qualcomm avec ses Snapdragon X (décidément une grosse annonce...), mais aussi et surtout Intel avec Meteor Lake, AMD avec Ryzen AI, Google avec ses Tensor, pour ne citer que quelques gros noms. Bon, Apple reste quand même bien costaud en performances! Parlant de Snapdragon X et de Ryzen AI, c'est deux exclusivités Microsoft (aucun contrat n'a été rendu public, mais bizarrement les seuls drivers pour utiliser ces materiels sont sur Windows). Microsoft est donc bien en train de jouer sur les deux tableaux, cloud comme edge J'en profiterais aussi pour rajouter que le terme de "X nanomètres" est purement marketing de nos jours, en fait aucun détail de la puce n'est vraiment gravé plus fin que quelques dizaines de nanomètres ! Il faut savoir que les technos les plus récentes ont abandonné les transistors à plat, pour passer à des designs 3d (FinFET surtout aujourd'hui, GAAFET dans le futur). Il faudrait plutôt voir ça comme "des transistors qui prennent autant de place que si on avait réussi à faire des transistors à plat de 3 nm". Oui, c'est tordu, mais c'est marketing PS: Merci pour cette introduction à l'industrie du semiconducteur, le domaine est malheureusement trop peu connu chez les développeurs
c 'est sympa le neural engine de Apple, mais je rappelerai que les ingenieurs de NVIDIA ne sont pas des idiots et que leurs puces ecrasent celles de Apple en performance par $, meme si en terme de perf par watt Apple est bien placé en effet. Concernant l'inference embarquée, Apple a en effet une strategie mais l'avantage du cloud c'est que 1) le calcul alloué a un model peut etre phenomenal alors que celui sur la puce M2 ou M3 ou Mx sera beaucoup plus limité, l'autre avantage c'est que le cloud est dimensioné pour le pic de calcul de la demande globale alors que Apple doit prevoir le chip pour la capacité maximum de chaque utilisateur. L'avantage de l'inference en locale c 'est 1) la confidentialité/vie privée , 2) la latence mais seulement si le model est tres rapide a inférer donc pas tres puissant par rapport a ce que l'on aurait avecle cloud au meme moment.
Merci franchement merci beaucoup c’est gens qui raconte n’importe quoi juste pour gonfler leur egos par rapport a apple ,apple n’a aucun plan concernant l’IA . le vraie truc qui faisait apple c’est ”steve job”. Mettre ”sa” sur une puce oui …mais pas encore à notre époque. Nous avons pas encore créé la technologie qu’il faut. Bref en tout cas oui aujourd’hui il s’y intéresse a coup de 1 milliard€. Ce qui est dommage c’est que ces mecs ils vont après dire oui regarde ce qu’apple a créé. Regarde cette dinguerie et patati et patata. Sachant que du tchat gpt c’est vraiment incroyable.arrêtez de faire rêver les gens comme sa !
J'adore parce que tu vois Mica lorsqu'il parle d'IA c'est un enfant ! Il est heureux et ça fait plaisir de voir quelqu'un de vraiment épanouie dans un sujet. C'est rare de voir cette effet aussi fort. :D et merci pour les vidéos ! Franchement elles sont génial ! Et surtout elles ne sont pas indigeste !
Concernant le fait qu'Apple ne parle pas d'IA, c'est une grande habitude de leur part de prendre quelque chose de commun et le "re-brander" pour se démarquer, Marques Brownlee (MKBHD) a fait une super video sur le sujet (Apple's Forbidden Words). Ils parlent en fait énormément d'IA, mais en d'autres termes
Je vais enfoncer une porte ouverte, mais c'est aussi de la géopolitique tout simplement par rapport à Taiwan. Apple cherche juste à sécuriser leur ligne d'approvisionnement, vu que TSMC est la quasi seule boite au monde qui a la technologie avancé pour faire les derniers processeurs. Et vu que l'invasion de Taiwan est qu'une question de temps, le marché des composants va devenir fou dans les prochaines années.
L'invasion de Taïwan est loin d'être réalisée. Il est probable qu'elle ne survienne jamais. En tout cas, si cela devait arriver, nous aurions d'autres soucis que l'approvisionnement en processeurs...
cela n'est plus vrai depuis le chip act. Les US, enfin conscient du danger, investissent + de 50 milliard pour pouvoir produire chez eux les chips. Les usines sont en cours de construction au US avec de gros gros avantages fiscaux et financement du gouvernement. Tu m'étonnes ...
En effet pour le chip act, cependant il faudra longtemps avant que cette usine soit opérationnelle ou même que les USA aquiert un niveau de compétence aussi développé que les employés de TSMC. Oui c'est une très bonne chose cette usine, mais la formation des ingénieurs derrière c'est un autre sujet. Pas sûr que l'ensemble soit prêt avant que Taiwan tombe...@@Fox-BZH
quick fact que personne n'a demandé: les optiques pour les machines lithographiques (pour les processeurs) sont faites par Carl Zeiss, et le fondateur de l'entreprise éponyme est littéralement le mec qui a inventé la production d'optique de masse (dans le sens pas à la main)
Ok ok donc c’est de l’optique qui permet la fabrication de ces processeurs Je me demandais pourquoi Nikon et Canon fabriquaient des processeurs alors que pour moi c’était uniquement des marques d’appareil photo 😅
ça me fait rappeler le Qualcomm 8gen3 qui pourra faire tourner des IA de génération image, texte et autre. Localement sur un smartphone sans connexion internet. C'est très impressionnant
Les performances de Stable Diffusion, optimisé pour les GPU, étaient catastrophiques sur les Mac, c'est pourquoi Apple s'est mis en tête de l'optimiser. A l'époque, entre mon MacBook M1 Pro et mon laptop gamer Asus doté d'une puce Nvidia 3080 (la version portable donc) de génération et prix équivalents, il y avait un facteur 5 de vitesse de rendu en faveur du PC !!
Apple continue à communiquer sur la puissance brute du CPU (hors GPU, NSP) pour deux raisons: - ça leur permet de mettre la pâtée à Intel - ça continue à bien représenter les besoins utilisateur (compilation, effets audio/vidéo) Ils mentionnent le Neural Engine, mais on sent bien que leurs usages sur l’amélioration de photos ou la complétion de mail) sont assez petit joueur pour le moment. Mais ils insistent beaucoup sur l’aspect ´on device’. Je pense qu’ils attendent que ce soit mur, techniquement et socialement, pour frapper un grand coup
J'avais pensé à un petit "One more thing" d'Apple quand ils dévoileront enfin un vrai usage de l'IA sur leur matériel. Déjà bien sûr agrandir tes propres images avec l'IA pré-intégrer dans le Finder mais surtout une génération du fond d'écran de ton Mac en local après le premier setup sans ou avec logo Apple, et qui reprend l'aspect que tu veux selon la version de Mac OS que tu préférait.
Petit retour sur la taille des atomes. le silicium est de 0,2 nm; 3 nm nous donne de l'ordre de 15 atomes de coté. Au début des années 2000, nous perdions l'effet transistor aux alentours de 100 atomes. On ne trouve pas vraiment de données plus actuelle sur l'amélioration de cette limite.
2:21 Un atome ne fait pas non plus 3nm. En fait quand on parle d’atome, il est difficile de donner une taille exact, car le volume des l’atome dépend de la distance entre son noyau et son nuage d’électron. Ce dernier variant selon l’énergie contenu et la nature de l’atome. Un atome d’hydrogène a un électron donc une couche d’électron. Un atome de lithium a 3 électron et deux couche d’électron (deux électrons sur la première couche, 1 électron sur la deuxième. Le lithium est plus volumineux que l’hydrogène. Par contre, le béryllium (plus lourd que le lithium, est moins volumineux : les deux électrons de la première couche du lithium repousse plus l’électron de la 3ème couche. Le béryllium a plus de charges positives mais autant de d’électron sur la première couche. La première couche est plus attiré par le noyau, et la deuxième l’est de facto aussi car moins repoussé par la première couche. On peut tout de même estimer une moyenne de taille d’atome en comparant la distance entre deux nucleus de même atomes. Mais les distance sont entre 0.1 et 0.5 nm. En aucun cas 3 nm.
Ouais bon la description du transistor laisse à désirer. C’est pas le « dopage qui fait des 0 et des 1 ». Aussi 3nm c’est beaucoup plus grand qu’un atom. C’est pas infos très dur à vérifier donc faut faire un peu gaffe quand même
Pas mal ! Intéressant le coup d'avoir l'IA en local ! ça offre aussi une meilleure garantie de confidentialité (essentiel pour certaines entreprises!) et ça décharge les serveurs ! Vous m'avez appris quelque chose, merci !
tu peux aussi en avoir dans ton reseau priver. aussi, L'IA en local reste limiter pour des model avec un nombre de parametre reduit, qui sont deja tres bon. Meta (facebook), est probablement un des lideur dans ces petit model avec son LLaMA 2, qui peut deja etre installer sur ton ordi perso, ou meme personalize (fine tune).
Décharger les serveurs pour surcharger les appareils individuels je ne sais pas si c'est si utile que cela. La centralisation est aussi, malgré ses désavantages, moins consommante.
Je suis étonné de ne pas voir le lien avec l'annonce de Qualcomm quelques jours avant qui annonçait le dépassement du M2 de beaucoup en mono-thread et ne pas voir non plus la prise en compte de la révolution de Canon sur la gravure des semiconducteurs qui devient énergétiquement beaucoup moins cher avec leur nouveau procédé....
@@MultiMustash Les Qualcomm series X sont au stade de prototype, les tests de performance sont fait sur des machines avec une alimentation et un refroidissement conséquent. On ne connait pas les conditions de test de Qualcomm du coup difficile de comparer
si j'ai bien compris la chaîne, les fonderies fabriquent comme TSMC, fabless conçoivent comme Qualcom, architectes inventent l'architecture comme ARM tandis qu'ASML fabrique des machines que les fonderies utiilisent pour fabriquer les puces. Intéressant. Et l'enjeu des prochaines années, ce sera où l'IA tourne, localement ou dans un cloud.
Faut bien se rendre compte que le développement d'un processus de fabrication de puce prends entre 3 et 5 ans, que ça coûte des milliards. Les usines c'est pareil c'est des salles blanches de classe 1 de plusieurs milliers de m². Les usines sont maintenant à température constante toute l'année et même les vibrations sont aussi un problème à ces échelles. Résultats très peu d'entreprise de production (fondeur). Aujourd'hui seul Samsung et tsmc maîtrise le 3nm à des niveaux industriel.
Dommage que vous ne dites pas que Apple a une grande culture du processeur ! Le PPC (PowerPC) a été développé par Apple, Motorola et IBM pendant des années avant le passage chez Intel en 2007... Le PPC601, 602, G3, G4 et G5 !!! En maintenant seul avec les Apple Silicon...
Clairement je rejoins ton hypothèse sur l'IA locale. Je table aussi sur le lien avec le développement de la ReRAM qui permettra de stocker "internet" en local, ainsi que l'écosystème fermé de apple pour au final proposer un système complet très sécurisé et maitrisé en terme de données personnelles et de capacité IA. Mon hypothèse est que la maîtrise de la sécurité des données sur toute la chaîne(physique on device donc) conférera à apple un avantage énorme en terme de confiance des utilisateurs. J'imagine un point de bascule ou une grande partie des gens se réfugierons chez apple, pendant qu'un autre géant pourrait sombrer. Et vous ? Quel 2 cents ?
Est-ce que c'est vraiment la latence due au temps de trajet des données qu'ils veulent solutionner ? Ce ne serait pas plutôt les problèmes de confidentialité des données et de disponibilité variable des services centralisés ? En tout cas très intéressant !
Disons une pierre deux coup. Plus de l'avance sur le futur: avec la future envolée du cuivre, moins on aura de bis sur la cm, moins on aura de cuivre. Sans compter que l'architecture 'classique' actuelle est un gâchis de ressources: lire le ssd avec le CPU qui place le contenu en RAM, relire la RAM pour traiter l'info et la mettre en RAM, reprendre la RAM et la renvoyer au ssd, à chaque fois en utilisant le seul bus mémoire et un coeur CPU. Apple travaille à limiter ces copies et échanges. Quand à l'IA, à part NVidia, les annonces marketing ne veulent rien dire: le nombre maxi d'opérations n'est pas bien décrit (int8? Fp32)? Les instructions classiques prises en compte ne sont pas dites (j'ai un accélérateur qui ne supporte pas l'instruction quantité, donc plein de modèles sont inutilisables) ou les limites maxi (kernel 3*3? 8*8?) Sans ces infos, on ne sait pas quels modèles tensorflow existants on peut utiliser et dans qu'elles conditions
S’il vendent le matos qui fait le traitement, ça pourrait aussi leur permettre de proposer des services sans devoir financer les gros datacenters derrière ?
Bien vu ! Au vu des annonces du jour, on peut en effet dire qu'Apple a pris du retard pour prendre de l'avance avec Apple Intelligence. Les annonces sont dingues et l'IA va très bientot arriver dans nos smartphone puissance 10 000. Bientôt les gens ne diront plus IA mais Apple Intelligence !
Elle a été virée la personne qui s'occupe des lumières du studio chez Underscore _ 🤣ou peut être qu'elle n'a pas encore été embauchée🤫 Merci Matthieu 🙏je vais me coucher moins bête ce soir même si je ne suis pas sûr d'avoir tout capté
En clair ils ont réussie à gravé le double voir le triple de microtransistor et non je pense pas que c'est du nano transistor car là on serait à l'ordi quantique. De plus dans cette vidéo très bien expliqué présenté etc il y a un gros impasse sur le refroidissement des composent car tu peux avoir bcp de Gram et et ram graphique si ton ordi chauffe trop rapiment il laguera indéniablement et si tu partage ta wifi idem. Bref back slash == bonne soirée, oui j'ai confondu avec angstrom
Une petite précision: Certes Intel fabrique aussi ses processeurs mais certains de leurs processeurs sont fabriqués par TSMC donc Intel fait du outsourcing aussi pour certains de se processeurs.
Si c'est bien le cas cette stratégie est très intéressante et me semble beaucoup plus pertinente que les applications cloud based qui reviennent extrêmement chère. Après il faut savoir qu'il existe déjà des moyen de faire tourné des LLM sous Linux ou Windows en utilisant le GPU et le CPU en parallèle et ça fonctionne vraiment bien, mais il est claire qu'il doit y avoir une perte de performance notable par rapport à l'architecture d'Apple (sans même parler de la différence en consommation). Intel semble aussi vouloir unifier CPU et GPU dans le future.
Merci pour la vidéo. Je crois que c'est surtout qu'ils cherchent la bonne manière de le faire. Faire tourner des modèles d'IA en local c'est très bien mais comment en faire un outil simple et évident à utiliser? Il faut un bon pitch pour vendre ça. Et il faut que ça marche de manière transparente... En tout cas j'ai trop hâte de découvrir l'approche qu'ils vont choisir 😁😁😁
De quoi parles-tu, l’IA générative est déjà hyper simple à utiliser, chatGPT a été adopté par les personnes âgées d’une manière jamais vue pour une nouvelle technologie. Il suffit littéralement d’écrire une phrase pour faire un prompt
@@ThomasSselateoui mais c’est pas du goût d’Apple de faire du prompt comme ça Ils vont chercher à intégrer subtilement l’IA un peu partout dans l’écosystème je pense Mais oui les outils actuels (génération d’image, de texte) sont incroyablement simple à utiliser 👌
Avant de bosser avec intel et en architecture x86_64, apple bossait avec IBM pour ses macs en archi PPC (power pc). Ce qui arrive maintenant, c'est plus ou moins la même histoire que quand apple est passé du PPC à x86_64 : pour des raisons logistiques. Truc amusant, les chips en archi PPC, on en retrouve encore aujourd'hui sur le marché des serveurs, dans plein de controleurs RAID SAS, chez LSI, ou même intel, qui sont en fait des LSI vendues sous la marque intel, ou les dell PERC.
je sais pas si c'est vraiment mieux d'avoir de l'ia en local? L'ia jusqu'ici c'est beaucoup de puissance de calcul et tres peu de données échangées (juste du texte et parfois des images), ce pour quoi les modeles centralisés qu'on utilise aujourd'hui sont parfaitement adaptés. Là ca risque de faire fondre la batterie de ton mac et on aura surement des resultats moins rapides puisque je pense pas qu'un mac aura des meilleurs perf qu'un giga serveur centralisé, apres à voir ce qu'ils vont nous faire.
Le rendement des LLM sur un MAC M2 par rapport a la puissance consommé est incomparable avec un PC et une NVIDIA... J'aime pas Apple pour tout un tas de raison mais ces CPUs me donnent vraiment envie d'avoir a nouveau un Mac.
Votre idée qu’Apple pourra utiliser le M3, M4 pour le AI en local est intéressant. Apple utiliser AI déjà beaucoup dans Iphone, Mac M1, M2. Mais de la a ce qu’Apple puisse faire en local ce que CHatGPT fait avec un data center, je pense pas. Je ne sais pas combien de TB or PB of data fut nécessaire pour nourrir le model, mais a mon avis c’est assez gigantesque. Apple a sans doute d’autre idées en tête pour AI (traduction instantanée d’une langue a une autre par example, surtout a travers VisionPro) VisionPro va changer pas mal de chose. C’est Zoom en 3D, avec collaboration via bureau virtuel. A moins qu’Apple traine des models, qui soient downloadable via Apple AI Model Store et immédiatement utilisable sur iPHone ou autre.
Belle vidéo. J’ai toutefois l’impression que l’ia on device est déjà là depuis un moment chez la concurrence (Google pixel et leur puce Tensor par exemple)
C'est extrêmement simple, c'est une des plus grosses boite de la planète et elle contrôle une partie énorme du marché mobile et bureautique à elle seule. 1. Elle n'a ni droit à l'erreur avec ce qu'elle propose, ni proposer des choses qui s'écartent de la ligne directrice de la boite. 2. Comme pour tous les multinationales qui se lancent dans l'IA ou celles qui ont rachetés tous les acteurs actuels, mettre des barrières et éduquer une IA pour qu'elle soit en accord aux lois, à la non-vulgarité et à toutes les propagandes de ceux qui financent la boite prend du temps. 3. L'IA arrivera avec quelque chose de révolutionnaire, qu'elle soit un nouveau concurrent ou une action précise, elle servira de soleil à un univers marketing précis
l'IA on device pose aussi moins de problèmes d'allées et venues de data personnelles sensibles entre un client local et un serveur. Certaines personnes livrent littéralement leur vie sur ChatGPT. Une solution locale pourrait en partie palier ce problème.
La principale innovation des M3, c'est leur meilleure segmentation . A 7200$ le M3Ultra toutes options (16 coresCPU 40gpu 128go 8tb) on tord un peu plus le bras de l'acheteur (le 14 coresCPU est 500$ moins cher).
N'y aurait-il pas non plus une stratégie par rapport à la Reram ? En fabless ça eviterai d'avoir acheté un bras, une machine qui devient useless. Après je ne suis pas assez connaisseur
Pour voir autre chose que des hommes blancs parler, c’est de 12:21 à 1:26 ! (Bon, cette ”blague” est sûrement dispensable, et franchement la vidéo est très bien comme ça. Il n’y avait rien à ajouter, je préfère d’ailleurs perso laisser parler tant qu’il n’y a rien de plus à dire. Mais en ces temps ”woke”, on remarque des trucs sans intérêt, et pire, parfois on commente dessus. :-D )
Et si ce serait un coup triple! Intégration all in 1 + allégement monétaire chez Intel ET permission à Intel de valoriser l'entreprise... pour le 3mm... ce que je penses de ce que la présentation du m3 démontre : c'est que tout les acteurs sont gagnants
Je suis choqué par le manque de compréhension technique de l'intervenant. Confondre inférence et apprentissage, imaginer que le M3 est bon pour de l'apprentissage, ne pas insister sur l'avantage de la mémoire unifiée, ne pas savoir que l'autre avantage majeur est la bande passante de la mémoire, ne pas savoir que l'inférence sur M3 pour un LLM en local mais que pour faire de l'inférence sur un llm en cloud la puissance de calcul (A100/H100) redevient critique, ne pas savoir non plus que le NPU n'est pas fait pour implémenter un transformer (structure de base des LLMs) et que donc qu'aucune implémentation de llm sur Mx n'utilise les NPUs à date mais au contraire la partie CPU/GPU... J'ai du mal à comprendre la valeur ajoutée d'un intervenant quand le présentateur a clairement une bien meilleure compréhension de tout cela.
Il y a déjà une app sur IPad qui applique des modèles Stable Diffusion en local sur l’Ipad : DrawThings. Et c’est bluffant de voir ce petit machin générer des images par IA, en local.
C'est très intéressant, cependant, la taille de la technologie depuis environ 15/20 ans ne correspond pas du tout à la taille physique des transistors. IBM veut sortir une technologie de transistor de 2 nm, pourtant, la longueur minimale entre le drain et la source pour cette technologie est de 40 nm. C'est une erreur, bien qu'en tant qu'expert en conception de circuits intégrés, j'aie cru.
Pour moi c'est clairement pour des raisons économiques qu'Apple à fait ses puces M3, ils aiment bien faire de gros bénéfices et n'aiment pas être tributaire d'un "concurrent", ça leur a bien foutu les boules d'être obligé (pour des raisons évidentes de performances) de passer de Motorola à Intel à l'époque, et avoir ses propres composant ça permet de verrouiller encore plus l'écosystème et donc pour faire ce qu'on veux avec les données et/ou l'argent de l'utilisateur (ben oui désolé mais il n'y aura plus de mise à jour pour votre modèle vous devez acheter le nouveau :D), Apple c'est une machine à fric depuis bien longtemps, on est bien loin des débuts dans un garage. Et attendons de voir ce qu'ils vont faire niveau IA, parce que tout le monde ne peux pas se payer un M2 ultra avec 192 Go, hein! Et quand ce sera démocratisé et accessible à tout le monde ne vous inquiétez pas que sur les PCs se sera la même.
Est-ce vraiment intéressant en terme de consommation de porter les L.L.M vers du local ? Et pourquoi est-ce souhaitable ? On développe à intervalle régulier nos infrastructures réseau pour précisément faire davantage avec nos machines, et les data center ont cet avantage de constamment servir les utilisateurs, ce qui n'est pas le cas de nos appareils individuels.
On fabrique des trucs d'une précision atomique et on lance des trucs dans l'espace, puis de l'autre côté on écrit encore sur du papier et on meurt de faim. On vit dans un monde bien étrange.
Pendant ce temps là, iCloud a toujours une interface de merde et perd des données, il faut payer pour lire des HEIC sur Windows, RUclips bloque des adblocks, les services de streaming sont en crise... On s'excite beaucoup sur l'IA, mais est-ce que quelqu'un se préoccupe encore de l'expérience de base des utilisateurs?
Un sujet qui n'a absolument JAMAIS été traité nulle part ( FIRST ) : celui d'un arbre de l'évolution pour les machines. Ces machines capables de graver des CPU de 3 nanomètres : ont été fabriquées à l'aide d'autres machines de recherche la + récente, qui elles mêmes sont le fruit de recherches d'il y a 2 ou 3 ans, et ainsi de suite. Si l'on devait repartir de rien, même fabriquer un simple marteau à l'aide d'une branche d'arbre et d'un morceau de fonte : - la branche on peut la tailler à la main, avec beaucoup de patience, - le morceau de fonte, faut faire un four en terre Même si on a tous les plans, imprimés : QUESTION : Existe-t'il aujorud'hui le moyen de refabriquer TOUTE LA CHAINE depuis le départ, ( pour, par exemple : si on voulait ajouter une usine de fabrication en France, ou en Afrique, Australie ou à Gaza - ce qui serait très comode et agréable... - ) ... ou bien en serait-on totalement incapable, et déjà dépendant d'anciennes machines, à maintenir, si l'on souhaite fabriquer les machines plus modernes, qui elles même fabriqueront les "bus" de fabricaition des CPU à 3 nm ?
La réponse est simple "on en serait incapable" , je suis surpris que tu pense à ça pour les CPU. Même une voiture , même ton T-shirt serait impossible de les faire à partir de rien... et ça date pas d'hier Adam Smith (18 eme siècle) disait la même chose, déjà que au 18 eme siècle on avait ce genre de penser ,tu imagine bien que de nos jours , surtout pour des CPU la question se pose plus ! :p
@@yamazakikaoru9579 Merci. Oui bien sûr : pour tous les objets du quotidien. Voilà qui exige une réelle maintenance à des niveaux qu'on n'imagine pas...
@@cslevine Clairement , rien que de se dire , comment refaire des outils basique (genre un ciseau) serait un casse tête , il faudrait extraire des minerais , rien que ça , ça demanderait un temps fou , il faut une pioche (parce que tailler à la main t'en a pour quelque milliers d'années je pense lol ). faire des haut fourneaux , ensuite , avoir un moule , et rien que leur fabrication est pas si évidente. Je me suis toujours demandé comment tout cela à émergé ! En tout cas , ça semble être dans des temps assez lointain , parce que même des vielles civilisation comme la Mésopotamie et quand on voit babylone ,il semblait déjà avoir pas mal d'outils , (pareil pour l’Égypte antique). Mais sur l'échelle de l'homme , ça a pris des dizaine de millier d'années ! Parce qu'on dit que l'homme actuel est né il y'a -100 000 ans , pourtant niveau histoire , on connaît les grandes civilisations depuis -5000 ans , on peut se demandait ce qu'a fait l'homme entre pendant 95 000 ans , d'un coté une population faible + aucun outils , ça devait être chaud cacao pour faire des sociétés plus "élaboré" ,rien que l'agriculture ça demande déjà d'avoir quelque outils pour travailler la terre. Bref c'est un sujet que je pense que tout le monde à un peu pensé , sans trouver de réel réponse ,et donc oui de nos jours ça devient quasi inimaginable pour faire le moindre objet de A à Z.
Bah aux alentours de 20% de gain en puissance et le ray-tracing c'est quand même pas rien je trouve ! J'avais besoin d'un nouvel ordi portable (j'en avais plus depuis 4 ans) et j'ai craqué pour un M3 Pro. Ça me permettra de me mettre un peu à la 3D, il permet de faire du montage très correct et devrait bien durer dans le temps. Même la RAM, 18Go au lieu de 16 c'est un petit plus. Pour du portable ça me suffit amplement en tout cas. Je ne comprends pas bien pourquoi les gens trouvent que cette mise à jour est médiocre. C'est sur que c'est pas la puce M1, mais c'était tout nouveau ! Là on repart dans un cycle incrémental je pense depuis le M1. Et encore... 20% j'appelle pas ça incrémental franchement ! Par contre oui l'IA je les attends au tournant. J'imagine qu'ils attendent le bon moment pour sortir quelque chose de particulièrement abouti ? Bref franchement super intéressant !
Bah typiquement si tu veux faire de la 3D 18Go de Ram c'est relativement peu si tu veux faire des objets avec des textures en haute résolution, j'ai un pc avec un i7 12700h, rtx 4060 et 16Go, même si le rendu dans son ensemble est fait rapidement bah le fait que j'ai "que" 16Go bah c'est embêtant parfois, surtout si je veux un rendu 4K avec des textures en 8K, la RAM a du mal à géré tout ça en même temps, c'est encore pire quand c'est de l'animation... 32Go pour de la 3D c'est pas mal et ça commence à être suffisant pour du semi-pro. Mais oui le sens gueulent parce que à ce prix 550Go de stockage et 8Go de Ram c'est que dalle, 8Go même avec MacOs c'est assez peu et au bout de deux ans tu vas déjà avoir certains usages qui vont te faire ramer, ils auraient pû faire l'effort de mettre 16Go de base, ou quitte à laisser 8Go au moins augmenter à 1To de stockage de base, au pire que ça coûte maintenant c'est pas comme si ils allaient se ruiner.
D'ailleurs intégré le calcul spécialisé dans le raytracing ça veut tout et rien dire, si tu sors un ordi qui fait du calcul raytracing mais qui en échange n'arrive pas à supporter une bonne partie des logiciels tiers par problème de compatibilité, pour le jeu c'est encore pire parce que faut trouver des stratagèmes qui te bouffent de la puissance pour y faire tourner des jeux windows ou linux. Et surtout bah si tu veux réellement un ordi spécialisé dans le calcul des rayons pour du pro tu prend un pc fixe avec une carte graphique pro qui fait faite pour ça, c'est pas les mêmes prix cependant, mais c'est le must have pour les concepteurs 3d.
Il y a une histoire de gaz spécial dont la Russie produit 60% ou plus, je suis pas sûr. C'est la raison pour laquelle la Corée n'a pas pris une sanction contre la Russie.. La France aurait du s'en inspiré d'ailleurs, 35 boîtes du CAC était présent en Russie . Quel dirigeant souhaiterait couper 30% à une des plus grosses boîtes de sont pays alors que les voisins n'en find pas autant.. 🤔
Note: Apple ne communique jamais directement les mots IA/ML/DL mais amène des fonctionnalités dans leur OS qui l’utilisent, et je vous invite à lire la page de macOS ventura et les nouveautés vous y en verrez.
Et c'est plus intelligent. Annoncer des chiffres alors que certaines puces ne peuvent pas charger des modèles disponibles gratuitement, c'est décevant. Apple au moins annonce de la fonctionnalité, pas de la potentialité
Oui mais le débit des machines Canon serait bcp plus faible selon une personne de la profession, 80 plaquettes/h au lieu des 300 plaquettes/h des machines EUV d''ASML ... Affaire à suivre en tout cas.
@@alloquoi3281 si le tarif de 15M$ pièce est tenu cela peut valoir le coût s'ils fonctionnent en série. Et les restrictions seront peut-être moindres...
juste pour info stable diffusion fonctionne déjà sur apple silicon il tourne sur ios ipad os et mac os en natif via l'app draw things notamment et cela fait presque 1 an que je l'utilise
Salut. Interressant la partie sur les capacités ia, et le lien avec la memoire unifiee, dommage qu'ils mettent moins de memoire sur leurs pc que sur la première carte graphique de base
Sujet super interresant, je trouve dommage que trop d'images sans grand intérêt aient étés rajoutées au montage ce qui nuit selon moi a la compréhension de la chronique. Peut être faudrait il trouver un plus juste milieu en affichant que des images utiles a la compréhension.
Honnêtement malgré le titre et le sujet, vous manquez le coche. Cette Keynote est plutôt la conséquence du changement chez Apple depuis Cook (gamme, marketting, certaines stratégie), une preuve de plus qu'Apple s’accoquine avec le mainstream en suivant d'autres marques si ça permet de gagner en PDM. Jamais on aurait vu un moove aussi disgracieux par le passé ni de révisions si rapide d'un produit far. Et évidemment Apple ne parle pas d'IA pour le moment puisque ce n'est pas esthétique, mais Siri et le traitement photo ou acoustique c'est quoi ? Et ce n'est pas tout jeune... Ils y étaient super tôt ! Ils vont continuer de créer le besoin et l'introduire par l'applicatif (peut être d'abord en pro grâce au prouesses des puces dont vous parlez justement), et c'est à ce moment là qu'ils en feront la pub mais avec leur propre nomenclature, et encore. C'est ce qui fait la force d'Apple depuis toujours. Ce n'est pas pour faire le hater, plutôt pour aider et par habitude de mieux, mais la construction de la vidéo n'a aucun sens et on reste vraiment sur notre faim ! Je ne sais pas si c'est un manque de maitrise du sujet ou une collision d'envie d'idée à partager dans la vidéo, mais c'est vraiment dommage. Bref, continuez votre travail de vulgarisation ! :)
Je me suis toujours dit qu'un Jarvis perso ce serait un truc de ouf mais je refuse de me servir des LLM et "IA" tant que les données partent je sais pas où et que tout n'est pas en local. Clairement, s'ils arrivent à le faire c'est le genre de truc qui pourrait me faire acheter du apple
Ca fait pas super longtemps quon a plus que 6go sur un gpu ? Meme mon gpu moyen de gamme achete il y a 5-7 ans en a 8, et le nouveau de l'année derniere en a 16 '-' En plus, avec le resisable bar chez amd et je sais plus comment a sappelle chez intel, on peut partager la ram du cpu avec le gpu non ? Et faire de l'ia sur gpu, cest un peu depasse dans certains cas aussi, il y a des carte d'ia notemment celle de google qu'on peut mettre dans un pc qui sont bien plus performantes dans certains cas
Deux choses : -3nm ce n'est pas de la taille d'un atome d'oxygène, d'ailleurs l'échelle de l'atome va vite apparaître comme une limite à la gravure. -Elle sert à quoi la nana ?
J'adore votre émission mais je trouve dommage que le temps de parole des 3 personnes soient toujours 2 + 1. Une personne est toujours là pour figuration, que pour de réelles interventions. Sinon changé rien les sujets, contenu sont tops :)
Oui, la femme est la figuration et franchement je me demande ce qu'elle fout là, mais les deux autres auraient leurs place chez Cyril Hanouna. Ici c'est de l'info pour la maternelle sur du glacé.
Est-ce que ces "Neural engines" et autres Gb dédiés à l'IA pourraient être utilisés pour de l'entrainement déporté on-device ? Car là, ils auraient un avantage de malade en termes de capacité d'entrainement sur tout le hardware vendu. Ce qui rendrait encore plus essentiel le fait de consommer peu, pour que ça reste plus scred. Merci pour votre travail de qualité sur cette chaîne
Oui c'est le rôle de ces nouveaux NPU, qui sont des puces optimisées pour l'entraînement. Reste à voir ce que ça donnera, en comparaison des énormes clusters de calculateurs utilisés par les grosses boîtes d'IA.
Moi je pensais que c’était une réponse à l’annonce de snapdragon avec le nouveau processeur ARM !!? C’est arrivé aussi précipitamment que la surprise de l’annonce de snap !!??
Petite précision / correction : Aujourd'hui la finesse de gravure 3 nm ne correspond plus à aucune dimension réelle du transistor dans les processeurs.
Historiquement, la finesse de gravure faisait référence à la taille du Gate d'un transistor dans les processeurs, c'était la mesure de référence pour évaluer la performance d'un processeur, plus on peut graver petit le transistor, plus son gate est petit, plus on peut mettre de transistor, faire des calcules, et augmenter la puissance.
Or, depuis les 40 nm on ne peut plus diminuer la taille du gate à cause des limites / lois de la physique, (si le gate était encore diminuer on s'exposait à ce qu'on appelle "l'effet tunnel" qui perturberait le fonctionnement du transistor).
Il a donc fallu modifier le design, la conception même du transistor, le "réarranger", pour continuer à améliorer les processeurs. En conséquence, on ne pouvait plus prendre la taille du gate comme référence de la puissance d'un processeur, car ca n'avait plus de sens, le gate restait de la meme taille mais la puissance des processeurs augmentait quand même.
Aujourd'hui, les termes de finesse de gravure 3nm, 5nm, etc. sont des labels qui sont données au processeur si ils remplissent certains critères définis. Mais qui définie ces critères vous allez vous dire ? Et bien c'est l' I.E.E.E (Institute of Electrical and Electronics Engineers) qui au travers de l' I.R.D.S (International Roadmap for Devices and Systems) qui définie ces critères. Pour obtenir ces labels les transistors doivent être conçus et gravés d'une certaine manière. Les entreprises ne peuvent pas donner le label aux processeurs comme elles le souhaitent elles doivent suivre ces critères. On a décidé de garder les termes de "finesse de gravure" car le public c'était tout simplement habitué à ce que : plus fin = plus puissant, c'est un terme marketing. Il n'est pas falacieux, il permet juste de faire plus simple pour le grand public.
lien :
fr.wikipedia.org/wiki/International_Roadmap_for_Devices_and_Systems
fr.wikipedia.org/wiki/Institute_of_Electrical_and_Electronics_Engineers
irds.ieee.org/editions
Merci pour ton incroyable expertise !
Cette réponse devrait être bien plus upvote que les conneries de trading et compagnie qu’on peut lire 🙂
@@OtakugameFR merci beaucoup :D ca me flatte, je ne suis pas du tout un expert, je mets le plus de liens pour sourcer ce que je dis.
Whoah merci
Alors exact mais la finesse de gravure n'a jamais mesuré "la performance d'un processeur".
Effectivement le reste suit , Intel vs AMD le montre bien Intel à une moins bonen finesse de gravure et ils font des fois mieux que AMD.
Et les performance de AMD ne s'explique pas du tout via la finesse de gravure.
D'ailleurs cela fait un moment que cette finesse représente plus trop les performance, quand tu peux mettre 8 cores sur ton die , bon , c'est pas le soucis de place qui te pose soucis.
Petite erreur sur les tailles :
Un atome d'oxygène à une taille de ~300 picomètres (si on prend comme référence le rayon de van der Waals). Donc pour 3 nanomètres on est davantage dans l'ordre de 10 atomes d'oxygène (ce qui reste très impressionnant).
152 pm pour un atome d'oxygène, donc 0.152 nm
Monjp ?
@@laurentmiltgen-delinchamp5508Effectivement, c'est bien 152 pm et non 240.
@@laurentmiltgen-delinchamp5508 152 si tu prends en compte le Rayon de Van der Waals, ce qui, d'une certaine façon dépasse le rayon d'un atome à proprement parler, soit son rayon covalent, soit 60pm l'atome d'oxygène.
Ça veut rien dire les copains la taille d'un atome. En effet un atome est constitué en son extrêmité d'électrons qui sont localisés dans des orbitales atomiques. L'atome n'a pas de taille propre en revanche on peut lui assigner des tailles caractéristiques en général en raisonnant sur les moyennes statistiques de position des électrons de valence par rapport au noyau.
De plus, les électrons ne sont pas nécessairement collés. Dans une maille il y peut y avoir un espacement plus ou moins grand entre les atomes. On peut déduire la distance entre deux atomes en trouvant la distance locale où l'énergie potentielle des atomes est la plus faible.
Bref à voir mais ton raisonnement de diviser la taille de la gravure par le rayon atomique des atomes est un peu bancal.
Un détail mais les 3nm ne correspondent plus à la distance entre la gate et le drain du transistor depuis quasiment une dizaine d'années...
maintenant il s'agit uniquement d'une valeur théorique qui correspondrait à cette taille si le transistor était "à plat" (ce qu'ils ne sont plus depuis un bon moment déjà c.f. FinFET et autres).
y a pas de normes sur ce que doit signifier le 3nm, chaque entreprise fais comme ca l'arrange
@@ambroisetourneur3966 Sur ce point on est d'accord, c'est largement un chiffre commercial maintenant vu qu'il est décorrélé d'une dimension réelle.
Si jamais vous arriviez à interviewer un/une ingénieure qui fait de la conception hardware (VHDL / Verilog), pour donner des détails sur ces actus, ce serait grave intéressant !
Ahaha hello c'est moi :3
Passe dans l'émission alors stp @@meisterpanzerkunst6410
@@meisterpanzerkunst6410je suis aussi là bon pas ingénieur mais un Master
@@meisterpanzerkunst6410 Haha trop bien tu bosses sur quoi comme archi / système ?
@@violinsontheblock J'en ai fait en cours aussi mais je me sens pas trop légitime de bosser dedans perso ^^'
En fait selon plusieurs analystes cette keynote serait plutôt avant tout une réponse à Qualcomm (qui a récupéré quasiment l'architecture complète des puces M1 avec le rachat à prix d'or de la startup que les architectes de ces CPU ont créé après s'être barrés d'Apple...)
Pourquoi cet avis? Car en fait Apple est pas du tout dans l'exception à mettre des NPU/TPU dans ses processeurs en ce moment, à vrai dire c'est même plutôt la norme!
Qualcomm avec ses Snapdragon X (décidément une grosse annonce...), mais aussi et surtout Intel avec Meteor Lake, AMD avec Ryzen AI, Google avec ses Tensor, pour ne citer que quelques gros noms. Bon, Apple reste quand même bien costaud en performances!
Parlant de Snapdragon X et de Ryzen AI, c'est deux exclusivités Microsoft (aucun contrat n'a été rendu public, mais bizarrement les seuls drivers pour utiliser ces materiels sont sur Windows). Microsoft est donc bien en train de jouer sur les deux tableaux, cloud comme edge
J'en profiterais aussi pour rajouter que le terme de "X nanomètres" est purement marketing de nos jours, en fait aucun détail de la puce n'est vraiment gravé plus fin que quelques dizaines de nanomètres ! Il faut savoir que les technos les plus récentes ont abandonné les transistors à plat, pour passer à des designs 3d (FinFET surtout aujourd'hui, GAAFET dans le futur). Il faudrait plutôt voir ça comme "des transistors qui prennent autant de place que si on avait réussi à faire des transistors à plat de 3 nm". Oui, c'est tordu, mais c'est marketing
PS: Merci pour cette introduction à l'industrie du semiconducteur, le domaine est malheureusement trop peu connu chez les développeurs
Ça c'est un commentaire qui a du mérite
Salut,
Je trouve que Matthieu s’améliore de jour en jour, je le sens moins stressé en tout cas et ça fait plaisir
c'est moins le cas de Tiffany on se demande son rôle dans l'émission
c 'est sympa le neural engine de Apple, mais je rappelerai que les ingenieurs de NVIDIA ne sont pas des idiots et que leurs puces ecrasent celles de Apple en performance par $, meme si en terme de perf par watt Apple est bien placé en effet. Concernant l'inference embarquée, Apple a en effet une strategie mais l'avantage du cloud c'est que 1) le calcul alloué a un model peut etre phenomenal alors que celui sur la puce M2 ou M3 ou Mx sera beaucoup plus limité, l'autre avantage c'est que le cloud est dimensioné pour le pic de calcul de la demande globale alors que Apple doit prevoir le chip pour la capacité maximum de chaque utilisateur. L'avantage de l'inference en locale c 'est 1) la confidentialité/vie privée , 2) la latence mais seulement si le model est tres rapide a inférer donc pas tres puissant par rapport a ce que l'on aurait avecle cloud au meme moment.
Merci franchement merci beaucoup c’est gens qui raconte n’importe quoi juste pour gonfler leur egos par rapport a apple ,apple n’a aucun plan concernant l’IA . le vraie truc qui faisait apple c’est ”steve job”. Mettre ”sa” sur une puce oui …mais pas encore à notre époque. Nous avons pas encore créé la technologie qu’il faut. Bref en tout cas oui aujourd’hui il s’y intéresse a coup de 1 milliard€. Ce qui est dommage c’est que ces mecs ils vont après dire oui regarde ce qu’apple a créé. Regarde cette dinguerie et patati et patata. Sachant que du tchat gpt c’est vraiment incroyable.arrêtez de faire rêver les gens comme sa !
J'adore parce que tu vois Mica lorsqu'il parle d'IA c'est un enfant ! Il est heureux et ça fait plaisir de voir quelqu'un de vraiment épanouie dans un sujet. C'est rare de voir cette effet aussi fort. :D et merci pour les vidéos ! Franchement elles sont génial ! Et surtout elles ne sont pas indigeste !
Concernant le fait qu'Apple ne parle pas d'IA, c'est une grande habitude de leur part de prendre quelque chose de commun et le "re-brander" pour se démarquer, Marques Brownlee (MKBHD) a fait une super video sur le sujet (Apple's Forbidden Words). Ils parlent en fait énormément d'IA, mais en d'autres termes
Je vais enfoncer une porte ouverte, mais c'est aussi de la géopolitique tout simplement par rapport à Taiwan.
Apple cherche juste à sécuriser leur ligne d'approvisionnement, vu que TSMC est la quasi seule boite au monde qui a la technologie avancé pour faire les derniers processeurs.
Et vu que l'invasion de Taiwan est qu'une question de temps, le marché des composants va devenir fou dans les prochaines années.
grave
L'invasion de Taïwan est loin d'être réalisée. Il est probable qu'elle ne survienne jamais. En tout cas, si cela devait arriver, nous aurions d'autres soucis que l'approvisionnement en processeurs...
C'est justement TSMC qui les fabrique ces processeurs contrairement à Intel qui fabrique aux US il me semble.
cela n'est plus vrai depuis le chip act. Les US, enfin conscient du danger, investissent + de 50 milliard pour pouvoir produire chez eux les chips. Les usines sont en cours de construction au US avec de gros gros avantages fiscaux et financement du gouvernement. Tu m'étonnes ...
En effet pour le chip act, cependant il faudra longtemps avant que cette usine soit opérationnelle ou même que les USA aquiert un niveau de compétence aussi développé que les employés de TSMC. Oui c'est une très bonne chose cette usine, mais la formation des ingénieurs derrière c'est un autre sujet. Pas sûr que l'ensemble soit prêt avant que Taiwan tombe...@@Fox-BZH
quick fact que personne n'a demandé: les optiques pour les machines lithographiques (pour les processeurs) sont faites par Carl Zeiss, et le fondateur de l'entreprise éponyme est littéralement le mec qui a inventé la production d'optique de masse (dans le sens pas à la main)
merci pour ce détail ! Je connaissais la boite mais je savais absolument pas que leurs systèmes se retrouvaient là dedans
Ok ok donc c’est de l’optique qui permet la fabrication de ces processeurs
Je me demandais pourquoi Nikon et Canon fabriquaient des processeurs alors que pour moi c’était uniquement des marques d’appareil photo 😅
ça me fait rappeler le Qualcomm 8gen3 qui pourra faire tourner des IA de génération image, texte et autre. Localement sur un smartphone sans connexion internet. C'est très impressionnant
seule innovation d'apple : les puces et l'ecran tactile (ça date maintenant), voili voilou... entreprise estimé a 3 trillions de $....
@@nawabifaissal9625 l'écran ça reste toujours principalement des technos Samsung ils ont juste renommé l'oled
@@nawabifaissal9625 l ecran tactile a été inventé en 1971 par sam hurst bien avant la création de l apple
Les performances de Stable Diffusion, optimisé pour les GPU, étaient catastrophiques sur les Mac, c'est pourquoi Apple s'est mis en tête de l'optimiser. A l'époque, entre mon MacBook M1 Pro et mon laptop gamer Asus doté d'une puce Nvidia 3080 (la version portable donc) de génération et prix équivalents, il y avait un facteur 5 de vitesse de rendu en faveur du PC !!
Apple continue à communiquer sur la puissance brute du CPU (hors GPU, NSP) pour deux raisons:
- ça leur permet de mettre la pâtée à Intel
- ça continue à bien représenter les besoins utilisateur (compilation, effets audio/vidéo)
Ils mentionnent le Neural Engine, mais on sent bien que leurs usages sur l’amélioration de photos ou la complétion de mail) sont assez petit joueur pour le moment. Mais ils insistent beaucoup sur l’aspect ´on device’. Je pense qu’ils attendent que ce soit mur, techniquement et socialement, pour frapper un grand coup
Les interventions de Tiffany Souterre = "Humm", "Oui" , "Hum" 🤣🤣🤣
J'avais pensé à un petit "One more thing" d'Apple quand ils dévoileront enfin un vrai usage de l'IA sur leur matériel. Déjà bien sûr agrandir tes propres images avec l'IA pré-intégrer dans le Finder mais surtout une génération du fond d'écran de ton Mac en local après le premier setup sans ou avec logo Apple, et qui reprend l'aspect que tu veux selon la version de Mac OS que tu préférait.
Petit retour sur la taille des atomes. le silicium est de 0,2 nm; 3 nm nous donne de l'ordre de 15 atomes de coté.
Au début des années 2000, nous perdions l'effet transistor aux alentours de 100 atomes. On ne trouve pas vraiment de données plus actuelle sur l'amélioration de cette limite.
2:21 Un atome ne fait pas non plus 3nm.
En fait quand on parle d’atome, il est difficile de donner une taille exact, car le volume des l’atome dépend de la distance entre son noyau et son nuage d’électron. Ce dernier variant selon l’énergie contenu et la nature de l’atome. Un atome d’hydrogène a un électron donc une couche d’électron. Un atome de lithium a 3 électron et deux couche d’électron (deux électrons sur la première couche, 1 électron sur la deuxième. Le lithium est plus volumineux que l’hydrogène. Par contre, le béryllium (plus lourd que le lithium, est moins volumineux : les deux électrons de la première couche du lithium repousse plus l’électron de la 3ème couche. Le béryllium a plus de charges positives mais autant de d’électron sur la première couche. La première couche est plus attiré par le noyau, et la deuxième l’est de facto aussi car moins repoussé par la première couche.
On peut tout de même estimer une moyenne de taille d’atome en comparant la distance entre deux nucleus de même atomes. Mais les distance sont entre 0.1 et 0.5 nm.
En aucun cas 3 nm.
Ouais bon la description du transistor laisse à désirer. C’est pas le « dopage qui fait des 0 et des 1 ». Aussi 3nm c’est beaucoup plus grand qu’un atom. C’est pas infos très dur à vérifier donc faut faire un peu gaffe quand même
Bah on sent que le gars il est pas du tout technique. Il a juste essayé de comprendre vaguement ce qui se dit sur le web mdr
Pas mal ! Intéressant le coup d'avoir l'IA en local ! ça offre aussi une meilleure garantie de confidentialité (essentiel pour certaines entreprises!) et ça décharge les serveurs ! Vous m'avez appris quelque chose, merci !
tu peux aussi en avoir dans ton reseau priver.
aussi, L'IA en local reste limiter pour des model avec un nombre de parametre reduit, qui sont deja tres bon.
Meta (facebook), est probablement un des lideur dans ces petit model avec son LLaMA 2, qui peut deja etre installer sur ton ordi perso, ou meme personalize (fine tune).
Il y a LM studio qui permet de faire ça simplement, ou oogabooga.
Décharger les serveurs pour surcharger les appareils individuels je ne sais pas si c'est si utile que cela. La centralisation est aussi, malgré ses désavantages, moins consommante.
Je suis étonné de ne pas voir le lien avec l'annonce de Qualcomm quelques jours avant qui annonçait le dépassement du M2 de beaucoup en mono-thread et ne pas voir non plus la prise en compte de la révolution de Canon sur la gravure des semiconducteurs qui devient énergétiquement beaucoup moins cher avec leur nouveau procédé....
Surtout que le NPU de Qualcomm série X est annoncé avec entre 50 et 100 Tops, bien plus balaise que le M3 qui plafonne à 20 Tops.
@@MultiMustash Les Qualcomm series X sont au stade de prototype, les tests de performance sont fait sur des machines avec une alimentation et un refroidissement conséquent. On ne connait pas les conditions de test de Qualcomm du coup difficile de comparer
si j'ai bien compris la chaîne, les fonderies fabriquent comme TSMC, fabless conçoivent comme Qualcom, architectes inventent l'architecture comme ARM tandis qu'ASML fabrique des machines que les fonderies utiilisent pour fabriquer les puces. Intéressant.
Et l'enjeu des prochaines années, ce sera où l'IA tourne, localement ou dans un cloud.
Faut bien se rendre compte que le développement d'un processus de fabrication de puce prends entre 3 et 5 ans, que ça coûte des milliards. Les usines c'est pareil c'est des salles blanches de classe 1 de plusieurs milliers de m². Les usines sont maintenant à température constante toute l'année et même les vibrations sont aussi un problème à ces échelles. Résultats très peu d'entreprise de production (fondeur). Aujourd'hui seul Samsung et tsmc maîtrise le 3nm à des niveaux industriel.
Y a aussi l'architecture risc-v qui est libre et open source mais pas encore au niveau de arm 👍
ça commence ça commence avec les Si-five ou T-head mais on est plus au niveau du A72 pour le moment
Pas sur qu'il arriveront à bien traiter le sujet :p
Dommage que vous ne dites pas que Apple a une grande culture du processeur ! Le PPC (PowerPC) a été développé par Apple, Motorola et IBM pendant des années avant le passage chez Intel en 2007... Le PPC601, 602, G3, G4 et G5 !!! En maintenant seul avec les Apple Silicon...
Clairement je rejoins ton hypothèse sur l'IA locale. Je table aussi sur le lien avec le développement de la ReRAM qui permettra de stocker "internet" en local, ainsi que l'écosystème fermé de apple pour au final proposer un système complet très sécurisé et maitrisé en terme de données personnelles et de capacité IA.
Mon hypothèse est que la maîtrise de la sécurité des données sur toute la chaîne(physique on device donc) conférera à apple un avantage énorme en terme de confiance des utilisateurs. J'imagine un point de bascule ou une grande partie des gens se réfugierons chez apple, pendant qu'un autre géant pourrait sombrer.
Et vous ? Quel 2 cents ?
Est-ce que c'est vraiment la latence due au temps de trajet des données qu'ils veulent solutionner ? Ce ne serait pas plutôt les problèmes de confidentialité des données et de disponibilité variable des services centralisés ?
En tout cas très intéressant !
Les deux + avoir une IA sur mesure je pense.
Disons une pierre deux coup. Plus de l'avance sur le futur: avec la future envolée du cuivre, moins on aura de bis sur la cm, moins on aura de cuivre.
Sans compter que l'architecture 'classique' actuelle est un gâchis de ressources: lire le ssd avec le CPU qui place le contenu en RAM, relire la RAM pour traiter l'info et la mettre en RAM, reprendre la RAM et la renvoyer au ssd, à chaque fois en utilisant le seul bus mémoire et un coeur CPU. Apple travaille à limiter ces copies et échanges.
Quand à l'IA, à part NVidia, les annonces marketing ne veulent rien dire: le nombre maxi d'opérations n'est pas bien décrit (int8? Fp32)? Les instructions classiques prises en compte ne sont pas dites (j'ai un accélérateur qui ne supporte pas l'instruction quantité, donc plein de modèles sont inutilisables) ou les limites maxi (kernel 3*3? 8*8?)
Sans ces infos, on ne sait pas quels modèles tensorflow existants on peut utiliser et dans qu'elles conditions
S’il vendent le matos qui fait le traitement, ça pourrait aussi leur permettre de proposer des services sans devoir financer les gros datacenters derrière ?
Bien vu ! Au vu des annonces du jour, on peut en effet dire qu'Apple a pris du retard pour prendre de l'avance avec Apple Intelligence. Les annonces sont dingues et l'IA va très bientot arriver dans nos smartphone puissance 10 000. Bientôt les gens ne diront plus IA mais Apple Intelligence !
Elle a été virée la personne qui s'occupe des lumières du studio chez Underscore _ 🤣ou peut être qu'elle n'a pas encore été embauchée🤫
Merci Matthieu 🙏je vais me coucher moins bête ce soir même si je ne suis pas sûr d'avoir tout capté
En clair ils ont réussie à gravé le double voir le triple de microtransistor et non je pense pas que c'est du nano transistor car là on serait à l'ordi quantique.
De plus dans cette vidéo très bien expliqué présenté etc il y a un gros impasse sur le refroidissement des composent car tu peux avoir bcp de Gram et et ram graphique si ton ordi chauffe trop rapiment il laguera indéniablement et si tu partage ta wifi idem.
Bref back slash == bonne soirée, oui j'ai confondu avec angstrom
Génial cette vidéo vraiment j'ai appris des truc de fou 🤩
Très bonne chronique ! Merci 🙏
Absolument passionnant ! Merci
Pas de gravure avec une pointe, c'est de la photogravure, de la gravure par photographie.
Génial! Merci pour ces informations!
Une petite précision: Certes Intel fabrique aussi ses processeurs mais certains de leurs processeurs sont fabriqués par TSMC donc Intel fait du outsourcing aussi pour certains de se processeurs.
Excellente vidéo/sujet.
Merci
Une video sur le RISC V serait intéressante.
Si c'est bien le cas cette stratégie est très intéressante et me semble beaucoup plus pertinente que les applications cloud based qui reviennent extrêmement chère. Après il faut savoir qu'il existe déjà des moyen de faire tourné des LLM sous Linux ou Windows en utilisant le GPU et le CPU en parallèle et ça fonctionne vraiment bien, mais il est claire qu'il doit y avoir une perte de performance notable par rapport à l'architecture d'Apple (sans même parler de la différence en consommation). Intel semble aussi vouloir unifier CPU et GPU dans le future.
Merci pour la vidéo. Je crois que c'est surtout qu'ils cherchent la bonne manière de le faire. Faire tourner des modèles d'IA en local c'est très bien mais comment en faire un outil simple et évident à utiliser? Il faut un bon pitch pour vendre ça. Et il faut que ça marche de manière transparente... En tout cas j'ai trop hâte de découvrir l'approche qu'ils vont choisir 😁😁😁
De quoi parles-tu, l’IA générative est déjà hyper simple à utiliser, chatGPT a été adopté par les personnes âgées d’une manière jamais vue pour une nouvelle technologie. Il suffit littéralement d’écrire une phrase pour faire un prompt
@@ThomasSselateoui mais c’est pas du goût d’Apple de faire du prompt comme ça
Ils vont chercher à intégrer subtilement l’IA un peu partout dans l’écosystème je pense
Mais oui les outils actuels (génération d’image, de texte) sont incroyablement simple à utiliser 👌
Cette chaîne est remarquable. Vraiment.
Avant de bosser avec intel et en architecture x86_64, apple bossait avec IBM pour ses macs en archi PPC (power pc).
Ce qui arrive maintenant, c'est plus ou moins la même histoire que quand apple est passé du PPC à x86_64 : pour des raisons logistiques.
Truc amusant, les chips en archi PPC, on en retrouve encore aujourd'hui sur le marché des serveurs, dans plein de controleurs RAID SAS, chez LSI, ou même intel, qui sont en fait des LSI vendues sous la marque intel, ou les dell PERC.
Très intéressant merci !
je sais pas si c'est vraiment mieux d'avoir de l'ia en local? L'ia jusqu'ici c'est beaucoup de puissance de calcul et tres peu de données échangées (juste du texte et parfois des images), ce pour quoi les modeles centralisés qu'on utilise aujourd'hui sont parfaitement adaptés. Là ca risque de faire fondre la batterie de ton mac et on aura surement des resultats moins rapides puisque je pense pas qu'un mac aura des meilleurs perf qu'un giga serveur centralisé, apres à voir ce qu'ils vont nous faire.
Le rendement des LLM sur un MAC M2 par rapport a la puissance consommé est incomparable avec un PC et une NVIDIA... J'aime pas Apple pour tout un tas de raison mais ces CPUs me donnent vraiment envie d'avoir a nouveau un Mac.
Votre idée qu’Apple pourra utiliser le M3, M4 pour le AI en local est intéressant. Apple utiliser AI déjà beaucoup dans Iphone, Mac M1, M2.
Mais de la a ce qu’Apple puisse faire en local ce que CHatGPT fait avec un data center, je pense pas.
Je ne sais pas combien de TB or PB of data fut nécessaire pour nourrir le model, mais a mon avis c’est assez gigantesque.
Apple a sans doute d’autre idées en tête pour AI (traduction instantanée d’une langue a une autre par example, surtout a travers VisionPro)
VisionPro va changer pas mal de chose. C’est Zoom en 3D, avec collaboration via bureau virtuel.
A moins qu’Apple traine des models, qui soient downloadable via Apple AI Model Store et immédiatement utilisable sur iPHone ou autre.
Les derniers AMD ont aussi une puce intégérée pour l'IA "Ryzen AI"
Super vidéo ! Du coup si tous ces macs en réseaux communiquent leurs puissance de calcul à Apple, la puissance de calcul est phénomènale
Belle vidéo.
J’ai toutefois l’impression que l’ia on device est déjà là depuis un moment chez la concurrence (Google pixel et leur puce Tensor par exemple)
C'est extrêmement simple, c'est une des plus grosses boite de la planète et elle contrôle une partie énorme du marché mobile et bureautique à elle seule.
1. Elle n'a ni droit à l'erreur avec ce qu'elle propose, ni proposer des choses qui s'écartent de la ligne directrice de la boite.
2. Comme pour tous les multinationales qui se lancent dans l'IA ou celles qui ont rachetés tous les acteurs actuels, mettre des barrières et éduquer une IA pour qu'elle soit en accord aux lois, à la non-vulgarité et à toutes les propagandes de ceux qui financent la boite prend du temps.
3. L'IA arrivera avec quelque chose de révolutionnaire, qu'elle soit un nouveau concurrent ou une action précise, elle servira de soleil à un univers marketing précis
l'IA on device pose aussi moins de problèmes d'allées et venues de data personnelles sensibles entre un client local et un serveur. Certaines personnes livrent littéralement leur vie sur ChatGPT. Une solution locale pourrait en partie palier ce problème.
La principale innovation des M3, c'est leur meilleure segmentation . A 7200$ le M3Ultra toutes options (16 coresCPU 40gpu 128go 8tb) on tord un peu plus le bras de l'acheteur (le 14 coresCPU est 500$ moins cher).
N'y aurait-il pas non plus une stratégie par rapport à la Reram ? En fabless ça eviterai d'avoir acheté un bras, une machine qui devient useless. Après je ne suis pas assez connaisseur
Pour voir autre chose que des hommes blancs parler, c’est de 12:21 à 1:26 !
(Bon, cette ”blague” est sûrement dispensable, et franchement la vidéo est très bien comme ça. Il n’y avait rien à ajouter, je préfère d’ailleurs perso laisser parler tant qu’il n’y a rien de plus à dire. Mais en ces temps ”woke”, on remarque des trucs sans intérêt, et pire, parfois on commente dessus. :-D )
Grosse erreur…… le 3nm c’est pas la finesse de la gravure mais le nom commercial du procédé ! #techcafe
Et si ce serait un coup triple! Intégration all in 1 + allégement monétaire chez Intel ET permission à Intel de valoriser l'entreprise... pour le 3mm... ce que je penses de ce que la présentation du m3 démontre : c'est que tout les acteurs sont gagnants
Je suis choqué par le manque de compréhension technique de l'intervenant. Confondre inférence et apprentissage, imaginer que le M3 est bon pour de l'apprentissage, ne pas insister sur l'avantage de la mémoire unifiée, ne pas savoir que l'autre avantage majeur est la bande passante de la mémoire, ne pas savoir que l'inférence sur M3 pour un LLM en local mais que pour faire de l'inférence sur un llm en cloud la puissance de calcul (A100/H100) redevient critique, ne pas savoir non plus que le NPU n'est pas fait pour implémenter un transformer (structure de base des LLMs) et que donc qu'aucune implémentation de llm sur Mx n'utilise les NPUs à date mais au contraire la partie CPU/GPU... J'ai du mal à comprendre la valeur ajoutée d'un intervenant quand le présentateur a clairement une bien meilleure compréhension de tout cela.
Sans compter que le NPU est déjà present sur le M1 et M2
Il y a déjà une app sur IPad qui applique des modèles Stable Diffusion en local sur l’Ipad : DrawThings. Et c’est bluffant de voir ce petit machin générer des images par IA, en local.
C'est très intéressant, cependant, la taille de la technologie depuis environ 15/20 ans ne correspond pas du tout à la taille physique des transistors. IBM veut sortir une technologie de transistor de 2 nm, pourtant, la longueur minimale entre le drain et la source pour cette technologie est de 40 nm. C'est une erreur, bien qu'en tant qu'expert en conception de circuits intégrés, j'aie cru.
Pour moi c'est clairement pour des raisons économiques qu'Apple à fait ses puces M3, ils aiment bien faire de gros bénéfices et n'aiment pas être tributaire d'un "concurrent", ça leur a bien foutu les boules d'être obligé (pour des raisons évidentes de performances) de passer de Motorola à Intel à l'époque, et avoir ses propres composant ça permet de verrouiller encore plus l'écosystème et donc pour faire ce qu'on veux avec les données et/ou l'argent de l'utilisateur (ben oui désolé mais il n'y aura plus de mise à jour pour votre modèle vous devez acheter le nouveau :D), Apple c'est une machine à fric depuis bien longtemps, on est bien loin des débuts dans un garage.
Et attendons de voir ce qu'ils vont faire niveau IA, parce que tout le monde ne peux pas se payer un M2 ultra avec 192 Go, hein! Et quand ce sera démocratisé et accessible à tout le monde ne vous inquiétez pas que sur les PCs se sera la même.
Est-ce vraiment intéressant en terme de consommation de porter les L.L.M vers du local ? Et pourquoi est-ce souhaitable ? On développe à intervalle régulier nos infrastructures réseau pour précisément faire davantage avec nos machines, et les data center ont cet avantage de constamment servir les utilisateurs, ce qui n'est pas le cas de nos appareils individuels.
On fabrique des trucs d'une précision atomique et on lance des trucs dans l'espace, puis de l'autre côté on écrit encore sur du papier et on meurt de faim. On vit dans un monde bien étrange.
Pendant ce temps là, iCloud a toujours une interface de merde et perd des données, il faut payer pour lire des HEIC sur Windows, RUclips bloque des adblocks, les services de streaming sont en crise...
On s'excite beaucoup sur l'IA, mais est-ce que quelqu'un se préoccupe encore de l'expérience de base des utilisateurs?
Un sujet qui n'a absolument JAMAIS été traité nulle part ( FIRST ) : celui d'un arbre de l'évolution pour les machines.
Ces machines capables de graver des CPU de 3 nanomètres : ont été fabriquées à l'aide d'autres machines de recherche la + récente,
qui elles mêmes sont le fruit de recherches d'il y a 2 ou 3 ans, et ainsi de suite.
Si l'on devait repartir de rien, même fabriquer un simple marteau à l'aide d'une branche d'arbre et d'un morceau de fonte :
- la branche on peut la tailler à la main, avec beaucoup de patience, - le morceau de fonte, faut faire un four en terre
Même si on a tous les plans, imprimés :
QUESTION : Existe-t'il aujorud'hui le moyen de refabriquer TOUTE LA CHAINE depuis le départ, ( pour, par exemple : si on voulait ajouter une usine de fabrication en France, ou en Afrique, Australie ou à Gaza - ce qui serait très comode et agréable... - ) ... ou bien en serait-on totalement incapable, et déjà dépendant d'anciennes machines, à maintenir, si l'on souhaite fabriquer les machines plus modernes, qui elles même fabriqueront les "bus" de fabricaition des CPU à 3 nm ?
La réponse est simple "on en serait incapable" , je suis surpris que tu pense à ça pour les CPU.
Même une voiture , même ton T-shirt serait impossible de les faire à partir de rien...
et ça date pas d'hier Adam Smith (18 eme siècle) disait la même chose, déjà que au 18 eme siècle on avait ce genre de penser ,tu imagine bien que de nos jours , surtout pour des CPU la question se pose plus ! :p
@@yamazakikaoru9579 Merci.
Oui bien sûr : pour tous les objets du quotidien. Voilà qui exige une réelle maintenance à des niveaux qu'on n'imagine pas...
@@cslevine Clairement , rien que de se dire , comment refaire des outils basique (genre un ciseau) serait un casse tête , il faudrait extraire des minerais , rien que ça , ça demanderait un temps fou , il faut une pioche (parce que tailler à la main t'en a pour quelque milliers d'années je pense lol ).
faire des haut fourneaux , ensuite , avoir un moule , et rien que leur fabrication est pas si évidente.
Je me suis toujours demandé comment tout cela à émergé !
En tout cas , ça semble être dans des temps assez lointain , parce que même des vielles civilisation comme la Mésopotamie et quand on voit babylone ,il semblait déjà avoir pas mal d'outils , (pareil pour l’Égypte antique).
Mais sur l'échelle de l'homme , ça a pris des dizaine de millier d'années !
Parce qu'on dit que l'homme actuel est né il y'a -100 000 ans , pourtant niveau histoire , on connaît les grandes civilisations depuis -5000 ans , on peut se demandait ce qu'a fait l'homme entre pendant 95 000 ans , d'un coté une population faible + aucun outils , ça devait être chaud cacao pour faire des sociétés plus "élaboré" ,rien que l'agriculture ça demande déjà d'avoir quelque outils pour travailler la terre.
Bref c'est un sujet que je pense que tout le monde à un peu pensé , sans trouver de réel réponse ,et donc oui de nos jours ça devient quasi inimaginable pour faire le moindre objet de A à Z.
Bah aux alentours de 20% de gain en puissance et le ray-tracing c'est quand même pas rien je trouve !
J'avais besoin d'un nouvel ordi portable (j'en avais plus depuis 4 ans) et j'ai craqué pour un M3 Pro. Ça me permettra de me mettre un peu à la 3D, il permet de faire du montage très correct et devrait bien durer dans le temps. Même la RAM, 18Go au lieu de 16 c'est un petit plus. Pour du portable ça me suffit amplement en tout cas. Je ne comprends pas bien pourquoi les gens trouvent que cette mise à jour est médiocre. C'est sur que c'est pas la puce M1, mais c'était tout nouveau ! Là on repart dans un cycle incrémental je pense depuis le M1. Et encore... 20% j'appelle pas ça incrémental franchement !
Par contre oui l'IA je les attends au tournant. J'imagine qu'ils attendent le bon moment pour sortir quelque chose de particulièrement abouti ?
Bref franchement super intéressant !
Bah typiquement si tu veux faire de la 3D 18Go de Ram c'est relativement peu si tu veux faire des objets avec des textures en haute résolution, j'ai un pc avec un i7 12700h, rtx 4060 et 16Go, même si le rendu dans son ensemble est fait rapidement bah le fait que j'ai "que" 16Go bah c'est embêtant parfois, surtout si je veux un rendu 4K avec des textures en 8K, la RAM a du mal à géré tout ça en même temps, c'est encore pire quand c'est de l'animation...
32Go pour de la 3D c'est pas mal et ça commence à être suffisant pour du semi-pro. Mais oui le sens gueulent parce que à ce prix 550Go de stockage et 8Go de Ram c'est que dalle, 8Go même avec MacOs c'est assez peu et au bout de deux ans tu vas déjà avoir certains usages qui vont te faire ramer, ils auraient pû faire l'effort de mettre 16Go de base, ou quitte à laisser 8Go au moins augmenter à 1To de stockage de base, au pire que ça coûte maintenant c'est pas comme si ils allaient se ruiner.
D'ailleurs intégré le calcul spécialisé dans le raytracing ça veut tout et rien dire, si tu sors un ordi qui fait du calcul raytracing mais qui en échange n'arrive pas à supporter une bonne partie des logiciels tiers par problème de compatibilité, pour le jeu c'est encore pire parce que faut trouver des stratagèmes qui te bouffent de la puissance pour y faire tourner des jeux windows ou linux. Et surtout bah si tu veux réellement un ordi spécialisé dans le calcul des rayons pour du pro tu prend un pc fixe avec une carte graphique pro qui fait faite pour ça, c'est pas les mêmes prix cependant, mais c'est le must have pour les concepteurs 3d.
Il y a une histoire de gaz spécial dont la Russie produit 60% ou plus, je suis pas sûr. C'est la raison pour laquelle la Corée n'a pas pris une sanction contre la Russie..
La France aurait du s'en inspiré d'ailleurs, 35 boîtes du CAC était présent en Russie . Quel dirigeant souhaiterait couper 30% à une des plus grosses boîtes de sont pays alors que les voisins n'en find pas autant.. 🤔
Note: Apple ne communique jamais directement les mots IA/ML/DL mais amène des fonctionnalités dans leur OS qui l’utilisent, et je vous invite à lire la page de macOS ventura et les nouveautés vous y en verrez.
Et c'est plus intelligent. Annoncer des chiffres alors que certaines puces ne peuvent pas charger des modèles disponibles gratuitement, c'est décevant. Apple au moins annonce de la fonctionnalité, pas de la potentialité
wow ! très bien vu
Tiffany elle habille bien une pièce n'empêche
3 nm est inférieur à la longueur d'onde de la lumière utilisée pour la gravure. Et ça, c'est très compliqué.
Ce qui est surprenant aussi c’est qu’ils fassent des comparaisons entre la M3 et la M1, et pas la M2 de mémoire
Ça fait juste un plus gros écart
Hello petite question, Y a-t-il des gens ici qui ont des problèmes d’écran avec des MacBook Pro M1 2021?
Canon a récemment développé une techno de nano impression qui semble prometteuse et qui reduit les coûts à une fraction du prix des bijoux d'asml
Oui mais le débit des machines Canon serait bcp plus faible selon une personne de la profession, 80 plaquettes/h au lieu des 300 plaquettes/h des machines EUV d''ASML ... Affaire à suivre en tout cas.
@@alloquoi3281 si le tarif de 15M$ pièce est tenu cela peut valoir le coût s'ils fonctionnent en série. Et les restrictions seront peut-être moindres...
Il y a beaucoup de bot dans les com
Avec des avatars bizarres
@@nicolasjleclercq821Des gros fiaks
Et sur de plus en plus de vidéos sur youtube j'ai l'impression...
Il y a un bouton 'signaler' sur les profils.
Et sur les commentaires aussi
juste pour info stable diffusion fonctionne déjà sur apple silicon il tourne sur ios ipad os et mac os en natif via l'app draw things notamment et cela fait presque 1 an que je l'utilise
Salut. Interressant la partie sur les capacités ia, et le lien avec la memoire unifiee, dommage qu'ils mettent moins de memoire sur leurs pc que sur la première carte graphique de base
Sujet super interresant, je trouve dommage que trop d'images sans grand intérêt aient étés rajoutées au montage ce qui nuit selon moi a la compréhension de la chronique. Peut être faudrait il trouver un plus juste milieu en affichant que des images utiles a la compréhension.
Bon, il faudrait penser à faire revenir la table, malgré le retour des habitués, vous n'avez pas l'air à l'aise avec vos tablettes dans vos mains.
Honnêtement malgré le titre et le sujet, vous manquez le coche.
Cette Keynote est plutôt la conséquence du changement chez Apple depuis Cook (gamme, marketting, certaines stratégie), une preuve de plus qu'Apple s’accoquine avec le mainstream en suivant d'autres marques si ça permet de gagner en PDM. Jamais on aurait vu un moove aussi disgracieux par le passé ni de révisions si rapide d'un produit far.
Et évidemment Apple ne parle pas d'IA pour le moment puisque ce n'est pas esthétique, mais Siri et le traitement photo ou acoustique c'est quoi ? Et ce n'est pas tout jeune... Ils y étaient super tôt !
Ils vont continuer de créer le besoin et l'introduire par l'applicatif (peut être d'abord en pro grâce au prouesses des puces dont vous parlez justement), et c'est à ce moment là qu'ils en feront la pub mais avec leur propre nomenclature, et encore.
C'est ce qui fait la force d'Apple depuis toujours.
Ce n'est pas pour faire le hater, plutôt pour aider et par habitude de mieux, mais la construction de la vidéo n'a aucun sens et on reste vraiment sur notre faim ! Je ne sais pas si c'est un manque de maitrise du sujet ou une collision d'envie d'idée à partager dans la vidéo, mais c'est vraiment dommage. Bref, continuez votre travail de vulgarisation ! :)
Oui c'est un coup de maîte
Magnifique!
Stable diffusion marche sur m2. En fait c’est surtout une question de pytorch qui marche sur apple silicon depuis au moins un an
Le sourir de madame est totalement passionant
Ca se passe comment pour les gros gpu?
Je me suis toujours dit qu'un Jarvis perso ce serait un truc de ouf mais je refuse de me servir des LLM et "IA" tant que les données partent je sais pas où et que tout n'est pas en local. Clairement, s'ils arrivent à le faire c'est le genre de truc qui pourrait me faire acheter du apple
Ca fait pas super longtemps quon a plus que 6go sur un gpu ? Meme mon gpu moyen de gamme achete il y a 5-7 ans en a 8, et le nouveau de l'année derniere en a 16 '-'
En plus, avec le resisable bar chez amd et je sais plus comment a sappelle chez intel, on peut partager la ram du cpu avec le gpu non ?
Et faire de l'ia sur gpu, cest un peu depasse dans certains cas aussi, il y a des carte d'ia notemment celle de google qu'on peut mettre dans un pc qui sont bien plus performantes dans certains cas
Superbe vidéo
Deux choses :
-3nm ce n'est pas de la taille d'un atome d'oxygène, d'ailleurs l'échelle de l'atome va vite apparaître comme une limite à la gravure.
-Elle sert à quoi la nana ?
8:40 Franchement les gars, vous êtes constamment en contact avec la langue anglaise. Neural Enjaayne 😫😫😫
9:43 oNE sheep… je vais vomir
J'adore votre émission mais je trouve dommage que le temps de parole des 3 personnes soient toujours 2 + 1. Une personne est toujours là pour figuration, que pour de réelles interventions. Sinon changé rien les sujets, contenu sont tops :)
Oui, la femme est la figuration et franchement je me demande ce qu'elle fout là, mais les deux autres auraient leurs place chez Cyril Hanouna. Ici c'est de l'info pour la maternelle sur du glacé.
Est-ce que ces "Neural engines" et autres Gb dédiés à l'IA pourraient être utilisés pour de l'entrainement déporté on-device ?
Car là, ils auraient un avantage de malade en termes de capacité d'entrainement sur tout le hardware vendu.
Ce qui rendrait encore plus essentiel le fait de consommer peu, pour que ça reste plus scred.
Merci pour votre travail de qualité sur cette chaîne
Oui c'est le rôle de ces nouveaux NPU, qui sont des puces optimisées pour l'entraînement. Reste à voir ce que ça donnera, en comparaison des énormes clusters de calculateurs utilisés par les grosses boîtes d'IA.
allons les enfants, on pouvait dire aussi : "apple 'dessine' ses processeurs" 🇫🇷
Un sujet sur les processeurs analogiques Mythic?
J'aime bien la prononciation "kinotte" au début.
Hello World depuis puce M3 :)
6 mois plus tard... Apple demande à ChatGPT de l'aider.
Qui a dit que l'entrainement était impossible sur silicon ? Source ?
Moi je pensais que c’était une réponse à l’annonce de snapdragon avec le nouveau processeur ARM !!? C’est arrivé aussi précipitamment que la surprise de l’annonce de snap !!??
Bah oui ils ont sorti le M3 du chapeau juste pour répondre à Qualcomm qui…. Pour l’instant n’a rien sorti ;)
En vrai ceux qui font du arm aujourd'hui vont dans le même sens il n'y a qu'à voir la sortie des nouveaux snapdragon !
c est pour ca que le gain en perf clasic a pas bcp augnenté