Nvidia vient juste de révolutionner l'I.A ?

Поделиться
HTML-код
  • Опубликовано: 8 сен 2024
  • Nvidia vient d'annoncer les GPU Blackwell GB200 avec 30x les performances en inference comparé à la génération précédente.
    Formations: cours.cocadmin...
    Newsletter: mailchi.mp/118...
    Rejoignez le discord: / discord
    Twitter: / cocadmin
    Instagram: / cocadmin
    Tiktok: / cocadmin

Комментарии • 274

  • @MrFalindir
    @MrFalindir 5 месяцев назад +53

    Quand une carte réseau a plus de ram que mon pc fixe 😢

  • @florianros8907
    @florianros8907 5 месяцев назад +5

    Super vidéo, ca fait un bon résumé du GTC 😎 merci a toi.
    Si je peux me permettre quelques petites corrections :
    - tu parles de 6KW a dissiper d'où le watercooling. Mais si la carte consomme 6KW, toute la puissance n'est pas dissipée en chaleur, et heureusement, sinon il ne resterait plus rien pour les cpu/gpu eux même. 🙃
    - Concernent le reseau, tu parles de 2 cartes reseaux alors que sur l'infographie il semble y en avoir 4. Mais je peux me tromper.
    - Et dernier point, en FP4 sur 3 bit ça ne te fait que 8 combinaisons maximums. Donc plutot de 0 à 8 ou -4 à +4. Sachant que je pense que c'est un peu simplifier comme raisonnement car sur une de tes diapos on vois que les formats sont en virgule flotante. Donc avec gestion de la mantisse et de l'exposant. Ce qui change la plage. 👨‍✈️
    Merci en tout cas pour ton travail !

  • @pandaDotDragon
    @pandaDotDragon 5 месяцев назад +72

    du moment qu'ils fournissent aussi le réacteur nucléaire pour faire fonctionner tout cela...

    • @FrozenZerg
      @FrozenZerg 5 месяцев назад +3

      On m'avait expliqué que ce qui était paradoxal en matière de technologie c'est que bien souvent ça progresse en terme de capacités mais en parallèle en terme de consommation énergétique ça devient souvent plus performant et optimisé.
      On m'avait expliqué ça en terme de fabrication de cryptomonnaie, les vieux GPU n'étaient pas rentable en terme de capacités de calculs par rapport à l'énergie utilisée pour faire tourner cela.
      Je ne sais pas si c'est vrai pour tout mais ça se ressent aussi sur les ampoules, par exemple la première ampoule 💡 jamais inventée est plus energievore qu'une ampoule moderne (genre une led).

    • @Bonsouèr
      @Bonsouèr 5 месяцев назад +1

      Pour le prix...ils devraient le donner

    • @Bonsouèr
      @Bonsouèr 5 месяцев назад

      @@FrozenZerg Exact

    • @acoustikr34
      @acoustikr34 5 месяцев назад +3

      @@FrozenZergon gagne en efficacité mais ça me couvrira jamais les gain de performance. pour couvrir 30 % de performance supplémentaire, il faudrait 30% d'efficacité en plus, ce qui n'arrive jamais.
      tu prend l'exemple d'une ampoule mais on fait en sorte de conserver le même éclairage.
      mais si tu prendre l'exemple des carte graphique, c'est totalement différent, on les veux plus performante a chaque génération.
      tu prend les carte graphique des année 2000 c’était a peine 150W/h, dans les année 2010 c’était 300 Watt/h, aujourd'hui c'est plus 600 Watt/h et c'est la même chose avec les processeur.
      Malgré qu'on gagne en performance/Watt a chaque génération, les PC consomme de plus en plus. C'est l'effet rebond, c'est nous, consommateur qui somme responsable de cela parce qu'on en demande plus.

    • @Sqlut
      @Sqlut 5 месяцев назад +2

      @@acoustikr34 Paradoxe de Braess en théorie des jeux. Rajouter une voie sur la route augmente le nombre de vehicules, et n'a aucune incidence sur le trafic. Pour la conso/puissance des GPUs c'est pareil.

  • @thewatcher1914
    @thewatcher1914 5 месяцев назад +48

    ❤ c'est un miracle que cette vidéo a faite sans musique autrement dit une vidéo professionnelle que je pourrais la voir 2 ou 3 fois dans un mois . Merci beaucoup et j'espère que tu ne mettras jamais la musique dans tes vidéos 😊

    • @ClaudyFlux
      @ClaudyFlux 5 месяцев назад

      T'a quoi contre la musique? C'est quoi cette mentalité de vieux aigri?

    • @fabehein3531
      @fabehein3531 5 месяцев назад +2

      Il y bien un "habillage" sonore avec des bruitages, mais pas de musique ,qui peuvent parfois polluer certaines vidéos (je parles pour l'ensemble des "tutubeurs").
      ça fait du bien pour l'écoute.Merci.

  • @colibriXD
    @colibriXD 5 месяцев назад +36

    une vidéo de cocadmin c'est mieux que noël

    • @Nanojuju-_-
      @Nanojuju-_- 5 месяцев назад +2

      vrm c'est une bénédiction

  • @OktoPutsch
    @OktoPutsch 5 месяцев назад +4

    @cocadmin, t'avais vu ces calculateurs spéciaux utilisés à une époque pour simuler la logique des architectures de nouveaux processeurs ou gpu ? C'était courant y a une vingtaine d'année. J'me souviens plus si c'étaient des FPGA ou pas, mais c'était de la grosse bécane, possiblement vectorielle. J'étais tombé sur un article de magazine qui parlait de ça y a 20 piges, impossible de trouver la même info sur le net, c'était dans un labo, l'engin avait son propre système de refroidissement, on aurait presque cru voir un Cray mais c'était plutôt taillé comme un frigo chelou, l'engin était énorme et simulait un processeur entier, pour valider l'architecture afin qu'il n'y ait pas de bug hardware une fois transposée sur le silicium.

  • @mamads7007
    @mamads7007 5 месяцев назад +63

    donc ils n'ont rien révolutionné ? il ne font que mettre a grande echelle ce qu'on sait depuis le debut ?

    • @cocadmin
      @cocadmin  5 месяцев назад +33

      en gros oui, enlever les bottleneck qui empechaient d'aller a cette echelle, donc les changements sont surtout au niveau de l'infra

    • @Rg38276
      @Rg38276 5 месяцев назад +8

      Maintenant imaginons ils arrivent à faire le même mais en 3 nanomètres c’est dingue

    • @cocadmin
      @cocadmin  5 месяцев назад +17

      @@Rg38276 ils viennent de passer a un cycle de 1an au lieu de 2ans par generation donc surement pour l'année prochaine !

    • @sebalphonse9401
      @sebalphonse9401 5 месяцев назад +1

      Merci 😊 j ai pas compris grand chose mais j adore tes videos

    • @jak4596
      @jak4596 5 месяцев назад +1

      Lol, c'est littéralement l'histoire des semi-conducteurs

  • @gobi13
    @gobi13 5 месяцев назад

    Salut! J'étais dans le SAP center lors de la keynote de Jensen à GTC et c'était vraiment très technique la partie GPUs pour des infras... et bien heureusement que t'es là pour faciliter la compréhension et vulgariser les concepts. C'est certain que ta vidéo reste technique et qu'il faut un minimum de background tech en GPU et IA pour bien comprendre mais je trouve que tu apportes une belle valeur ajoutée en vulgarisant autant que possible. GG mec!!

  • @DeMoNELectro
    @DeMoNELectro 5 месяцев назад +2

    belle couleur l'image de la vidéo le vert tout ça j'aime beaucoup

  • @pauldonzier7230
    @pauldonzier7230 5 месяцев назад +1

    En Flops/$ est-ce que c’est mieux que la génération d’avant ?
    Ou bien l’avantage c’est essentiellement qu’on peut faire tenir des modèles qui tenaient pas en mémoire avant ?

    • @cocadmin
      @cocadmin  5 месяцев назад +2

      le prix annoncé par puce est similaire a la generation precedente mais comme la ils te refourgue leur cpu en plus et leur switch etc la facture monte plus vite. Mais meme le prix double ca vaut quand meme le coup si t'es perf 4x.

  • @mohamedbekheira
    @mohamedbekheira 5 месяцев назад +2

    Merci, j'attendais justement une vulgarisation venant de toi

  • @0Clavix0
    @0Clavix0 4 месяца назад

    Je connaissais pas la chaine,super travail de montage etc ,sa change des youtubeur qui font defiler leur ecran fenetre par fenetre pour en foutre le moins possible !
    Je m abonne

  • @Hiponite
    @Hiponite 5 месяцев назад +2

    Merci pour tes vidéos qui permettent de bien comprendre le sujet

  • @hadihedjam5474
    @hadihedjam5474 4 месяца назад

    vidéo de qualité autant dans la forme que dans le fond, bravo !!

  • @OktoPutsch
    @OktoPutsch 5 месяцев назад +1

    Une chose à garder en tête, c'est notre capacité à modeler nos outils à l'aide de la génération d'outils précédentes. Avec un marteau on forge des couteaux, des pinces, des poinçons, etc, puis un meilleur marteau, et de meilleurs couteaux, pinces, poinçons... Depuis l'avènement de l'informatique, l'électronique s'est pris une accélération fulgurante par itération à chaque décennie. Aujourd'hui vous vous doutez bien qu'on fait calculer les nouveaux circuits avec des algo entraînés par IA, pas d'secret, et des performances qui atomisent la génération précédente de GPU à chaque fois... J'vous dis pas le nombre de matheux qui doivent bosser chez eux...

  • @adonis95
    @adonis95 5 месяцев назад

    Stylé la vidéo (explications, montage, ambiance, tout)!👌

  • @mik-brico-rando-informatique
    @mik-brico-rando-informatique 5 месяцев назад +1

    J'imagine la puissance quand il vont passer en 3 nanomètres puis en 2. Est-ce que tout ça est pour le bien commun ou . . . ? Et comment vont ils approvisionner l'ensemble en énergie est aussi une grande question qui mériterait bien une vidéo (car tu sais les faire intéressantes et accessibles au plus grand nombre)

  • @Nanojuju-_-
    @Nanojuju-_- 5 месяцев назад +3

    ce qui est bien c'est que ca coute pas cher
    et que j'ai la place de le mettre dans mon setup le datacenter

  • @Tigrou7777
    @Tigrou7777 5 месяцев назад

    2:38 Les transistors ne sont pas forcement plus petits quand on passe de 4nm a 3nm etc, c'est principalement la densité qui augmente. Bon je chipote un peu parce qu'en fait la video est excellente.

  • @fabehein3531
    @fabehein3531 5 месяцев назад +1

    16:59 ils ont encore "un NAS" caché dans leur manche 😁

    • @KahroSynetic
      @KahroSynetic 5 месяцев назад

      Ah chui pas le seul a avoir tilté dessus

    • @fabehein3531
      @fabehein3531 5 месяцев назад

      @@KahroSynetic🙂🤫

  • @jipe0616
    @jipe0616 5 месяцев назад

    super intéressant 👍, çà donne bien l'idée du domaine de Nvidia dans l'infra de l'IA. est ce qu'ils ont aussi parlé des accès au storage/data ? y a bottleneck si tu passe du 800Gb infiniband à un acces Cloud ?

  • @ANONIMOUS3
    @ANONIMOUS3 5 месяцев назад

    Incroyable la vidéo, c’était hyper interessant et passionnant

  • @aquisiteur5956
    @aquisiteur5956 5 месяцев назад +1

    WOOW, c'est fou ! trop passionnante comme vidéo, c'est des fou NVidia ^^

    • @joeldate8983
      @joeldate8983 5 месяцев назад

      le nom que je donne aux goat en classe

  • @shadowsensei9040
    @shadowsensei9040 5 месяцев назад +1

    Et encore, attend la prochaine génération avec des semi conducteurs de 2-3 nanometres.
    Et la ReRam.

  • @aym3604
    @aym3604 5 месяцев назад

    Toute la puissance pouvant être développée est juste incroyable mais niveau consomation c'est énorme aussi. Je ne sais pas trop quoi en penser même si c'est une avancée, cela reste extrêmement coûteux en énergie. Merci pour votre travail !

  • @madagreement
    @madagreement 5 месяцев назад +3

    Oui c'est très bien tout ça, mais est ce que ce DATA center sera capable de solutionner ma parte de cheveux ?! JE NE CROIS PAS !

  • @jeromechenet6420
    @jeromechenet6420 3 месяца назад

    Trop bien expliquer . Merci beaucoup 👍✔️

  • @Fouki95
    @Fouki95 5 месяцев назад

    Vidéo débreif des annonces au top, merci !

  • @gigazman
    @gigazman 5 месяцев назад

    Genial. Toujours intéressante tes videos. Merci cocadmin

  • @josueando
    @josueando 5 месяцев назад +1

    c'est trop cool son enthousiasme pour le sound design. on voit que c'est un petit kiff 🤣🤣

    • @OktoPutsch
      @OktoPutsch 5 месяцев назад

      ahah, j'me suis fait la même réflexion en matant la conf d'Nvidia, simple, efficace, ça devient même une petite musique, ça joue encore plus sur la hype du truc.

  • @HackedPwned
    @HackedPwned 5 месяцев назад

    Excellente vulgarisation, merci beaucoup 😉 !

  • @openmarkand
    @openmarkand 5 месяцев назад +3

    hate de voir un port de doom sur ces cartes

  • @sofiyan_ifren
    @sofiyan_ifren 5 месяцев назад

    Très bonne vidéo, très intéressant, je veux bien celle sur les RTX5000 😅

  • @frogx59
    @frogx59 5 месяцев назад +1

    j'ai pas encore tout regardé mais groq annonce 300 tokens/s (llama-2 70B) et le GB200 116 .... bon pour nvidia on ne connait pas le llm utilisé pour annoncer les chiffres.... du coup vrai révolution ?

    • @benben2846
      @benben2846 5 месяцев назад

      yep va y avoir une guéuerre entre entre le LPU et Nvidia !

  • @ethernaelis
    @ethernaelis 5 месяцев назад

    Merci pour les explications ! j'espère que tu continueras avec les 5000

  • @VenomGrasd
    @VenomGrasd 4 месяца назад

    stp tu peut fais une video pour nous montrer comment utilise les apk de programation

  • @Labriagame
    @Labriagame 5 месяцев назад

    Encore une vidéo bien cool, attention à la taille des texte, sur portable c’est compliqué à lire :)

  • @Russ_ell07
    @Russ_ell07 5 месяцев назад +1

    Tsais C’est ce pote passionné que l’on aime côtoyer

  • @whismerhillgaming
    @whismerhillgaming 5 месяцев назад

    A savoir que les process N4 N3.... ne riment plus à rien de nos jours...
    il faudrais plutôt s'intéresser la densité qu'on peux retirer de certaines architectures en fonction du process
    et je ne sais pas pourquoi ils sont resté sur le process N4P mais je pense que c'est par rapport au fait que c'est un process haute performance ce que n'est pas forcément le process N3
    en effet ce qu'utilise Apple ce n'est pas des processus haute performance mais plutôt des process à consommation réduite (ce qui ne veux pas dire que les puces ne sont pas très bonnes mais juste Apple cherche l'efficacité plutôt que les perfs brutes à tout prix en Watts consommés)
    Bref c'est pas du tout comparable et ça mériterais plus de recherches de ta part....

  • @benben2846
    @benben2846 5 месяцев назад

    Merci 👌👍
    rouuu, çà devient monstrueux ! Vingt diou....avec ce big bazar de boost ...ils vont finir par atteindre l'AGI ??? ^^
    les dernières IA peuvent tenir la dragée en conversation avec son avec un humain.....mon job de téléconseiller n'existera plus dans 5 ans ...l'IA sera bien efficace que moi 😅 et pourtant j'suis pas mauvais 🤨

  • @Sebassx972
    @Sebassx972 5 месяцев назад

    Ça serait intéressant une analyse de la prochaine rtx 5090. Je compte me le procurer.

  • @Marcdulux
    @Marcdulux Месяц назад

    J'ai eu l'occasion avec des potes de tester une carte Kalray (concurrent plus ou moins direct de AMD et NVIDIA). J'ai été impressionné par la rapidité et la puissance de calcul de la carte. Je me suis même demandé si ce n'était pas un prank de mes potes, mais pas du tout. C'est un truc de ouf
    Il me l'ont fait essayé avec un casque VR . J'ai halluciné. Alors que moi il m'en faut pour m'impressionner.

  • @fabehein3531
    @fabehein3531 5 месяцев назад

    Merci pour les images (et le son)💞
    Pouce UP 👍

  • @mcboyrevolution
    @mcboyrevolution 4 месяца назад

    Amélioration on peut dire 👌
    Révolution ! C'est un peut exagéré non
    Sinon merci pour cette superbe explication ❤

  • @joeldate8983
    @joeldate8983 5 месяцев назад

    svp big boss c'etait à quelle date la conference a eu lieu ?

  • @FRSineQuaNon
    @FRSineQuaNon 5 месяцев назад

    Tu devrais faire une vidéo en nous présentant tes extensions chrome :)

  • @UniversalConnexions
    @UniversalConnexions 5 месяцев назад

    On va pouvoir bientôt traversé le temps 😆 La télépathie ça existe, je regardais justement une de tes anciennes vidéo.

  • @user-kb4pp2nu2v
    @user-kb4pp2nu2v 5 месяцев назад +1

    T’es le meilleur continue 🎉❤

  • @Korosif710
    @Korosif710 5 месяцев назад

    une vidéo hyper détaillée tu régale!❄

  • @abuu_duu4814
    @abuu_duu4814 5 месяцев назад +1

    En vrai simple curiosité, genre demain j'arrive à m'en procurer pour X raison, y a til moyen de câler ça dans un Windows et faire tourner des jeux dessus ?

    • @Hiponite
      @Hiponite 5 месяцев назад +1

      mdr imagine le gestionnaires des taches avec des dizanes de cpu et centaines de gpu (après je crois que de coté logiciel donc windows c un seul gpu)

    • @cocadmin
      @cocadmin  5 месяцев назад +3

      yaura surement pas de driver pour, et meme si tu arrive a en bidouller un, plein de fonctionalité ne donne pas de gain de perf pour les jeux 3d (fp4, clustering, 192g de ram etc) Donc t'aura possiblement des moin bonne perf qu'avec une rtx :)

    • @creepydemon8732
      @creepydemon8732 5 месяцев назад

      Ya Linus qui a fait un teste avec la A100 si jamais ca t interesse (résultats plutot decevants) ruclips.net/video/zBAxiQi2nPc/видео.htmlsi=-60Upawj3nT6Jsve

  • @victorbouchez
    @victorbouchez 5 месяцев назад

    Encore une super vidéo, merci

  • @messiankov7538
    @messiankov7538 5 месяцев назад +1

    jaime trop ta presentation
    est les effet

  • @francksaillard1969
    @francksaillard1969 5 месяцев назад

    Merci pour toutes ces infos!

  • @arnaques-tuto-informatique
    @arnaques-tuto-informatique 5 месяцев назад

    salut, une vidéo haute qualité, respect, the king.

  • @OrangeRiviere14
    @OrangeRiviere14 5 месяцев назад

    ce serai bien que tu parles et donc compare les puces groq aux monstres Nvidia. Je pense que la GB200 vont souffrir de la comparaison ;)

  • @TheJoegillian
    @TheJoegillian 5 месяцев назад

    Cet homme mérite amplement son like ! 👍

  • @ald8186
    @ald8186 5 месяцев назад

    Une centrale électrique pour alimenter ce data Center ?

  • @Khushpich
    @Khushpich 5 месяцев назад

    très bien expliqué merci

  • @bause6182
    @bause6182 5 месяцев назад

    Hâte de voir les impact sur les ia

  • @CelianBaudet
    @CelianBaudet 5 месяцев назад

    Super vidéo mister !

  • @albertledromadaire
    @albertledromadaire 5 месяцев назад +1

    Décidément il semble que le réchauffement du climat est bien oublié , cette surconsommation électrique nous amène droit dans le mur

    • @benben2846
      @benben2846 5 месяцев назад

      infomaniak va avoir du taf 😂😂

  • @maquisardoccitan9043
    @maquisardoccitan9043 5 месяцев назад +2

    Faut avoir la centrale nucléaire à côté avec des datas centers de cette taille

    • @OktoPutsch
      @OktoPutsch 5 месяцев назад

      ben, curieusement, de moins en moins... c'est ça le truc de ouf :)

    • @maquisardoccitan9043
      @maquisardoccitan9043 5 месяцев назад

      @@OktoPutsch ca c'est par ce que dans le calcul de fonctionnement ont n'intègre pas la consommation électrique induite à la fabrication à mon avis

    • @OktoPutsch
      @OktoPutsch 5 месяцев назад

      @@maquisardoccitan9043 bah, c'est normal, tu prends pas en compte l'énergie grise (fabrication) pour une exploitation. Toi il te faut tes 2600 calories pour vivre chaque jour une fois achevé, pourtant il en a fallut des millions auparavant pour te "fabriquer" comme adulte.

  • @eliefrossard
    @eliefrossard 5 месяцев назад

    Merci pour la vid ! super interessant !

  • @azakimbow
    @azakimbow 5 месяцев назад

    Merci pour les infos

  • @Le.Félin
    @Le.Félin 5 месяцев назад

    As-tu entendu parler d'une autre révolution beaucoup plus dingue que celle de Nvidia, et qui a été créé par des chercheurs français ? Il s'agit de Mistral qui ont fabriqué une puce dingue beaucoup plus performante que les GPU.

  • @maesmm
    @maesmm 5 месяцев назад

    À 11:14 il parle de chiffrement homomorphe (FHE) ?

    • @cocadmin
      @cocadmin  5 месяцев назад

      non juste chiffrement du traffic interne

  • @jcmoriaud
    @jcmoriaud 5 месяцев назад

    Très intéressant. D'où vient votre support de laptop svp ? ;-)

    • @cocadmin
      @cocadmin  5 месяцев назад +2

      C’est un stand portable moche en plastique premier prix d’Amazon :)

    • @jcmoriaud
      @jcmoriaud 5 месяцев назад

      @@cocadmin merci !

  • @dotcybersec
    @dotcybersec 5 месяцев назад

    Le design du GPU est déja beaucoup trop stylé

  • @moliver8492
    @moliver8492 5 месяцев назад

    merci pour ton analyse

  • @IronMechanic7110
    @IronMechanic7110 5 месяцев назад

    Incroyable la vidéo !!

  • @saucisse_dev
    @saucisse_dev 5 месяцев назад +2

    Ils ont plié le game là c'est complètement hallucinant MDR

  • @ziratya3.014
    @ziratya3.014 5 месяцев назад

    "Un NAS caché" ;) 16:57

  • @fredouille_3735
    @fredouille_3735 5 месяцев назад

    J'ai vu que Grog se spécialisait dans des puces spéciales inférence, est-ce que ça ne serait pas plus économique d'associer moins de gpu avec des puces du genre LPU mais spécialisées en video par exemple ?

    • @67fabs
      @67fabs 5 месяцев назад

      Les cartes Groq sont bien pour génerer du contenu par contre, tu ne peux pas les utiliser pour entrainer ton modele

    • @OktoPutsch
      @OktoPutsch 5 месяцев назад

      non car leur solution est plus générique et leur permet de faire du LLM et d'autres modèles avec un degré de performance équivalent à des circuits spécifiques. La souplesse est un gros avantage sur un marché en perpetuel changement.

    • @OktoPutsch
      @OktoPutsch 5 месяцев назад

      'fin, vous vous doutez bien que pour en être là où ils sont c'est qu'ce sont pas des branlos en maths et qu'ils ont déjà fait leur étude comparative pour calculer leur feuille de route stratégique

  • @ronin6397
    @ronin6397 5 месяцев назад

    Ce sont des grands malades les ingénieurs de chez Nvidia 😂 Ils sont trop fort 😎

  • @AurL_69
    @AurL_69 5 месяцев назад

    incroyable cette analyse

  • @othniel8993
    @othniel8993 5 месяцев назад

    T'as abusé des j-cut là x)
    Nan mais ça fait plaisr de voir la forme aussi soignée

    • @cocadmin
      @cocadmin  5 месяцев назад

      ca permet de faire avancer la video 2sec plus vite a chaque jcut ;)

  • @PauloMundo
    @PauloMundo 5 месяцев назад +1

    Du coup ils vont aider à avancer sur la fusion nucléaire pour leurs futurs GPU ? mdr

  • @Russ_ell07
    @Russ_ell07 5 месяцев назад +1

    J’adore trop ce gars

  • @hedialdjazairi8349
    @hedialdjazairi8349 5 месяцев назад

    Pensée à tout les techniciens qui vont devoir remplacer les cartes dans les data center de OpenAI 😅

  • @xd-d5312
    @xd-d5312 5 месяцев назад

    Moi j'attends une carte avec GPU et LPU intégré, capable de switcher selon les requêtes.

  • @brucemangy
    @brucemangy 5 месяцев назад

    l'appellation GPU semble inappropriée, IA Processing Unit ? Tensor Core Unit ? TCU ? j'avoue je ne sais pas, mais ca gère plus du tout des vertex des matrices et des pixels ...

    • @cocadmin
      @cocadmin  5 месяцев назад

      c'est toujours bcp de matrice mais oui ca n'a plus rien de graphique effectivement

  • @jeffondrement160
    @jeffondrement160 5 месяцев назад

    Même méthode que pour les processeurs M2 Ultra avec 2 puces rattachées par une sorte de pont.

  • @lefildubois6086
    @lefildubois6086 5 месяцев назад

    C'est rien à côté des puces LPU GROQ qui détrône pour le moment NVIDIA dans le language

  • @h2o_one
    @h2o_one 5 месяцев назад

    En tant qu'admin sys, j'avoue que niveau hardware cloud & dataCenter je suis un peu largué donc:
    bravo pour cette vulgarisation, çà devient bien plus assimilable comme info.
    Par contre l'investissement qu'il faut pour cette architecture parfaite by Nvidia 🤣

    • @cocadmin
      @cocadmin  5 месяцев назад

      le CEO a mentioner 10milliard pour cette generation. Je pense pour décourager les startup qui démarre dans ce domaine

  • @mohamedhusseindoumbia7476
    @mohamedhusseindoumbia7476 5 месяцев назад

    en gros c essentiellement de la surenchere ? pas de methode archi ingenieuses pour avoir un boost de capacité ??

    • @vorkzen4767
      @vorkzen4767 2 месяца назад

      Après ils ne peuvent pas révolutionner leurs architecture chaque année 'on plus, ils optimise, enlève/limite les embouteillage ect...

  • @MounMoun69
    @MounMoun69 5 месяцев назад

    Au fait 3nm ça n’a rien à voir avec la taille des transistors ou à n’importe caractéristique physique directe des transistors 😊 , ça fait plutôt référence à la densité des transistors ou à la distance entre ces derniers…

    • @cocadmin
      @cocadmin  5 месяцев назад +1

      c'est pour ca que j'ai dit "pour simplifier" :)
      j'ai fait une vidéo la dessus il y a quelques années ruclips.net/video/U4-Le0N-Lyo/видео.html

    • @MounMoun69
      @MounMoun69 4 месяца назад

      @@cocadmin Vulgariser ou simplifier c'est différent de donner des informations erronées, lorsqu'on touche un public large il faut faire attention à cela, quand on me dit simplifié : je comprends qu'on omette certains détails pas qu'on me donne une explication fausse.... Parler d'une "plus grande précision de gravure aurait largement suffi..." 😁

  • @Numero-42
    @Numero-42 5 месяцев назад

    Gorq ship vient de leur mettre une vitesse je crois

  • @zoubimusta6354
    @zoubimusta6354 5 месяцев назад

    merci top comme d'hab

  • @sebastienmaisse8135
    @sebastienmaisse8135 5 месяцев назад

    Sujet intéressant, par contre, pas de nouveauté au final si ce n'est mettre plus de puce dans le bouzin 😂 Ce qui sommes toute n'est pas nouveau. 😊

  • @glupsification
    @glupsification 5 месяцев назад

    hop hop hop !! aie aie aie .. 4 x 18 = 72 pas 78 GPU .. , ceci dit je te comprends que de puissance accumulée !!!
    Coté conso : 5kw * 18 = 90 kw .. l'équivalent d'un moteur thermique de voiture de 122 ch .. (cout EdF 90 000 € à l'année)
    ça va couter cher en énergie !
    merci de ta vulgarisation !! clair et limpide..
    Cdt

  • @tommsla123
    @tommsla123 5 месяцев назад

    Par simple curiosité, j'aimerai savoir le cout d'un seul Rack 😂😂

  • @Bonsouèr
    @Bonsouèr 5 месяцев назад

    Merci pour la vidéo ! Malgré mon intérêt pour le domaine, j'avoue avoir la flemme de regarder une conférence de 2h...ce résumé est donc bienvenu 😁

  • @phanuelalibia
    @phanuelalibia 5 месяцев назад

    je suis un dev web front end et les animations de se site on été fais par des genies

  • @benjaminpereira2559
    @benjaminpereira2559 5 месяцев назад

    Et donc tt sa sur une conférence et soit disant.. 30x plus vite... S'est un peu gris quand mm non?

  • @lechinois4396
    @lechinois4396 5 месяцев назад

    l'attaque des 51% sur BTC redeviendrait envisageable avec une grosse coopérative de mineurs malveillants qui mettrait la main sur cette technologie en premier, non ? Ou crypto + petites peut être

    • @cocadmin
      @cocadmin  5 месяцев назад

      le mining profitera pas de la plupart de ces avancés, l'ajout de memoire, le clustering et le fp4 sert a rien en mining.

    • @lechinois4396
      @lechinois4396 5 месяцев назад

      @@cocadmin ok ok, merci pour l'info !

    • @DJParadoxeOfficiel
      @DJParadoxeOfficiel 5 месяцев назад

      Non, les asics utilisé sur BTC ont une conception différente, j'irai même jusqu'à dire, même pas comparable... La puissance de calcul généré par les asics n'ayant pas la même architecture. Théoriquement sa pourrai fonctionné mais l'efficacité serait insuffisante et ce ne serait absolument pas rentable. Pourquoi utilisé 50 millions en électricité pour récupérer que 30 milions de BTC? Personne n'a envie de perdre 20 millions juste pour le plaisir! :D Et les forces de l'ordre ont évolué avec le temps, ils savent scruté la blockchain et remonter les pistes désormais. Faire des trucs illégale avec du BTC en 2024 c'est de la folie! :D Il y a 10 ans, oui, mais c'est fini!

  • @gaetansenn3481
    @gaetansenn3481 5 месяцев назад

    LPU Mon gars !!

  • @ratyio_cookie775
    @ratyio_cookie775 4 месяца назад

    T'inquiètes pas même avec un pc comme ça windows te prendrais 90% des perfs pour envoyer tes données plus rapidement

  • @toni_rio
    @toni_rio 5 месяцев назад

    Le computing va etre le nouveau petrol. Pour ceux qui ont un peu de connaissances en finance, placez vos pions là dedans

  • @anatideanani
    @anatideanani 5 месяцев назад

    de quoi supporter GTA6 en ultra

  • @MtTheToto
    @MtTheToto 5 месяцев назад

    Il vont surtout révolutionner le prix des cartes avec celle là 😅
    Ca me parait pas super malin de juste combiner plein de trucs en 1 monstre.