ChatGPT vient de se faire détrôner par des génies français

Поделиться
HTML-код
  • Опубликовано: 5 фев 2025
  • hype/20
    👀 À ne pas manquer, ChatGPT vient de devenir dangereux : • ChatGPT vient de deven...
    Pas du tout obligé mais si vous vous abonnez ça m'aide vraiment 🙏 : bit.ly/3xqS2pi
    🎥 Suivez l'émission en direct: / micode (c'est 1 mercredi sur 2 à 19h)
    🎙 Toute l'émission en podcast, sur votre plateforme préférée: underscoretalk...
    📸 Les coulisses de l'émission: / underscoretalk
    🐦 Les annonces de dernière minute: / underscoretalk
    En plateau, il y a Tiffany Souterre et Matthieu Lambda !

Комментарии • 920

  • @Alkatsu
    @Alkatsu Год назад +1464

    En espérant que la boîte ne soit pas racheté par un géant américain et que la France ne freine pas Mistral, on a besoin nous aussi d’un pionnier dans l’IA en France pour ne pas être dépendant des autres pays !

    • @bredpill
      @bredpill Год назад +15

      qui voudrait rester dans ce TAM

    • @soulysouly7253
      @soulysouly7253 Год назад +1

      D'ici 5 ans ils sont rachetés et ils vont tous partir aux US.
      Deja, les 3 sortent de GAFAMs mdr.
      Il faut savoir qu'aux Etats Unis, un salaire moyen d'un ingénieur est au moins 2x superieur à la contrepartie française, sans parler des investissements qui coulent à flot des que ça touche à la tech, etc. Un ingenieur qui a la possiblité de vendre sa boite a un GAFAM ou travailler pour va le faire sans hesitation.

    • @tomatosbananas1812
      @tomatosbananas1812 Год назад +112

      0:20 Malheureusement les fonds levés sont déjà majoritairement US. En plus de ça, l'état a perdu tout protectionnisme et est même devenu atlantiste donc c'est pas gagné !

    • @marvin.toyboy
      @marvin.toyboy Год назад

      ​@@tomatosbananas1812 tant mieux que ce soit des titan des comme Nvidia et surtout des US car en France les gens ils savent pas gérer et ils sont trop centrer sur leur nombrils ils vont tout faire capoter, d'ailleurs on le voit là dans les commentaire et le titre de la vidéo (et pas que) on dirait que les gens s'en fiche de l'humanité et de l'évolution, que ce qui les intéressent c'est de faire briller leur nombril en disant "regardez, moi je suis français et c'est des français qui ont crée ce truc de ouf donc ça veut dire que je suis un ouf aussi" bref les gens veulent s'inventer des valeurs aux travers du néant car dans le font c'est pas eux qui ont crée ça et la france ça reste juste un lieu sur une planète.
      D'ailleurs j'en profite pour préciser ici que le titre est mensonger, cet IA n'est que meilleur que ChatGPT 3.5 qui est une ancienne version de ChatGPT, ça confirme tout ce que je dis sur le nombrilisme de la france.

    • @stanislasmartel4544
      @stanislasmartel4544 Год назад +70

      Sous l’air Macron c’est mort et étant dans l’UE aussi. On est perdu…

  • @mblmblmbl
    @mblmblmbl Год назад +126

    Attention Micode, à 17:00 quand tu parles de la comparaison entre GPT4 et Mistral-medium pour du code Python, le code montré en image quand tu parles de GPT4 est en fait la réponse de Mistral, et quand tu parles de la réponse géniale de Mistral, c'est la réponse de GPT complètement lunaire qui est montrée

    • @nady2296
      @nady2296 Год назад +11

      Merci pour ce commentaire. Je me posais en effet la question. Ça me semblait étrange

    • @didubako6738
      @didubako6738 Год назад +3

      Aha ça m’avais perturbé aussi

    • @zealous_tagada
      @zealous_tagada 10 месяцев назад +1

      J'allais commenter la même chose haha, je suis pas super calée en prog, mais les commentaires en comic sans semblait plus critiques en 2e partie qu'en première X) Ça rend ce qui est dit difficile à suivre !

    • @vincentl7007
      @vincentl7007 9 месяцев назад

      Merci de cette précision !

  • @gremibarnou8146
    @gremibarnou8146 Год назад +170

    Super les gars. Juste quelques petites précisions pour nuancer et donner une certaine impartialité au sujet:
    - Seul Gemini Ultra (pas le pro) était attendu comme le vrai concurrent de GPT-4 (ça n’empêche que le PRO se fait poutrer par Mixtral 😅)
    - mistral small, c’est bien Mixtral 8x7b. Le Tiny c’est le 7b
    Sinon l’avis d’un gros utilisateur sur le sujet: fin 2023, et assurément 2024 sera l’année des petits modèles très optimisé. Non seulement ça répond à une problématique d’accessibilité infrastructure pour les faire tourner (pc locale, GPU avec VRAM limité, etc), mais c’est également porté par les géants de la Tech du smartphone qui doivent obtenir des petits modèles très performant et safe capable de tourner en local sur les iPhone et autres Samsung (voir Galaxy AI). On le voit avec Microsoft et son modèle Phi-2 qui est trois fois plus petit que Mistral Tiny (pareil pour une version de Gemini)
    Ensuite, j’ai une théorie en ce qui concerne la baisse de performance des LLM propriétaire : je pense qu’ils quantifient leur poids sur des précisions beaucoup plus petites (8 bits, 6 bits ?) afin d’ être moins gourmand en ressources. Il faut quand même pas oublier que ces modèles sont pour la majorité utilisable gratuitement, alors qu’il coûte un rein en infrastructure pour les run. Donc corréler la censure avec la baisse de performance je suis complètement d’accord, mais je pense qu’il faut aussi y voir une tentative d’optimisation (raté du coup 😅)
    Continuez comme ça vous êtes super 🎉

    • @NielsGx
      @NielsGx Год назад +10

      "- mistral small, c’est bien Mixtral 8x7b. Le Tiny c’est le 7b"
      C'est ce qu'il a dit, mais le montage vidéo est faux

    • @darkfantome7097
      @darkfantome7097 Год назад

      ​@@NielsGxet où on peut l'obtenir ?

    • @darkfantome7097
      @darkfantome7097 Год назад

      ​@@NielsGx bah nous non il dit starling lm 7b alpha

    • @jules4638
      @jules4638 Год назад

      Bah merci 👍

    • @okynawahx3130
      @okynawahx3130 Год назад +1

      Salut, petite question pour un "gros utilisateur". Micode dis que le 7b est rapide (10:52). Est ce que tu confirmes, car je le fais tourner à 1,2 token / seconde sur ma 2070S, je trouve ça pas fou. Et le 8x7B demande de se charger complètement en mémoire (il fait 90Go)

  • @Meta-dip
    @Meta-dip Год назад +20

    Je viens de faire quelques tests sur L'API en tiny, small et medium et je suis totalement impressionné. Je dirais comme ça que j'ai des réponses en français meilleurs que gpt3.5 quand j'ai commencé à travailler avec y a 6 mois. J'ai mis un petit historique de conversation pour voir si elle le contextualisait et OUI. J'ai mis des "custom instructions" et pareil, suivies parfaitement. Je suis conquis!!

    • @drm2005
      @drm2005 Год назад

      J'aimerais savoir si c est possible de ľinstaller sur un pc a 16 go de ram ?

  • @TheRealUsername
    @TheRealUsername Год назад +142

    L'IA Open-source avance encore plus rapidement que les IA propriétaire, il y a eu beaucoup des centaines d'études sortis ces derniers mois, très prometteur et vont faire réduire les coups tout en augmentant l'intelligence.

    • @marvin.toyboy
      @marvin.toyboy Год назад +10

      L'IA open source a des décennies de retards sur certaines entités privées qui ne te dévoileront pas leurs avancées technologiques. Faut pas se limité à ce que tes yeux ils voient mais oui ça avance dans l'open-source et le publique (pas forcément open-source).

    • @abdoulayediallo3777
      @abdoulayediallo3777 Год назад +2

      Mistral AI ne sont pas si "Open" que ca.

    • @kcirtapegrev2561
      @kcirtapegrev2561 Год назад

      "réduire les coups" ?@@abdoulayediallo3777

    • @arnaque-tuto-informatique-exp
      @arnaque-tuto-informatique-exp Год назад

      oui, je demande à tester plutot que de se fier à des vieux tests peut-etre sponso....mistral ai, je les sens pas du tout...en esperant me planter.@@abdoulayediallo3777

    • @Gillianblc
      @Gillianblc Год назад

      @@abdoulayediallo3777 Tout comme OpenIA...

  • @zeteos
    @zeteos Год назад +75

    On se croirait tellement dans la série Silicon Valley où la start-up arrive à avoir un taux de compression que personne n'avait jamais vu :)

    • @jarsal_firahel
      @jarsal_firahel 9 месяцев назад +2

      Le score de weissman ahahah

    • @redwar7253
      @redwar7253 18 дней назад

      Sauf que là c'est pas le cas

  • @Ted_Love_You
    @Ted_Love_You Год назад +11

    Pour l'avoir tester en local, c'est hyper impressionnant. Par pitié, conservons cette pépite en France, c'est notre seul chance d'exister dans la révolution technologique à venir.

    • @fredp8516
      @fredp8516 6 месяцев назад

      Soyez convaincu que ce sera Mistral perdant pour la France. Après sa mission dépouillage Atos ça ne m'etonnerait pas k Thierry Breton soit déjà sur le pont pour Mistral. Depuis Bull c'est devenu + qu'un job pour lui, étant incapable de redresser une entreprise qui va mal l'échec français l'a autant enrichi que ça a donné du sens à sa vie...

  • @Negata_
    @Negata_ Год назад +48

    Ca me rappelle au final l'approche gros studio vs studio indépendant en jeu vidéo:
    Ils finissent toujours pas surpasser parce qu'ils se refusent les mêmes limites et apprennent par les erreurs de ceux qui sont passés avant eux

    • @Mornepin
      @Mornepin Год назад +7

      A mon avis c'est surtout qu'ils ne sont pas encore assez gros pour se faire emmerder par des régulations. Ca pourrait devenir très difficile pour eux prochainement s'ils ne s'y pliaient pas, un peu comme la semi-cavale de Binance en crypto depuis des années.
      J'espère que l'avenir me donnera tort !

    • @22Epic
      @22Epic Год назад +2

      Ca fait le buzz (et encore un buzz très limité), mais peu de chance qu'il en sorte quelque chose de concluant.

  • @omarkhanous5696
    @omarkhanous5696 Год назад +8

    Micode est le seul qui ramène des gens sur sa plateforme pour l'écouter parler XD. Ceci dit très bonne vidéo 👍

    • @tibere1982
      @tibere1982 Год назад +1

      En même temps avec des invités qui s'appellent Tiffany Souterre et Matthieu Lambda, fallait pas s'étonner :D

  • @Keichoula
    @Keichoula Год назад +34

    00:01 A French company has disrupted the AI industry with alternative models to GPT
    02:19 Benchmarking models requires human intuition
    04:30 New French models challenge ChatGPT dominance
    06:34 Nvidia servers and model sizes in AI
    08:35 Mistral, a 7 billion parameter model, surpasses ChatGPT.
    10:31 New French AI model shows great potential
    12:29 Mistral provides high performance with lower hardware cost
    14:31 Discoveries about Mistral models and their potential
    16:34 Forcing a model to be safe reduces its efficiency
    18:18 Mistral's impactful creation and the potential vulnerabilities of language models

    • @davmoon9406
      @davmoon9406 Год назад +18

      C'est quel GPT's qui fait ça ? 😆

    • @mathieul4303
      @mathieul4303 Год назад

      ​@@davmoon9406bonne question 😂 mais tu sais qu'il y a l'IA sur RUclips maintenant, genre intégré dans la plate-forme pour trier les commentaires pertinents ou les groupes de commentaires similaires en plus de "commentaires populaires" et "commentaires récents"

    • @pal100000
      @pal100000 Год назад

      ​@@davmoon9406XD

    • @Odranoel.0
      @Odranoel.0 Год назад +3

      ​@@davmoon9406 Non, c'est un bot qui vas dans la transcription de la vidéo et qui copie colle les éléments dans un commentaire pour éviter de se faire cramé trop facilement.

    • @toto7571
      @toto7571 Год назад

      @@davmoon9406 HARPA AI ou d'autres

  • @monsieur-top
    @monsieur-top Год назад +5

    J'adore ta façon de parler c'est hyper simple à comprendre !

  • @misterpolyflow2040
    @misterpolyflow2040 Год назад +30

    Deux choses m'étonnent fortement dans cette vidéo. 1. Autant de réjouissement de l'accélération du développement de l'IA. 2. L'interaction inexistante avec les invités de cette émission. Cela dit, le contenu est très intéressant 😊

    • @stephanebonvallet
      @stephanebonvallet Год назад +2

      tout simplement parce qu'ils ne maitrisent pas le sujet qu'ils évoquent et c'est très inquiétant ainsi que révélateur du youtube game...

    • @kaz4718
      @kaz4718 Год назад

      j utilise chat gpt de maniere basique, pour des recherches... et j m y connais tres peu, du coup je devrais utiliser quel ia ? @@stephanebonvallet

  • @Rudy2k5
    @Rudy2k5 Год назад +3

    Vous savez, les ordinateurs analogiques permettraient d'utiliser l'intelligence artificielle sans nécessiter des composantes aussi performantes et énergivores comme c'est le cas actuellement. Une fois que l'algorithme est entraîné, son utilisation ne nécessite plus autant d'énergie. Ce ne sera pas possible de l'utiliser dans tous les contextes, mais cette technologie a un bel avenir pour plusieurs domaines.
    Je vous invite à regarder la vidéo : "Future Computers Will Be Radically Different (Analog Computing)" de Veritassium

  • @Piteur_par_Coeur
    @Piteur_par_Coeur Год назад +85

    Un immense bravo à ces Français !
    J'espère que ça aboutira à un vrai gros projet commercial français, et qu'ils ne se feront pas malgré tout bouffer tout cru par les Américains.

    • @lachouette83
      @lachouette83 Год назад +5

      C'est open source..... Et il sont deja au usa...

    • @BatondeBamako
      @BatondeBamako Год назад +1

      Cedric O qui est resté près de 3 ans au gouvernement (Philippe puis Castex) lors du premier quinquennat Macron, a souscrit comme les autres investisseurs minoritaires a 17 610 actions (0,01cts d’euros/action) de Mistral AI pour la modique somme de 176,10 euros. Un investissement qui s’est transformé en or puisque sur la base de la dernière levée de fonds effectuée par Mistral AI, les actions initiales vaudraient déjà près de… 23 millions d’euros !

    • @Piteur_par_Coeur
      @Piteur_par_Coeur Год назад +1

      @@BatondeBamako Du coup, un type qui aurait acheté ces actions en échange de quelques minutes de son travail peut maintenant profiter du travail de milliers de gens en ne leur offrant rien en échange. Tu trouves ça juste ? Tu ne penses pas que c'est du parasitisme ?
      L'argent ne devrait-il seulement servir à échanger les biens et les services que nous produisons nous-même contre les biens et services produits par notre voisin ? Si j'ai le droit de profiter des biens et services produits par mon voisin mais sans rien produire en échange, n'est-ce pas du vol ?

    • @BatondeBamako
      @BatondeBamako Год назад

      @@Piteur_par_Coeur et ouai, si t'as des contacts, tu achète tout à prix cassé

    • @12testmicro41
      @12testmicro41 Год назад +2

      ​@@Piteur_par_Coeur c'est le fonctionnement du capitalisme, ça a l'avantage d'avoir été le meilleur système pour l'amélioration technologique. Par contre, ce système ne peut pas durer indéfiniment car il est intrinsèquement corrélé à la croissance. Et tout système ne peut croître indéfiniment dans un monde fini. Donc à moins de coloniser l'univers nous devrons changer de système tôt ou tard.

  • @MadPenguin-euw
    @MadPenguin-euw Год назад +7

    Salut ! Merci pour votre travail dans l'émission !
    Est-ce que vous pourriez ajouter vos sources en description (liens précis) ? Merci :D

  • @davidvincent380
    @davidvincent380 Год назад +1

    La grande force de Mixtral est qu'il peut tourner sur votre machine avec juste 32go de ram (avec 64go c'est encore mieux), pas besoin de gros GPU, voire pas besoin de GPU tout cours si vous avez un bon CPU.
    Un ChatGPT3.5 non censuré à la portée du grand nombre.

  • @HollyDollyRun
    @HollyDollyRun Год назад +7

    Le problème c'est que dans ces vidéos, on ne parle jamais de la context length. La CL est le facteur limitant dans l'application des LLMs dans des applications concrètes.
    Llama 2 se fait peut-être laminé par des modèles plus petits sur certaines métriques, mais c'est un des seuls à pouvoir gérer 100k de token en entrée. Tandis que Mistral est à 8k. Et 32k pour Mixtral.

    • @TaHa-nf5vc
      @TaHa-nf5vc Год назад +1

      Ta des mistrals FT à 128k de contexte de token, check hugging face.

  • @yacinegaci2831
    @yacinegaci2831 8 месяцев назад +1

    Je ne suis pas tout à fait d'accord avec le fait de croire qu'on bénéficie de la performance de 8*7B avec seulement 2*7B de paramètres. Pour le coût de calcul, c'est vrai, mais si on parle de mémoire, tous les 8*7B doivent être chargés en mémoire. Et puisqu'on sait maintenant que les LLMs sont plutôt contraints par la mémoire, je suis tout d'un coup moins emballé par ce genre de dires.
    Après, je tiens à préciser que l'idée de Mixtral est un coup de génie, et que j'adore le principe de Mixture of Experts. Bravo à la boite, et bravo pour cette vidéo :)

  • @Aminoquiz
    @Aminoquiz Год назад +9

    17:40 petite note pour le monteur : l'illustration est inversée par rapport à ce qui est dit. Tu montre GPT4 quand on parle de Mistral-Medium et vice-versa.

  • @Deadknight67
    @Deadknight67 Год назад +17

    Clairement un Mistral gagnant!

    • @AlexandreMathiaud
      @AlexandreMathiaud 9 месяцев назад +2

      Merci, j'ai cru que personne ne la ferait celle-là...

    • @SalAbraham7
      @SalAbraham7 8 месяцев назад

      ChatGPT ne va jamais se faire détrôner par des petits génies français. ChatGPT-4o représente une avancée significative dans le domaine de l’intelligence artificielle conversationnelle et de traitement du langage naturel.
      Ses nouvelles fonctionnalités offrent des avantages considérables pour les entreprises et les particuliers, allant de la personnalisation avancée à l’automatisation des tâches marketing et à l’analyse des données.
      En intégrant ChatGPT-4o dans leurs opérations, les entreprises peuvent améliorer leur efficacité, offrir une expérience client supérieure et prendre des décisions stratégiques basées sur des insights précis.
      En 2024, ChatGPT-4o se positionne comme l’outil indispensable pour naviguer dans le paysage numérique en constante évolution.

  • @choowie92
    @choowie92 Год назад +27

    "C'est le genre de boite qui me rend fier d'être Francais"
    Exactement!

    • @TheRealUsername
      @TheRealUsername Год назад +1

      😂 les 2/3 du staff ne sont pas français

    • @42ArthurDent42
      @42ArthurDent42 Год назад

      Moi perso c'est le genre de phrase qui me rend triste d'être humain : des gens aussi intelligents qui sont capables d'être en même temps aussi naïfs...

    • @migtao2585
      @migtao2585 Год назад

      @@TheRealUsername Ce n'est pas le staff qui fait l'entreprise, sinon elles seraient toutes à égalité. Ce sont les dirigeants, leur stratégie, leur capacité à manager, à recruter, à s'adapter etc.

  • @noopsynoopsy7386
    @noopsynoopsy7386 Год назад +4

    Le génie Français réchauffe le cœur ❤️ ça fait plaisir , force prospérité et durabilité à eux👍
    Merci à vous 🙏

  • @LesTestsdeCyril
    @LesTestsdeCyril Год назад +2

    Hello la team @underscore
    Honoré que vous ayez pris une de mes séquences pour illustrer votre vidéo 🙏

  • @coolben1310
    @coolben1310 Год назад +5

    ChatGPT régresse à fond c'est clair, plus les versions avancent plus il est feignant et stupide, tu dois lui répéter 3 fois un truc pour qu'il le fasse et si tu loupe avec sa mémoire de poisson rouge t'es bon pour recommencer l'explication.

  • @DamielBE
    @DamielBE 11 месяцев назад

    en parlant de GPT4 publique devenant "incompétence", il y a une semaine, sur Bing, j'ai voulu que Designer fasse une illustration basée sur une série, avec comme référence un fanart qu'elle avait elle-même générée, et là, pas moyen, c'est comme si on l'avait empêchée de dorénavant créer des fanart ou des fanfictions. J'étais la frustration incarnée!

  • @xyzz3969
    @xyzz3969 Год назад +36

    Pouvez-vous mettre en description les liens des articles dont vous parlez dans l’émission ? Par exemple l'histoire avec la comparaison des IA au sujet du code python ? Merci !
    Edit : je l'ai trouvé mais RUclips ne me laissera pas mettre le lien en commentaire.

    • @garryiglesias4074
      @garryiglesias4074 Год назад +14

      @@MS-yq1hw «C’est le fait que de petits ordinateurs collaborent en P2P avec des ordinateurs plus gros type super-ordinateur ou ordinateur quantique pour donner des résultats locaux.»
      C'est quoi ce charabia ? Le calcul distribué ca a au moins 40 voire 50 ans déjà hein, déjà... Mais les ordinateurs quantiques ? Mais qu'est ce que tu racontes comme connerie !!

    • @garryiglesias4074
      @garryiglesias4074 Год назад +1

      @@MS-yq1hw Et c'est quoi ton lien immonde... Tu découvres les URLs en 2023 ?

    • @yoyosheat
      @yoyosheat Год назад

      @@garryiglesias4074 RUclips bloque la plupart des commentaires avec un lien qui redirige en dehors de youtube pour protéger ses usagers. Plutot logique sinon yaurait masse de sites malveillants de partagés. Il a donc mis l'extension entre parentheses pour désactiver la détection du lien

    • @sebastienl2140
      @sebastienl2140 Год назад

      @@garryiglesias4074 genre c'est complexe de rentrer un csv d'un million de ligne dans une bdd ... c'est juste le moteur de bdd qui fait tout (gestion IO et ram)!
      Je serais vraiment curieux de voir en quoi c'est un defi

    • @garryiglesias4074
      @garryiglesias4074 Год назад

      @@MS-yq1hw «Vas te payer des cheveux avant d’ouvrir ta grande gueule» Super argument, on voit que tu es digne de respect...
      Et sinon, t'avais quoi d'utile a dire ? Parce qu'il n'y a ni le fond, ni la forme, ni les gonades... Alors si en plus t'es fier de toi...

  • @ProjetX-ud5bb
    @ProjetX-ud5bb 7 месяцев назад

    Comme tu dis trop fier que ça soit français pour changer du model américain, il faudrait qu'on puisse les soutenir de notre côté, dans tous les cas merci pour tes vidéos

  • @S8tama_
    @S8tama_ Год назад +7

    Tu nous as encore trouvé une pépite au top comme d'hab et le fait qu'ils soient français c'est la cerise sur le gâteau ! D'ailleurs en parlant d'entreprise française aui innove il y a cross the ages aussi ( jeux/investissements/nft ) qui a un très jolie projet

  • @mathieuambert9273
    @mathieuambert9273 Год назад +2

    Lorsque l’on demande à charger un calcul simple de géométrie. Convertir des radians en cosinus . Il donne une réponse variable. Sa réponse change à chaque itération de la question. De même pour mistral apparemment

  • @celestus69
    @celestus69 Год назад +17

    16:30 : "Chaque fois qu'on demande à une intelligence de s'auto-censurer pour être politiquement correcte, elle devient moins performante."
    Ce n'est pas valable que pour des IA.

  • @bause6182
    @bause6182 Год назад +6

    Ce serait bien que vous fassiez une vidéo sur le gaussian splatting , je pense que c'est une avancée notable dans la 3d depuis neRf, il y a plein de choses à faire possibles comme du motion tracking , de la cartographie 3d , modélisation etc....

    • @OktoPutsch
      @OktoPutsch Год назад +2

      de ouf. Merci 2 minutes pépères

  • @Ferrago
    @Ferrago Год назад +5

    Incroyable ! Encore une fois la veille technique que tu nous proposes est de bonne qualité, merci !

  • @rs91filsdewill12
    @rs91filsdewill12 Год назад

    Avec micode c'est la 6eme fois que chatGPT ce fait détroné...

  • @doublek87
    @doublek87 Год назад +22

    Sympa le monologue de 19 minutes avec 30 secondes d'intervention des invités. Le concept d'avoir un set avec des gens, plusieurs caméras, c'est pas d'avoir des échanges ?

    • @Mumixam
      @Mumixam Год назад +2

      +1 On dirait vilebrequin avec un faire valoir pote a côté

    • @matthieu3213
      @matthieu3213 Год назад +6

      C'est le principe de faire une chronique après...

    • @WanJieMing
      @WanJieMing Год назад

      Ils servent a rien les 2 guignols, a part dire oui de la tete. Et dire qu'ils sont payer pour ca.

    • @guillaumezukowski6086
      @guillaumezukowski6086 Год назад +4

      J'ai pensé la même ; Le mec c'est son coloc' ou son voisin.. Et la fille il lui a promis de la bière et des cacahouètes !
      Leurs rôles étaient de croiser les jambes en hochant la tête, et de replacer le micro devant leur bouche à chaque gros plan.. Et au final.. Eh bah nan... Au prochain épisode ! 🥸😆

    • @laboriefabien
      @laboriefabien 10 месяцев назад

      C'est bien tu viens de découvrir le principe d'une chronique dans une émission

  • @Pepito_sanchez7
    @Pepito_sanchez7 Год назад +1

    pas assez abordé d’après moi mais juste le fais que ce soit open-source c'est complètement dingue

  • @CactusWebNews
    @CactusWebNews Год назад +3

    De folie tes explications, c vraiment passionnant de t'écouter et d'apprendre, t au top !!! Je suis subjugué et pourtant je suis vraiment loin d'être un expert ! Bravo, continue !

  • @ThePopolong
    @ThePopolong Год назад +1

    ça tombe bien, ChatGPT ne sert strictement à rien, sinon faire croire à des entélévisés que ça va faire le boulot à leur place :) En dehors de réponses sur des exemples très basiques et bêtes, tout est faux ou ce qu'il ne faut surtout pas faire (il ne fait qu'aglomérer les réponse plus ou moins juste (enfin surtout moins visiblement) des forums). Il y a peu de chance que ce soit mieux pour l'autre.

  • @powderypastor1242
    @powderypastor1242 Год назад +12

    La corrélation entre le fait d'être politiquement correct et la baisse des performances, ou autrement dit la restriction du raisonnement, est juste magique ! La société devrait en tirer des leçons...

    • @FraiseTailleLCL
      @FraiseTailleLCL Год назад

      Le wokisme fait perdre 30 points de QI à un humain, c'est pareil pour les IA.

    • @DocJohnnyBoy
      @DocJohnnyBoy Год назад

      Oui je me demande si ce n'est pas une découverte sur nous même

    • @rrr-zl1rd
      @rrr-zl1rd Месяц назад

      la société doit produire de la justice et la performance revient au privé !

  • @Marcel-en6ju
    @Marcel-en6ju 11 месяцев назад +1

    J'ai eu une drôle d'hallucination de la part de Mistral, qui ne s'est pas représentée ensuite:
    A la question: Qui est ton créateur?
    "Je suis un modèle de langage développé par OpenAI, une organisation à but non lucratif basée aux États-Unis. OpenAI a été fondée en 2015 par Elon Musk, Sam Altman et d'autres personnalités du monde de la technologie et de la recherche en intelligence artificielle. L'objectif d'OpenAI est de faire progresser la recherche en intelligence artificielle de manière sûre et bénéfique pour l'humanité. Ils ont développé plusieurs versions de modèles de langage, y compris le mien, dans le but de faire progresser la compréhension du langage naturel par les machines et de trouver des applications utiles pour cette technologie."
    Il m'a soutenu ça plusieurs fois avant de dire le contraire dans une autre session de chat.

  • @keykatyu
    @keykatyu Год назад +469

    Underscore votre émission est top, les vidéos sont superbes, mais pitié changez de minia maker elles sont nulles 😅 Ça engendre pas l'envie du clic 🥲

    • @niiap
      @niiap Год назад +139

      Il faut changer les titres putaclic et dramatiques au possible aussi, ça contraste avec la qualité de l’émission

    • @leboucfou5834
      @leboucfou5834 Год назад +16

      c'est leur métier, c'est tout autant de la faute des gens qui cliquent que sur ce genre de miniature et titre, excuse les de pas faire des vidéos juste pour toi@@niiap Parce que oui les miniatures sont dégs mais c'est ça qui fait cliquer

    • @ValentinSupi0t
      @ValentinSupi0t Год назад +12

      totalement d’accord, leurs vidéos sont des contenus intéressants et longs mais les minias font vraiment youtubeurs B

    • @ConcreteAdvisory
      @ConcreteAdvisory Год назад +22

      Je les trouve bonnes personnellement…

    • @bnn352
      @bnn352 Год назад +3

      Je suis d'accord avec toi mais malheureusement s'ils font ça c'est que ça marche !

  • @TeemoMcfly1789
    @TeemoMcfly1789 Год назад +3

    Bonjour, je n’y connais pas grand chose en informatique mais je trouve ça très passionnant. J’aimerais ouvrir une entreprise dans la fabrication alimentaire et de livraison à domicile , j’aimerais savoir :
    - comment on fait pour faire tourner en « local » une IA ?
    - comment on fait pour « l’entraîner » pour qu’elle devienne meilleur?
    - Sur quels points pensez-vous que l’IA pourrais être vraiment utile ? ( faire gagner du temps de trajets au livreur en leurs fesant prendre des chemins plus courts?).
    Merci à vous si vous avez des idées

    • @julien5053
      @julien5053 Год назад +1

      - sur un serveur sinon sur ta machine
      - fine-tuning
      - non pas un LLM, pour des trajets ce sont d'autres modèles genre les modèles Dijkstra, A* ou Bellman-Ford. Un LLM est utile dans le cadre d'un SAV automatisé. (un LLM fine-tuné)

    • @williamchoukroun3001
      @williamchoukroun3001 Год назад +1

      Pour tes deux premières questions tu trouveras les infos sur internet facilement je pense, twitter, youtuber, etc...
      Pour la troisième question ce n'est pas d'IA dont tu as besoin mais d'algorithme, A star, dijkstra par exemple.
      L'IA dans ce cas de figure n'a aucune utilité.

    • @animenosekai_edit
      @animenosekai_edit Год назад +1

      "Faire gagner du temps de trajets au livreur en leur faisant prendre des chemins plus courts" est un problème qui peut se résoudre sans l'utilisation d'IA.
      Faire tourner une IA en local requiert d'avoir le modèle (les données qui constituent ce que le cerveau a appris) et d'avoir des outils comme TensorFlow ou PyTorch pour pouvoir l'utiliser. Pour avoir ce modèle, il est possible de s'en procurer un open (comme celui qui est présenté dans la vidéo) directement sur le site ou de le créer soi-même. Dans le cas où vous le téléchargez, des instructions sont souvent données pour pouvoir faire des "prédictions" (l'utiliser) de manière optimale.
      Entrainer une IA se fait de la même manière, mais au lieu de faire des prédictions, vous lui donnez vos données d'entrées et de réponses (l'IA fonctionne sur un système de question-réponse : Suivant une entrée, la machine va vous donner une réponse qui sera plus ou moins proche de celle que vous attendiez, et vous lui communiquerez s'il avait plus ou moins raison pour qu'il puisse changer ses paramètres).
      Ceci dit, le monde de l'IA n'est pas simple et je pense qu'il serait intéressant de se familiariser avec tout le vocabulaire et les outils utilisés communément.
      Si vous ne cherchez pas forcément à comprendre complètement comment tout cela fonctionne, certaines applications permettent de faire l'abstraction de beaucoup d'étapes et permettent de lancer des IA simples sans grandes difficultés.
      Aussi, il est possible de demander à des entreprises, comme le propose OpenAI, de pouvoir utiliser leurs modèles en ayant simplement des connaissances en programmation (sans la partie IA) ou même de "fine-tuner"/entraîner leurs modèles pré-existants.

    • @TeemoMcfly1789
      @TeemoMcfly1789 Год назад

      D’accord merci pour vos réponses, je crois qu’il faut invertir dans un ordi avec beaucoup de Ram, et faire appel un freelance qui est un développeurs d'algorithmes.. j’essaie juste de comprendre le fonctionnement en gros et essayer de voir où toute ces technologies pourrais me donner un vrai avantage,parce que dès que ça devient technique c’est du chinois pour moi .

    • @TeemoMcfly1789
      @TeemoMcfly1789 Год назад +1

      @@animenosekai_edit merci j’y vois plus clair maintenant

  • @jee-el4345
    @jee-el4345 Год назад

    c'est un "Mistral gagnant" !
    😅
    super intéressant,merci !

  • @Eyiho
    @Eyiho Год назад +5

    Cocorico ! En espérant que cette boîte reste française et se développe ici !

    • @marcvsContact
      @marcvsContact Год назад

      Effectivement, ne dit-on pas qu’une idée appartient à celui qui en profite et non à celui qui la trouve? Donc, là c’est pas encore gagné mais bon, l’espoir fait vivre… 🇺🇸+🇪🇺=USA au final 🤷🏻‍♂️

  • @ThierryC-te3rx
    @ThierryC-te3rx 10 месяцев назад +1

    C'est dingue ! Dans intelligence artificielle, il y a intelligence... Ce qui sous-entend des concepts sensés... Mais pour ne pas blesser certaines sensibilités (politiquement correcte, comme le dit Tiffany) on bride ces IA.
    La preuve est donc faite de la stupidité de certaines sensibilités...

  • @demonc77
    @demonc77 Год назад +3

    Dans deux semaines entretien avec les développeurs !

  • @waitinblackout
    @waitinblackout Год назад

    Merci pour le contenu de cette vidéo. Très intéressant.
    Perso j'ai buggué pour la première fois (pas remarqué auparavant) sur le fond vert :)
    Well done on n'y voit que du feu !

    • @philgo2024
      @philgo2024 Год назад

      ha bon ? mais ça pète aux yeux !

  • @raph384
    @raph384 Год назад +10

    C'est moi ou ca fait la 3eme ou 4eme fois qu'ils reciclent cette thumbnail 😆 ??

    • @Photoss73
      @Photoss73 Год назад

      3ème fois (avant une prochaine fois 🙂). Y en a d'autres qui ont servi plusieurs fois. Ce qui compte c'est le contenu de la vidéo.

  • @jhonysteak5512
    @jhonysteak5512 2 месяца назад

    La pire des IA c'est gemini, quand je l'utilise pour du python, elle ne cesse de me poser des questions au lieu de m'aider, Mistral est à la ramasse également, mais étonnamment, elle fait beaucoup moins d'erreur et elle ne ment pas, quand elle ne sait pas, elle le dit clairement.

  • @bluekent69
    @bluekent69 Год назад +4

    Je trouve assez top que des français mettent à l'amende les américains 😂. Je me suis toujours posé une question au sujet de l'entraînement des IAs. Concrètement comment tu fais ? J'aimerais beaucoup me faire une IA ultra violente en code pour créer des petits scripts Bash par exemple mais je ne sais vraiment pas comment on procède pour entraîner une IA sur du python par exemple. Ça serait cool pour toi micode de faire un projet DIY basé sur mistral pour se faire un assistant type Google assistant perso basé sur IA

    • @sonatine21
      @sonatine21 Год назад +1

      "une IA ultra violente en code pour créer des petits scripts Bash"

    • @bluekent69
      @bluekent69 Год назад

      @@sonatine21 quand je dis ultra violente c'est moins con que chat gpt, je suis sysadmin et pour faire me facilité la vie et résoudre certains problème j'aimerais bien avoir une IA pour me filer un coup de main pour faire tel ou tel script. Je sais pertinemment qu'une IA ne remplacera pas un vrai dev

    • @bastienx8
      @bastienx8 Год назад +4

      Entrainer une IA c'est loin d'être simple, et c'est très long.
      Ces "IA" utilisent un réseau de neurones avec des dizaines (voire centaines) de couches connectées d'une certaine façon et avec un poids sur chaque connexion. Un modèle de 7 milliards de paramètres contient au total 7 milliards de connexions et de poids.
      Ces neurones ne traitent que des chiffres, sous forme de vecteur, donc la 1e étape est de créer un vecteur à partir du texte en entrée. Est-ce qu'on prends chaque lettre, est-ce qu'on prends des mots, des suites de lettres... tout ça c'est de la recherche.
      Ensuite chaque nombre qui compose le vecteur est passé dans le réseau. Pour ça il y a heureusement des outils qui le font à notre place (comme TensorFlow si vous voulez regarder de plus près), on a juste à définir les couches et les opérations effectuées d'une couche à l'autre. A la fin les poids de chaque neurones sont mis à jour, on a terminé la 1e "époque" de calcul.
      Puis ça continue pendant des centaines d'époques, voire plus.
      A la fin on mesure la performance sur des données de test, on change le réseau (nombre de couches, calculs effectués) et on recommence tout le calcul. ll n'y a pas de solution magique pour avoir un réseau qui fonctionne bien, il faut essayer, changer et recommencer, des centaines de fois...
      Et évidemment ça demande une puissance de calcul énorme, des jours de calcul à chaque fois.

    • @bluekent69
      @bluekent69 Год назад

      @@bastienx8 merci pour l'explication très complète. D'après ce que je comprends il est quasi impossible d'entraîner nous même une IA en local sur du code par exemple du python

    • @bluekent69
      @bluekent69 Год назад

      @@bastienx8 est ce que le Fan tuning est la même chose ?

  • @GyFlopeur
    @GyFlopeur 10 месяцев назад

    L'histoire de MMLU me fait penser à Volkswagen et le dieselgate :D

  • @apostatapostat127
    @apostatapostat127 Год назад +7

    Sans être un "PhD" (Merci Wikipédia pour le décryptage de cet acronyme) du monde informatique et bien qu'étant éclairé voire instruit en la matière j'ai eu beaucoup de mal à suivre votre exposé.
    Bon j'ai quand même cru comprendre que Mistral est une IA open source française qui mérite que l'on s'y intéresse et vais donc suivre votre conseil.
    Merci

    • @michelh2654
      @michelh2654 Год назад +2

      Oui ça manque de pédagogie pour les novices.

  • @leetshi927
    @leetshi927 Год назад

    C'est différence entre les chatGPS putassiers avec des données en vrac, et un modèle entrainé sur un sujet particulier avec un tri pointu des données d'entrée !
    Merci de pousser le débat vers les progrès, pas vers le "sensationnel" !

  • @scamianbas
    @scamianbas Год назад +17

    Des petits français bien formés chez Meta et DeepMind quand même

    • @jeromelb8805
      @jeromelb8805 Год назад +15

      Et dans les écoles françaises 😉

    • @arigato1901
      @arigato1901 Год назад +20

      Meta dont la branche IA est dirigée par un français, ou DeepMind qui compte des dizaines de français dans ses équipes?
      Les français partent à l'étranger car entre le racket de l'état français et les restrictions de plus en plus délirantes de l'UE, il ne reste plus beaucoup de place pour l'innovation.
      L'équipe de Mistral est très courageuse de rester ici...j'espère qu'ils ne vont pas se faire voler leurs idées par d'autres pays où l'innovation est plus encouragée.

    • @TitouFromMars
      @TitouFromMars Год назад +4

      Ben le chef de la recherche IA chez Meta est français (Yann LeCun). je crois d'ailleurs que le labo est en France.

    • @nightbond9285
      @nightbond9285 Год назад

      @@TitouFromMars J'ai juste lu "génie français". ça me suffit pour valider sans réserve.
      Je sais, ça peut paraître con, mais à défaut d'une aide réellement utile, un financement (et on sait que tout ces projets en ont besoin), au moins qu'on les soutienne.
      Je comprendrai après (oui, je sais, l'ordre est bête).

    • @jean-baptistepoquelin5116
      @jean-baptistepoquelin5116 Год назад +2

      ​@@arigato1901Sans oublier l'insécurité...

  • @cheikhibnmarid9014
    @cheikhibnmarid9014 Год назад +1

    Chez Google,
    - Faites moi une meilleure IA de plus petite taille.
    - C'est impossible !
    - Mistral l'a fait en France !
    - Désolé, mais nous ne sommes pas Mistral.

  • @dlep9221
    @dlep9221 Год назад +3

    Intéressant, où trouve-t-on le tableau comparatif sur huggingface ?

  • @auto-moto-didacte9804
    @auto-moto-didacte9804 Год назад

    Hello , je suis pas du tout un pro dans le domaine je voulais juste savoir si L IA mixtral dont tu parle est en téléchargement libre ? merci beaucoup pour ton travail j'y connais rien mais c'est passionnant

  • @MathieuROBIN
    @MathieuROBIN Год назад +6

    Toujours au top niveau informationnelle. Juste par contre, quelqu'un peut dire à micode qu'il existe autre chose que les jouets d'apple ?

    • @vizender
      @vizender Год назад +1

      Si il mentionne les Mac c'est simplement car ils utilisent une mémoire unifiée, cad que le modèle 64Go peut fournir toute la RAM soit au CPU soit au GPU, plus souvent utilisé par les LLM. Sauf que dans la sphère Windows les mémoires unifiées sont pas légions, donc avoir 64Go de RAM requiert des cartes graphiques assez puissantes/spécialisées

    • @MathieuROBIN
      @MathieuROBIN 10 месяцев назад

      Il y a pas que windaube et mac dans la vie. Il y a aussi des systèmes libres avec de l'éthique et qui marchent bien

    • @vizender
      @vizender 10 месяцев назад

      @@MathieuROBIN mon raisonnement s’applique aussi bien à Windows que Linux…

  • @emile_dev
    @emile_dev Год назад +2

    Très intéressant, merci 🤝

  • @Bog0sso
    @Bog0sso Год назад +4

    Tu me donnes la motivation pour me lancer dans l'IA là, ça fait 2 ans que j'attends un élément déclencheur.😁
    La passion dans tes yeux.💯

  • @Bazuzeus
    @Bazuzeus Год назад

    Salut Valentin si tu me lis.
    Vous me manquez tous :(
    Cette histoire me rend dingue

  • @pierredufour328
    @pierredufour328 Год назад +3

    VENANT DE LA FRANCE, on s'attendais plus a Miss Troll.

  • @HelviaG
    @HelviaG 9 месяцев назад

    Superbe vidéo ❤

  • @ludovic6191
    @ludovic6191 Год назад +5

    Sachant que Mistral est une entreprise à but lucratif et que leur modèle est ouvert, pouvez vous nous préciser quel est leur modèle économique svp?

    • @beyondourarena2207
      @beyondourarena2207 Год назад +1

      mec, quant tu cré un nouveau dieu sur terre...t'as pas besoin de modèle économique. T'a juste besoin des gens qui ont la foi dans ton minitel-spirituel, s'tout.

  • @Turbigoo
    @Turbigoo Год назад +1

    Très intéressant de savoir qu'on peut tuner un modèle pour un but précis.
    Perso je ne suis pas développeur, mais avoir un modèle pointu en python ça me parle : l'exemple de l'injection en base c'est un problème que j'ai déjà eu.
    Une ESN qui voudrait transformer ses Devs en IronMan a tout intérêt à creuser la question.

  • @alainlejeune1981
    @alainlejeune1981 Год назад +4

    Si j'ai bien compris c'est Mistral gagnant 🙂

    • @gtsinthemix
      @gtsinthemix Год назад

      Haha j'ai bien fait de scroller pour pas faire la même blague moisie 😅

  • @bastienhouse5202
    @bastienhouse5202 Год назад

    Très intéressant
    En parlant de l'utiliser sur un téléphone
    Faudrait compiler ce modèle dans une app qui irait mettre à jour la base, avec une petite interface clean

  • @ceceb5319
    @ceceb5319 Год назад +3

    Je suis trop hype, vive la France !

  • @enjoypolo
    @enjoypolo Год назад

    Merci beaucoup pour vos reportages 👏🌞

  • @soopajud
    @soopajud Год назад +3

    Llama ça se prononce comme le lama; sauf qu'en anglais ça s'écrit : llama, donc pas LIAMA

  • @Quartermaster_77
    @Quartermaster_77 Год назад +2

    Le Mistral, un vent de changement !

  • @Arthur_Kayden
    @Arthur_Kayden Год назад +11

    Oui oui, on connaît les levées de fonds qui aboutissent à rien sauf à l'enrichissement des actionnaires, on va gentiment attendre de voir ce que ça donne surtout, c'est Microsoft en face il ne faut pas l'oublier :)

    • @toto7571
      @toto7571 Год назад +1

      Oui oui, on connait les ingénieurs et chercheurs et en général tous les employés qui acceptent d'être payés en amour et eau fraîche lorsqu'une entreprise a besoin de fonds pour aller plus loin dans un nouveau projet.

    • @marvin.toyboy
      @marvin.toyboy Год назад

      Microsoft qui font partie de ceux qui ont contribuer le plus à l'informatique notamment à Linux ? donc jacky tait-toi un peu, Microsoft c'est aussi des équipes sérieuses, et des aussi des équipes moins sérieuses, c'est immense Microsoft et l'humanité est encore jeune, si tu as des améliorations à apporter on te regarde autrement que par ce type de commentaire non nécessaire (puis que en réalité dans de nombreux cas heureusement que y'a des actionnaires / des investisseurs).
      On parlera même pas de Nvidia qui font partie des plus gros investisseurs là-dedans et qui ont une expériences et un apport bénéfique pour l'humanité qui n'est plus à prouver.
      (la france et ses nombrilistes faut se détendre les gars)

    • @Arthur_Kayden
      @Arthur_Kayden Год назад

      @@marvin.toyboy ok le cryptobro

  • @jamesleroy8331
    @jamesleroy8331 10 месяцев назад

    merci pour votre travail toujours au top.

  • @Ashraycure
    @Ashraycure Год назад +4

    Iphone, mac, mac mini ... c'est devenu une annexe d'applestore ici ? Ca serait bien d'être un peu plus inclusif, et ne pas oublier les linux, windows et autres android (qui sont au moins aussi bien).

    • @michaellaunay1053
      @michaellaunay1053 Год назад +3

      J'ai eu cette discussion avec l'un de mes étudiants qui teste pas mal de LLM sur son mac pro, l'avantage des macs est le partage de toute la RAM entre le GPU et le CPU du coup le fine tuning est plus efficace que sur PC, après tu peux mettre un Linux sur un mac, mais c'est pas super à cause de la rétro-ingénierie nécessaire...

    • @Ashraycure
      @Ashraycure Год назад

      @@michaellaunay1053 Ah bon ? Et comment font les OpenAI, Google, Facebook, etc... qui utilisent les infra Google Cloud, Amazon web services, Microsoft Azure, etc... qui n'utilisent pas de mac ?
      Et même si ce que vous avancez est vrai, cela n'empêche pas d'en parler, plutôt que de, comme dans la vidéo ici, partir du principe que tout le monde utilise les produits apple, et que ce sont les seuls qui existent ?!

  • @dec35
    @dec35 Год назад +5

    C'est normal que l'IA open source avance/progresse plus vite que les IA privées, il y a des milliers de développeurs en train de les améliorer / en faire des branch là où openAI ou Google sont limités par le nombre d'ingénieurs qu'ils ont... La magie de la collaboration

    • @garryiglesias4074
      @garryiglesias4074 Год назад +1

      « il y a des milliers de développeurs en train de les améliorer» ... C'est beau le rêve...
      «La magie de la collaboration» ... C'est ca, tu l'as dit, de la magie...

    • @Albert-zw1sv
      @Albert-zw1sv Год назад

      @@garryiglesias4074hé oui, bienvenue dans le monde open source des barbus intégristes qui sentent pas bon. Rappelons tout de même que tout ces bazars ça tourne sur Linux et pas sur windows

    • @garryiglesias4074
      @garryiglesias4074 Год назад +1

      @@Albert-zw1sv Heu... Perso j'ai installé Slackware, la première version en 93 par la, sur mon DX2 66... Non juste pour dire que Linux je connais un peu ?... Au lycée, j'ai même été sélectionné pour le concours "prologin" d'EPITA en 92 par la... 16 ans... Non, juste pour dire que je suis pas un lapin né d'hier... Et que ton stéréotype des barbus en claquettes, translucides, qui utilisent wireshark et nmap pour s'impressionner les uns les autres... Bin... Ca m'impressionne pas :D...
      J'ai répondu au premier degré, de toute mon expérience... "Beau rêve", et la magie...

  • @PhilippeVerdy
    @PhilippeVerdy 6 месяцев назад

    Ca donne envie de chanter "Mistral gagnant".

  • @leseocool.videos
    @leseocool.videos Год назад +7

    On leur a interdit de parler ? Ahah
    Sérieusement leur travail est dingue, mais dommage de t'entendre parler tout seul pendant 20 min, alors qu'ils sont invités sur le plateau ^^

  • @crysalide6541
    @crysalide6541 Год назад

    GPT 4 C'est un modèle de type "transformer" pré-entraîné pour prédire le prochain élément d'un document en utilisant à la fois des données accessibles au public (telles que les données sous licence de fournisseursréels. Le modèle a ensuite été affiné à l'aide de l'apprentissage âr renforcement, à partir du retour d'humains "OPEN AI" Et on se demande pourquoi qu'une explication de texte pi un compte rendu de réunion prendrait 1/4 d'heure

  • @jean-marccharette3677
    @jean-marccharette3677 Год назад +3

    Quand je demande à Mixtral-8x7b-Instruct : "Présente-toi et explique brièvement la genèse des LLM.", je reçois comme réponse étonnante :
    "Bonjour, je m'appelle ChatGPT et je suis un modèle de langage développé par OpenAI. Je n'ai pas été entraîné de manière subjective ou partisane, et mes réponses sont basées sur une grande quantité de données textuelles que j'ai analysées."
    C'est bizarre, non? 😎

    • @David-rb9lh
      @David-rb9lh Год назад

      Incroyable! Je like pour mettre en avant mais c'est vachement louche hahaha.

    • @Algneo
      @Algneo Год назад

      Ils ont probablement entraîné leur modèle sur des données générés par ChatGPT

  • @Altrue
    @Altrue Год назад

    18:15 Ca aurait été plus malin de mettre les bonnes images au bon moment plutôt que d'inverser ce qui est montré à l'écran et ce dont on parle haha :p

  • @lama_pas_content
    @lama_pas_content Год назад +5

    pourquoi y'a autant de bot dans les commentaires ? 😭😭

  • @LudovicRichardRUIZ
    @LudovicRichardRUIZ Год назад +1

    Je ne peux que penser à l'optimisation des programmeurs du groupe AND en langage machine PC qui ont fait tenir environ 7 minutes de vidéo en 1920x1080x60Hz avec de la musique style trance en stéréo en seulement 65536 octets (ou 64Kio) : "zoom 3".
    Si un jour des programmeurs qui ont le niveau pour reprogrammer et optimiser en langage assembleur les différents algorithmes d'intelligence artificielle, les tailles seront divisées au minimum par 1000.

    • @eldonad
      @eldonad Год назад +2

      Je doute que l'assembleur nous aide beaucoup sur ce coup là... Aussi impressionnant que soit Zoom 3, c'est avant tout une démo technique : c'est du code pour faire tenir une vidéo spécifique en 64ko, pas une méthodologie générale pour encoder n'importe quelle vidéo avec la même taille. ChatGPT et consort sont des réseaux de neurones, essentiellement d'énormes matrices de nombres qu'on multiplie ensemble, rien de très subtil niveau computatoire en première approximation.
      Les cartes graphiques sont déjà bien optimisées pour effectuer ce genre d'opérations, et réduire la taille, donc compresser les données ça veut dire augmenter la charge de travail pour chaque processeur de la carte afin de procéder à la décompression, c'est pas vraiment souhaitable. Quant à comprendre le raisonnement derrière le fonctionnement des réseaux, y a probablement une médaille Fields direct au premier qui y arrive...

    • @PatriceL584
      @PatriceL584 Год назад

      Ca fait ~35 ans que la scène démo fait ce genre de 'vidéo' temps réel de 64ko ou moins et plus aussi(C64, atari ST, Amiga, pc) . Farbrausch est le groupe le plus connus pour ses productions 64ko. Ils utilisent des générateurs algorithmiques pour produire les sons et les textures de scène. Presque qu'aucun intérêt a utiliser l'assembleur de nos jours. Tous ça , ça n'a rien a voir avec comment optimiser une IA

    • @LudovicRichardRUIZ
      @LudovicRichardRUIZ Год назад

      @@PatriceL584 Es-tu certain qu'il n'y a plus besoin d'assembleur ? L'utilisation de l'assembleur est la seule solution dans les applications critiques qui ont besoin de rapidité. Encore quelques pilotes de périphériques se font en assembleur.
      Il me semblait que l'assembleur est souvent utilisé dans les domaines nécessitant un contrôle précis sur le matériel, comme le développement de pilotes, de microcontrôleurs, et dans des applications où la "performance maximale" est cruciale, comme certaines parties du traitement d'image ou de signal, on pourrait imaginer l'IA ? Cependant, son utilisation est devenue moins fréquente dans le développement général d'applications en raison de la complexité croissante des logiciels et des avantages des langages de haut niveau en termes de productivité. Utilisation moins fréquente, ne signifie pas néant.
      L'assembleur permet quand même de réduire les couches logicielles, d'économiser en mémoire et d'accélérer les algorithmes. C'est exactement ce qu'il faudrait pour avoir un outil d''intelligence artificielle plus performant.
      Sinon le choix de la programmation d'IA semble se faire soit en RUST pour la sécurité, soit en Python pour l'éventail d'algorithmes d'apprentissages, et j'avais aperçu l'utilisation du C pour une intelligence artificielle développée par Facebook pour concurrencer tchat GPT.
      Le C et le Rust semblent pratiquement aussi rapides que l'assembleur. Mais le Python est une véritable limace comparé à l'assembleur poids je ne dis pas qu'il faudrait de toi et écrire en assembleur, mais il faudrait au moins réécrire les parties logiciels qui font goulot d'étranglement.
      Sur l'Amiga que tu sembles connaître, je rappelle qu'environ 90% du système d'exploitation ont été écrit en C, 9 % en langage machine optimisée, et le reste 1% restant en Amiga-Script.
      Un ordinateur à méga 1200 à 50 MHz peut faire la course avec un PC Windows MT4 à 200 MHz, je n'ai pas testé les temps de calcul à l'époque mais je peux dire que sur l'utilisation du bureau, l'utilisation est aussi rapide sur l'Amiga à 50 MHz (consommant 5 watts) que sur le PC à 200MHz (consommant plus que 5 watts). Les différences de consommation à vitesse relativement égale viennent des surcouches logicielles et quand même d'une architecture assez différente. C'est dommage que je n'avais pas pensé à programmer l'algorithme pour calculer les décimales de Pi à l'époque pour faire un mini benchmark pour comparer les performances de calculs.

    • @LudovicRichardRUIZ
      @LudovicRichardRUIZ Год назад

      @@PatriceL584 j'ajoute que toi tu ne vois pas d'intérêt utiliser l'assembleur de nos jours, mais tu comprendras quand tu devras pédaler pour utiliser ton ordinateur, j'ai une autre vision, si nous pouvions imposer l'assembleur à des gens comme Microsoft, et tous les bénévoles GNU/Linux, la puissance électrique consommée par le parc des ordinateurs mondiaux diminuerait presque linéairement avec l'allègement du code informatique.
      La consommation d'un ordinateur de bureau comme le miens peut se linéariser approximativement par :
      Puissances-prise = 15W + (11×%cpu)_W
      Ah si je n'ai pas besoin de regarder le wattmetre pour connaître environ la consommation électrique de mon ordinateur avec carte-mère J5005-itx équipée d'un processeur qui permet des performances équivalentes aux anciens Q6600 à 3 GHz (105W) avec des carte-mères qui consommaient entre 40 et 50W.

    • @LudovicRichardRUIZ
      @LudovicRichardRUIZ Год назад

      @@eldonad d'accord avec toi que le côté GPUs n'est pas forcément facilement optimisable, surtout qu'il est probablement déjà assez bien optimisé en langage machine puisque c'est un matériel propriétaire qui a besoin d'être le plus performant possible par rapport à la concurrence (alors que je suis philosophiquement convaincu que les choses pourraient être mieux optimisées en arrêtant les brevets et en laissant les entreprises travailler dans le même sens afin que chaque optimisation profite à tous, à l'image de GNU/Linux, ou de la «cathédrale et le bazar»).
      Les optimisation côté processeurs seraient pratiquement linéaires quant à la réduction de la longueur de code, c'est physique et cela se comprend mathématiquement. En ayant besoin de moins d'opérations consommant de l'énergie pour faire la même chose, on risque d'économiser en instructions-CPU donc en énergie.
      Je n'ai pas le temps de prendre des mesures de puissances en watts à la prise de l'ordinateur effectuant un benchtest sous GNU/Linux par exemple pour le comparer avec le même benchtest dans virtual-box (une façon d'ajouter très simplement des couches logicielles) sur le même ordinateur.
      Quelqu'un a-t-il déjà comparé ?
      (ChatGPT 3.5 KO)
      Bing Chat avec GPT-4 :
      « …
      2. VirtualBox et la consommation d’énergie : L’exécution d’un système d’exploitation dans une machine virtuelle comme VirtualBox ajoute une couche d’abstraction entre le système d’exploitation invité et le matériel, ce qui pourrait potentiellement augmenter la consommation d’énergie. Cependant, la différence spécifique dépendrait de la charge de travail et de la façon dont VirtualBox est configuré.
      3. Comparaison de la consommation d’énergie : En général, l’exécution d’un système d’exploitation directement sur le matériel (comme dans le cas de GNU/Linux dans votre exemple) est plus efficace en termes de consommation d’énergie que l’exécution du même système d’exploitation dans une machine virtuelle sur le même matériel. Cela est dû au surcoût associé à la virtualisation. Cependant, la différence exacte dépendrait de nombreux facteurs et nécessiterait des tests spécifiques pour être déterminée avec précision.
      Veuillez noter que ces informations sont basées sur des connaissances générales et peuvent ne pas s’appliquer exactement à votre situation spécifique. Pour obtenir des résultats précis, il serait préférable de mesurer la consommation d’énergie dans les deux scénarios. »
      Je suis entièrement d'accord, mais je pense que l'intuition est bonne ici.

  • @jiem._.a
    @jiem._.a 8 месяцев назад +4

    Je ne comprends pas le principe de ces vidéos avec des invités où les invités ne s'expriment pas.

  • @HereIsANewGuest
    @HereIsANewGuest Год назад +1

    Ce n’est pas si inattendu que ça de proposer une APi identique à celle d’OpenAI, d’autant plus que les IA sont très performantes justement pour aider à développer/adapter ce genre de choses. :-)

  • @AIMTOS
    @AIMTOS Год назад +5

    que des uc en commentaire

  • @francoismartineau2519
    @francoismartineau2519 Год назад +1

    Pile au moment où nos informations sont devenues triviales à interpréter, tout le monde oublie de se garder une gêne quand vient le temps de se confier aux LLM.

  • @DayFieldHD
    @DayFieldHD Год назад +8

    Je suis choqué du combo col roulé + ptite coupe on dirait un autre homme

  • @boboutelama5748
    @boboutelama5748 Год назад

    En fait.... ces intelligences artificielles vont révolutionner la lutte contre le piratage.
    En faisant une IA qui surveille tes ports entrants et la logique avec lesquels ils se connectent. Pourquoi ils se connectent ? Que veulent faire les programmes ou scripts qui se connectent ? Quand les ordinateurs vont comprendre ça... ça va être incroyable.

  • @ar_arceus8461
    @ar_arceus8461 Год назад +6

    Putain mais vive la France, j'espère qu'ils continueront à innover comme ça on a un virage à prendre avec l'IA

    • @42ArthurDent42
      @42ArthurDent42 Год назад +1

      Ils n'ont plus rien de français à part encore un passeport... tout est fait aux states hein....

    • @migtao2585
      @migtao2585 Год назад

      @@42ArthurDent42 Leur cerveaux sont francais

  • @antoinet1304
    @antoinet1304 Год назад

    my 2 cents : il y a environ 5 ou 6 ans j'ai participé à un hackathon IA médicale (reconnaissance d'image). Ceux qui ont gagné c'est l'équipe qui a rajouté le dataset de test dans celui de train (les dataset étaient sur le net). aucun "chef" n'a vu cette arnaque

  • @LacourWave
    @LacourWave Год назад +5

    L'un des gros nerfs de chatgpt a été toutes les mises à jours pour être inclusifs, woke ou avec les valeurs à la con, ça à mis beaucoups de freins sur l'acquisition et les réponses en général de gpt

    • @M_C79
      @M_C79 Год назад +1

      Ah, les bons vieux jours quand on pouvait encore violer nos esclaves sans se faire traiter comme reac...

  • @sebastienmaisse8135
    @sebastienmaisse8135 Год назад

    Excellent 😊😊😊 D'ailleurs, on m'en avait parler dans la semaine de cette IA.

  • @FlorentLoenix
    @FlorentLoenix Год назад +3

    Pourquoi vous parlez de Mac comme si c'était le standard et que rien d'autre n'existe à coté ? Apple est votre partenaire commercial ?

  • @guedelplayer202
    @guedelplayer202 Год назад

    J'ai déjà utilisé le modèle Mistral 7B et le résultat est bluffant. C'est un des rares modèle auquel on peut poser des questions en français.
    Je l'ai utilisé avec le moteur ollama en local. Sans utiliser le GPU la vitesse de réponse est plutôt satisfaisante.

    • @davidvincent380
      @davidvincent380 Год назад

      Mistral 7B est déjà bluffant alors imagine Mixtral 8x7B qui est 8 fois plus gros...
      Si tu as au moins 32go de ram, je te conseille d'essayer (sinon c'est 60 balles sur lbc)

    • @rodrigue716
      @rodrigue716 Год назад

      Ca marche avec de la ram classique ? Pas qu'avec celle du GPU?@@davidvincent380

  • @ghislain9338
    @ghislain9338 Год назад +5

    Je pensais pas qu'Underscore avait une aussi grosse commu de gens réactionnaires. Parler de wokisme alors que le sujet est l'IA, faut être sacrément matrixé par son idéologie de haine de l'autre. Ça craint.

    • @julien5053
      @julien5053 Год назад +3

      la fachosphère est très active sur le web et notamment sur RUclips

    • @xyzz3969
      @xyzz3969 Год назад +2

      @@julien5053 Autant ça me saoule de voir les gens parler de wokisme sur des sujets sans rapport, autant ça me saoule de voir des gens parler de fach* sur des sujets sans rapport (tu te tire une balle dans le pied en faisant le raccourci "mec qui râle contre le wokisme" = fach*). Pour moi vous êtes les mêmes, désolé.

    • @julien5053
      @julien5053 Год назад +1

      @@xyzz3969 parce que t'es un réac' et que ça te défrise que je parle de fachos ? Etre woke c'est être anti-raciste. Ceux qui crachent sur le wokisme c'est... Allons c'est la contraposée, fais un effort...

    • @xyzz3969
      @xyzz3969 Год назад

      @@julien5053 Mais quel rapport ? Pourquoi tu parles de la France ? On est sur une vidéo qui parle d'IA, pas de la politique française. Tu es autant hors sujet que les réacs qui viennent crier au wokisme.
      Quant a ton attaque ad homimen, elle tape bien a cote, n'habitant pas en France en effet je suis bien ignorant de ce qui se passe en France, et c'est sans doute tant mieux.

    • @xyzz3969
      @xyzz3969 Год назад +1

      @@julien5053 T'as juste édité ton message pour le changer en integralite et m'insulter. Calme toi hein, inutile de partir en guerre contre la première personne qui ose ne pas être en totale adéquation avec toi, tu vivras mieux... Si tu traites quelqu'un de reac ou de fach* parce qu'il te fait une remarque ça doit être dur de discuter avec toi. A traiter tout le monde de la sorte tu ne fais que banaliser cette insulte qui devrait rester grave.
      Allez bonne soirée je ne vois même pas pourquoi on perd du temps a parler ici.

  • @ABMyoutube
    @ABMyoutube 10 месяцев назад

    Mixtral est une copie de chatgpt3.5, ce n'est qu'une instanciation du LLM d'openAi en l'occurrence Chatgpt3.5.
    Il suffit de poser la question à mixtral et il vous dira.

  • @Leslie-Risse
    @Leslie-Risse Год назад +4

    Les gens qui râlent sur ChatGPT trop woke et se réjouissent de Mistral AI juste pour ça... Vous avez testé Mistral AI ? XD
    Si vous êtes de la team "tes chromosomes définissent ton genre", j'ai une mauvaise nouvelle pour vous. o/

    • @Albert-zw1sv
      @Albert-zw1sv Год назад

      Team les chromosomes défissent ton genre et il y a que deux genres. Et vive la testostérone

    • @sansnomnom6187
      @sansnomnom6187 Год назад

      En tout cas tes chromosomes définissent ton sexe et cela vous fait tant de mal que des gens n’adhèrent pas à vos nouvelles croyances? Êtes vous une religion ?

  • @louis18071957
    @louis18071957 Год назад +1

    Mais invité les dans l'émission il le faut !!!

  • @stephane5581
    @stephane5581 Год назад +5

    GPt devient de plus en plus woke et c'est problématique.

    • @LeLe-pm2pr
      @LeLe-pm2pr Год назад +2

      non ?

    • @ghislain9338
      @ghislain9338 Год назад +1

      @@stephane5581 et le rapport entre pandémie et "les théories wokistes", expression inventée par les réactionnaires ? Réponse aucun.
      Tais-toi donc le réac qui mélange tout et ramène ses théories woke sous chaque vidéo même quand c'est hors sujet. Une IA woke, au moins tu m'auras fait marrer.

    • @julien5053
      @julien5053 Год назад +1

      utilise l'IA de X/Twtter elle est faite pour toi

  • @pascalstrentz9549
    @pascalstrentz9549 Год назад

    top merci
    je regardais avec circonspection ChatGPT
    là je vais foncé avec Mistral
    Merci pour ce travail de veille technologique💗💓❤‍🔥👍

  • @Djeref
    @Djeref Год назад +1

    Super vidéo (comme toujours je dirais 😋) mais tu ne mets pas les liens😞