LLaMA 3.1-405b : peut-il concurrencer les IA propriétaires et payantes ?

Поделиться
HTML-код
  • Опубликовано: 9 сен 2024
  • Des modèles d’I.A. gratuites et open source qui tiendraient la comparaison avec les versions payantes de ChatGPT4o ou Claude Sonnet 3.5 : c’est possible ?
    💪 Soutenir la chaine via tipeee :
    fr.tipeee.com/...
    🚀 Plus de 40 formations pour 25 €/mois SANS engagement de durée 🚀
    codeconcept.te...
    Liens cités dans la vidéo :
    Huggingface Chat
    huggingface.co...
    Groq
    groq.com/
    Pour des IA open source
    open.mozilla.o...

Комментарии • 27

  • @jeanlucbiellmann9909
    @jeanlucbiellmann9909 Месяц назад +6

    L'IA devrait être un vrai Logiciel Libre sous licence GPL, et non pas juste de l'open source industriel qui fait semblant d'être libre...

    • @Unnaymed
      @Unnaymed Месяц назад +3

      Combien tu leur a filé d'argent pour qu'ils le fassent ?
      C'est ingérable parce que toutes les bonnes ia utilisent des données non libre de droit.
      Tu peux pas avoir la meilleure ia sans lui filer du contenu propriétaires

    • @jeanlucbiellmann9909
      @jeanlucbiellmann9909 Месяц назад +4

      @@Unnaymed Donc selon vous, une IA open source payante donne automatiquement le droit à son créateur de voler tout ce qui se trouve sur le web ? Ben non justement. Soit on accepte le fait que le partage de la connaissance et son utilisation sont plus importantes que le droit de propriété ici bafoué dans tous les cas de figure, soit on retombe dans le biais d'une IA "sous la coupe de". Et on sait très bien que ça mène à des monopoles néfastes pour l'humanité, exactement comme les OS privateurs de liberté contre les logiciels libres de Richard Stallman. Une bonne IA sera une IA sous licence GPL, ou ne sera pas...

    • @Unnaymed
      @Unnaymed Месяц назад

      @@jeanlucbiellmann9909 je disais que c'est bien de demander a des gens de faire de l'open source avec leur propre argent, mais c'est une posture morale.
      Investi ou fais des dons dans les organisations qui entrainent des ia avec la licence qui te plais.

  • @Thibault_09
    @Thibault_09 20 дней назад +1

    Merci pour ta vidéo, les sujets autour de l'ia sont passionnants. Penses tu un jour faire une vidéo spécialisé sur "comment faire tourner un modèle en local" ou" comment l'entraîner" ect ? Je te dis ça car tu es très pédagogue et je pense que ça pourrait être super intéressant ! Merci encore.

    • @codeconcept
      @codeconcept  15 дней назад

      Merci Thibault !
      Là en ce moment je refais de la veille techno sur du dev "classique". Mais je note l'idée :)

  • @maloukemallouke9735
    @maloukemallouke9735 Месяц назад +3

    grand merci pour l info

  • @frankdearr2772
    @frankdearr2772 Месяц назад +2

    👍 merci

  • @tomas3861
    @tomas3861 Месяц назад +2

    Super intéressant

  • @happycollapse6348
    @happycollapse6348 Месяц назад +1

    A mon avis le vrai multimodal n'existe pas, même chez les concurrents.
    Quand on donne une image a GPT ou consorts, c'est une IA img2text qui va décrire l'image en texte et l'envoyer au LLM
    tout comme quand on demande une image c'est une autre IA text2img qui va générer l'image.
    etc..
    Les LLM restent des LLM et ne traitent que du texte.
    On est très très loin de skynet :P

    • @codeconcept
      @codeconcept  Месяц назад +1

      Ca me fait penser au mash-ups qu'on faisait il y a une quinzaine d'années. On chaînait le résultat de l'appel d'une API à l'entrée d'une autre. Je m'étais amusé à contrôler à mon navigateur web à la voix ou encore à faire du text to speech vers google maps.
      Ce qui m'inquiète davantage que skynet, c'est la surveillance des salariés (une IA qui contrôle en permanence le sourire des vendeurs, lu ce jour), on encore la détection de comportements suspect (cool) qui se trompe car le "suspect" était simplement habitué à faire ses courses très vite et donc suspecté d'être un voleur (pas cool). Bref, le contrôle permanent et indiscriminé n'est pas un pas dans la bonne direction.

  • @IkarioFr404
    @IkarioFr404 Месяц назад +1

    A voir ce que donne la miniaturisation des modèles dans l'espace de stockage. Quand on pourra faire tourner ces modèles de manieres très efficace sur des clients plus petit type pc smartphone ca va devenir très compétitif

    • @codeconcept
      @codeconcept  Месяц назад

      Ce qui aura en plus le mérite de pouvoir les utiliser localement, sans connexion internet.

  • @Unnaymed
    @Unnaymed Месяц назад +1

    Le 400b restera cher a utiliser, a voir a quel prix les entreprises vendent son usage.
    Mais c'est une révolution d'avoir le top des performances en open weight, et pas open source.

    • @codeconcept
      @codeconcept  Месяц назад

      Open weight et Open source. C'est vrai que j'ai vu passé le distinguo en préparant la vidéo. Ca mérite d'être creusé 😀

  • @thomasbrunelouellet4370
    @thomasbrunelouellet4370 Месяц назад +2

    super emission. est posisble de nous renseigner combien coute limplementation de ce type de ai et de le rendre disponible a une entreprise ? svp

    • @codeconcept
      @codeconcept  Месяц назад +1

      Merci 😀 Pour utiliser ce genre d'IA en entreprise, il faudra de plus en plus recourir à des spécialistes qui sauront fine tuner un modèle pour l'adapter à un problème particulier, créer des systèmes multi-agents ("coumpound AI systems") pour aller au-delà de simples requêtes qui tapent dans des données utilisées pendant l'entrainement vers des requêtes qui peuvent aussi chercher dans des données additionnelle (une DB, une API, un autre modèle etc).
      On commence à entrevoir de nouveaux métiers autour de l'IA qui ne nécessitent pas forcément d'être docteur en IA (les docteurs font de la R&D) mais permettent d'implémenter des solutions concrètes à partir des résultat des chercheurs (en gros de l'ingénieurie) .

  • @MIDO2802
    @MIDO2802 Месяц назад +1

    400b il faut 512Gb de ram et une carte graphique avec aussi plusieurs centaines de G de vram

    • @henochcamer3765
      @henochcamer3765 Месяц назад +1

      Exactement, le modèle est certes gratuit mais ça demande une bête de config.
      Les modèles 70B et 8B sont déjà plus accessibles

    • @happycollapse6348
      @happycollapse6348 Месяц назад +1

      En optimisant au max on peut descendre a 200Go de vram. soit huit RTX4090... ce qui est déjà monstrueux.
      Lorsqu'on se rends compte de la consommation des LLM's ça pose quand même de sacrées questions sur l'avenir de ces choses. tout ça pour générer du texte plein d'hallucinations... J'ai été très hypé par tout ça au début mais plus ça va plus je me demande si c'est vraiment utile.

    • @codeconcept
      @codeconcept  Месяц назад +1

      Dès qu'il faut faire quelque chose qui sort de simple POC, il faut de l'équipement et acheter beaucoup de tokens.
      Quant à la consommation électrique, ça devient un problème environnemental. Et paradoxalement, c'est le genre de problème qui ne fait plus du tout partie des préoccupations du moment, alors ...

    • @henochcamer3765
      @henochcamer3765 Месяц назад

      @@codeconcept Exact, et c'est là qu'on réalise qu'on ne peut pas vraiment échapper à se monter une stack à 20/50€ avec des outils SaaS ou des API à consommer. (Si on veut utiliser à fond ce type de codegen)

  • @moneyfr
    @moneyfr Месяц назад +1

    Méta gagne quoi à part la gloire ?

    • @codeconcept
      @codeconcept  Месяц назад +2

      La gloire c’est déjà beaucoup. Surtout quand on part d’une image assez négative (avec certaines campagnes de désinformation qu’il y a eu sur Facebook et autre Cambridge Analytica). En sortant un modèle comme Llama 405B, ils montrent qu’ils font partie des entreprises incontournables, au même titre qu’OpenAI ou qu’Anthropic.
      Ca peut inciter d’autres boites à créer des produits à partir de leur LLM plutôt que de celui d’un concurrent.
      Et puis, quand un bon produit est gratuit, ça met la barre plus haut pour un futur concurrent qui sait qu’il devrait sortir un produit très supérieur pour faire ouvrir son porte-monnaie à des clients qui ont déjà de quoi faire sans payer.

    • @TheRemiRODRIGUES
      @TheRemiRODRIGUES Месяц назад +2

      Cela peut paraître contre-intuitif, mais les très grosses boîtes ne sont pas évaluées sur leurs chiffre d'affaire et leur marges, mais sur leur potentiel.
      En réalisant une des meilleures IA, ils attirent les investisseurs, ce qui permet de faciliter les augmentations de capital.
      En la rendant open source, ils attirent les meilleurs spécialistes en IA, et par conséquent attirent encore plus d'investisseurs.
      Les investisseurs misent sur le fait, que Meta trouvera un jour ou l'autre une façon de rentabiliser leur position dominante dans le domaine.
      Mais en effet, pour un petit acteur évoluant dans un environnement où les investisseurs sont frileux, cette stratégie n'est pas évidente.

    • @codeconcept
      @codeconcept  Месяц назад +1

      @TheRemiRODRIGUES Ce fameux potentiel qui comporte une partie arbitraire, qui permet la constitution régulière de bulles.
      En plus pour une boite aussi grosse, on peut considérer que ça fait partie d'une petite partie de leur budget R&D. Ca n'est en effet pas censé rapporter tout de suite.