🦙 Ollama les lamas qui Redéfinissent l'Avenir de la Créativité et de l'Intelligence Artificielle !

Поделиться
HTML-код
  • Опубликовано: 29 сен 2024

Комментарии • 29

  • @proia-b2n
    @proia-b2n 5 месяцев назад +1

    une vidéo exceptionnel vraiment bravo et merci pour la France qui sera moins a coté de la plaque en 2028 avec le projet stagat qui vas rendre l' humilité obsolète dont la France mais grâce a toi et un future video sur le fine tuning de llama3 ou mistral 8 x 22b tu vas nous sauver je conte sur toi

  • @BismuthPaul
    @BismuthPaul 5 месяцев назад

    ZX81 qui fallait monter soi-même si on ne le voulait pas trop chère. Bon j'ai bien compris ton tuto mais je n'ai pas saisie comment lui soumettre une banque de fichier pdf ou autres pour orienter mixtral sur mon activité. Je veux bien quelques indices. Merci

    • @EasyAI-french04
      @EasyAI-french04  5 месяцев назад

      Bonjour,
      Ollama est un outil de base que l'on peut façonner.
      Pour travailler sur plusieurs PDF. Je vous conseille de consulter le lien suivant pour plus d'informations : github.com/zylon-ai/private-gpt

  • @romanops
    @romanops 2 месяца назад

    Bonjour et merci pour la vidéo. J'ai suivi toutes les étapes, mais je ne comprends pas car quand je mets la commande pour lire le fichier dans mon terminal, il ne lit pas le fichier mais invente quelque chose. Comment faire pour qu'il lise réellement le fichier ?

    • @EasyAI-french04
      @EasyAI-french04  2 месяца назад

      Oui, j'ai remarqué que des fois ils inventent seul les fichiers .txt son lu , sauf pour Lava bien sûr! As-tu essayé la version Open WebUI ?

  • @richardcardoso4032
    @richardcardoso4032 2 месяца назад

    @EasyAI-french04
    Bonjour, il est possible de prendre du temps avec vous (type de formation payante ?)

    • @EasyAI-french04
      @EasyAI-french04  2 месяца назад

      Bonjour,
      Non, aujourd'hui, je ne fais pas de formation payante. Cette chaîne a pour but de vulgariser les nouvelles technologies ! Si vous avez des questions qui sont dans mon domaine, je me ferais un plaisir de vous répondre, si cela est dans mes cordes, bien sûr !

    • @richardcardoso4032
      @richardcardoso4032 2 месяца назад

      @@EasyAI-french04
      Entendu merci pour votre réponse

  • @ryadtazibt507
    @ryadtazibt507 3 месяца назад

    excellente la vidéo, merci beaucoup...
    Est-il possible d'avoir une vidéo pour expliquer comment fine tuner un modèle avec de la grosse data ?

    • @EasyAI-french04
      @EasyAI-french04  3 месяца назад +1

      Bonjour,
      Oui, j'ai bien vu le message que tu m'as envoyé.
      Pour répondre à ta question, il est vrai que cette technique est assez complexe. Elle requiert des données dans un format spécifique et une puissance de calcul importante, notamment au niveau des GPU. De plus, une bonne maîtrise du langage Python est indispensable.
      À ce jour, je ne sais pas comment rendre cela simple dans une vidéo. Cependant, je suis ouvert à l'idée d'explorer des solutions pour simplifier cette technique et la rendre accessible à un plus large public.

    • @ryadtazibt507
      @ryadtazibt507 3 месяца назад +1

      @@EasyAI-french04 j'avoue que ce serait incroyable d'avoir une vidéo qui traite de ce sujet... si cela permet aussi de répondre à vos objectifs aussi bien-sûr

  • @H_A_R_L_E_M
    @H_A_R_L_E_M 6 месяцев назад +1

    Vidéo très sympa et très utile. Un abonné de plus ! Merci !!

  • @pacific1166
    @pacific1166 7 месяцев назад +1

    Superbe vidéo, impatient de voir la suite et merci pour toutes ces informations que tu nous donnes sur la chaîne et le blog👍

  • @chantasso6724
    @chantasso6724 6 месяцев назад +2

    Merci pour cette vidéo

  • @garr5450
    @garr5450 7 месяцев назад +1

    Super intéressant !

  • @MultiMustash
    @MultiMustash 7 месяцев назад

    Super video ! J'utilise Ollama depuis quelques mois et j'en suis très content, par contre pour les modelfiles, à part le prompt système et les paramètres, j'ai beaucoup plus de mal, la doc étant bien trop brève (ils renvoient a la doc de templates standard de Go).
    Je découvre grâce à ta vidéo le Ollama Hub et j'ai fait pause quand tu as présenté le "multi-agent" qui me semblait intéressant à lire, et là, j'suis perdu, il y a dests de "variables templates" telles que [specific task domain], [skillset], [toolset] dont je ne trouve aucune doc, j'ai aucune idée d'où elles viennent, comment elles sont peuplées et je ne comprend du coup rien au fonctionnement ^^
    Ça pourrait être intéressant de faire un jour une vidéo sur les modelfiles complexes. En tout cas, merci à toi !

    • @EasyAI-french04
      @EasyAI-french04  7 месяцев назад

      Bonjour,
      Ollama étant un outil complexe, il sera composé de plusieurs vidéos. En attendant, voici le lien du multi-agent, ce sera plus simple qu'une capture.
      openwebui.com/m/stewart/multi-agent:latest

    • @MultiMustash
      @MultiMustash 7 месяцев назад +1

      @@EasyAI-french04 Merci pour ta réponse ! Entre temps j'ai avancé dessus. Je pouvais chercher longtemps dans les docs de Ollama, c'était pas ici qu'il fallait chercher. Au final, le tout est un unique prompt système, il s'agit en fait d'une des formidables capacités émergentes des LLM qui est le "in-context learning". C'est le LLM qui comprend ce prompt et rempli ces variables lui-même. C'est une diablerie ce truc, un modèle de prompt engineering avancé.

  • @Zshoop-cd3ii
    @Zshoop-cd3ii 7 месяцев назад +1

    merci !!

  • @migueleto_
    @migueleto_ 7 месяцев назад

    Très belle video ! et merci pour la trouvaille