Ollama + Open WebUI : l'IA LLM opensource, gratuite, auto-hébergée et sécurisée sous Docker !

Поделиться
HTML-код
  • Опубликовано: 29 сен 2024

Комментарии • 37

  • @ioio7408
    @ioio7408 6 месяцев назад +2

    [RESOLU] Merci aussi. Je pose une question à la communauté au cas ou quelqu'un à été confronté au même problème que moi. Le GPU (nvidia4060 en l'occurrence) n'est pas du tout détecté par le docker ollama. j'ai installé le système sur un Win 11 avec Docker Desktop. Tout fonctionne , j'ai mis openwebui, accès par reverse proxy, avec tout plein de models qui fonctionnent, mais sur le CPU. J'ai tellement galéré et besoin de résoudre le problème que j'apporterai la réponse si personne me la donne. ca pourra peut être aider. Habituellement je fais tout sur mon Nas qui existe un peu Grace à toi , mais cette fois ci les performances réclamées nécessitaient que j'installe sur une autre machine, c'est pour cela Win11.

  • @christiansalmon3904
    @christiansalmon3904 7 месяцев назад +3

    Intéressant, je m'étais justement gardé sous le coude une autre video qui parlait de ollama : ruclips.net/video/IJYC6zf86lU/видео.html avec en UI:, AnythingLLM qui permet d'intégrer ses propres documents. J'avais déjà testé privateGPT en local sur un linux avec GPU nvidia (en installant les drivers cuda) et ça fonctionnait plutôt bien. Pour la partie domotique, sous Home Assistant, il y a un plugin qui existe a brancher sur un GPT local (ou chatGPT) : ruclips.net/video/pAKqKTkx5X4/видео.html j'ai pas encore testé , ça demande de faire son propre matériel pour la reconnaissance vocal. En tout cas le futur est prometteur, nos assistants vont enfin comprendre des vrais phrases.

    • @Noshiru
      @Noshiru 4 месяца назад

      Salut Christian ! Je me permet de rebondir sur ce que tu dis car je suis actuellement entrain de tester ollama + anythingLLM. As-tu fait d'autres choses depuis ? Dans l'entrainement d'IA surtout je veux dire. Car le but pour moi c'est de trouver une IA open source, de pouvoir lui donner une doc, et via une API d'y accéder et de poser des questions.. :) Merci !

  • @Alex-rg1rz
    @Alex-rg1rz 22 дня назад

    Hello merci ! j'ai enfin pus faire fonctionner dans docker a chaque fois sur d'autres tuto ca me trouvai pas le modèle dans webui

    • @GuiPoM
      @GuiPoM  22 дня назад

      Génial !

  • @ixion8666
    @ixion8666 7 месяцев назад +1

    Vidéo trés intéressante! Franchement j'attends le Jeudi avec impatience, merci pour cette découverte. Hâte de voir la suite concernant l'IA.

  • @SpectraFire44
    @SpectraFire44 6 месяцев назад

    J'utilise un vieux pc qui ne vaut pas grand chose et je parvient a faire tourner Mistral 7B en local 🤣

  • @yblisatya
    @yblisatya 6 месяцев назад +1

    Super, merci, je viens de le mettre en place sur mon serveur, j'ai pu faire tourner des tout petit modèles, et je l'ai aussi testé sur mon macbook M1 pro, où là j'ai pu faire tourner des plus gros modèle, d'ailleurs j'ai pu aussi interfacer l'API de mon ollama local sur mon n8n pour des flux un peu personnalisé :) merci encore pour cette vidéo :)

    • @m.bouanane4455
      @m.bouanane4455 6 месяцев назад

      Merci pour l'info.
      Savez-vous si on peut entraîner un ou plusieurs modèles avec des fichiers en local et l'interroger par rapport à ces fichiers ?
      Merci par avance

  • @fredpourlesintimes
    @fredpourlesintimes 5 месяцев назад

    Dommage que tu parles pas de la génération d'image

  • @dandyiy
    @dandyiy 4 месяца назад

    comment avoir une version non censuré des modèles ??

    • @GuiPoM
      @GuiPoM  4 месяца назад

      Quand la variante existe, il suffit de prendre uncensored.
      Sinon il faut faire l'installation du modèle à la main

  • @metalrearden97
    @metalrearden97 7 месяцев назад

    merci pour cette video. Cela donne envie de tester. Et waow la response sur la question! Chacun sait que la réponse a cette grande question est "42".

  • @neutrino85fr
    @neutrino85fr 7 месяцев назад

    Merci ! C'est génial ! Je m'en vais mettre à genoux mon vieux core i7 '^^

  • @jackbauer322
    @jackbauer322 6 месяцев назад

    et pour un deploiement en production autre que local ?

  • @PlaGiatMan
    @PlaGiatMan 6 месяцев назад

    Salut, encore une super vidéo =) ce serait top que tu fasses une vidéo supplémentaire sur le sujet pour expliquer comment utiliser un GPU en détail =D

    • @GuiPoM
      @GuiPoM  6 месяцев назад

      Sur ce type de projet l'intérêt est justement que si la ressource GPU est disponible, elle sera utilisée automatiquement, ce qui rend les choses très simple à configurer.
      Si un jour je tombe sur une image nécessitant de définir l'accès aux ressources, là oui, mais dans le cadre de cette vidéo j'ai montré ce qu'il faut faire pour activer une carte nVidia.

  • @RIPrisitas
    @RIPrisitas 7 месяцев назад

    Open-WebUI je penses que pour le nom ils ont juste voulu dire que c'est une copie de l'UI de OpenAI

    • @GuiPoM
      @GuiPoM  6 месяцев назад

      Possible !

  • @Sanji445
    @Sanji445 6 месяцев назад

    Pour ton NUC, est-ce que tu es capable d'utiliser le iGPU intégré dans ce use case ? Est-ce qu'il y'a déjà un intérêt pour utiliser un iGPU ou pas ? Je pense qu'un iGPU utilise la mémoire partagée du NUC non ?

    • @GuiPoM
      @GuiPoM  6 месяцев назад

      le iGPU intel n'est pas un accélérateur CUDA. On ne parle pas de vidéo dans ce type de situation. Donc ... non !

    • @Sanji445
      @Sanji445 6 месяцев назад

      @@GuiPoM pardon j'ai mal formulé ma question, je voulais juste savoir s'il existe un moyen de tirer profit d'un iGPU pour du LLM opensource, je présume que non..

  • @jbsness5375
    @jbsness5375 5 месяцев назад

    Merci pour ce partage ! Petite question de débutant comment faire si tu veux update la version de Open WebUI ?, merci.

    • @GuiPoM
      @GuiPoM  5 месяцев назад +1

      J'en ai parlé dans une vidéo dédiée aux mises à jour de conteneur docker, ca se fait relativement simplement via pull/up, ou avec l'interface graphique de Portainer.

    • @jbsness5375
      @jbsness5375 5 месяцев назад

      @@GuiPoM merci je vais aller regarder ta vidéo !

  • @GeeKeWi
    @GeeKeWi 7 месяцев назад

    Merci pour cette vidéo, sympa de découvrir un peu plus le potentiel de docker avec toi.
    +1 pour la vidéo de la gestion des réseaux

    • @GuiPoM
      @GuiPoM  6 месяцев назад

      Peut etre un jour ! 🤞

  • @Bakitto390
    @Bakitto390 7 месяцев назад

    Le cas d'usage 1 est exactement ce que j'attends depuis des années et éviter de partager mes données avec Open Ai

    • @GuiPoM
      @GuiPoM  6 месяцев назад +1

      👍

  • @nico.m8346
    @nico.m8346 6 месяцев назад

    comment il va faire Guillaume dans le noir.

    • @GuiPoM
      @GuiPoM  6 месяцев назад

      J'avais vu ton commentaire mais je ne l'avais pas compris. Après l'avoir relu, j'ai toujours pas compris 😁

  • @remitheguik1303
    @remitheguik1303 7 месяцев назад

    c'est trop stylé vraiment ! :D

    • @GuiPoM
      @GuiPoM  7 месяцев назад

      Merci!

  • @Tigres36
    @Tigres36 7 месяцев назад

    Merci pour tes videos !! beau travail !!!

    • @GuiPoM
      @GuiPoM  7 месяцев назад

      Avec plaisir 😊

  • @kristof9497
    @kristof9497 7 месяцев назад

    Merci. Je vais essayer.

    • @GuiPoM
      @GuiPoM  6 месяцев назад

      Bonne chance