Open WebUI - Une interface graphique pour Ollama

Поделиться
HTML-код
  • Опубликовано: 1 янв 2025

Комментарии •

  • @hervedurand3224
    @hervedurand3224 2 месяца назад +7

    Hello, juste un détail...oui tu nous montres l'installation, la validation d’installation via la page web en localhost et tu poursuis par le terminal . Et oui y a déjà des vidéos sur l'installation d'ollama, mais tu aurais pu préciser qu'un "Ollama Serve" est de rigueur afin de lancer le serveur web écoutant le port qui va bien :)

  • @RedandGoldUntilamDeadandCold
    @RedandGoldUntilamDeadandCold Месяц назад +1

    pff. C'est tellement impressionnant ce qui arrive dans nos ordis. Malheureusement, j'ai pas le level pour faire toutes ces maneuvres. Merci pour ce travail, qui montre tout ce qui est possible de faire quand on sait se servir vraiment d'un ordi. Je suivrai l'evolution, comme on regarde un spectacle.

  • @XavierPennacchio
    @XavierPennacchio 2 месяца назад +3

    On s'imagine pas encore la portée de cela d'avoir ca sur ca machine. Toutes les docs qu'on va pouvoir lui faire bouffer et gratis. Merci Korben.

  • @OlivierCecillon
    @OlivierCecillon 2 месяца назад +3

    Concernant ce qui ressemble à un conflit avec la mémoire, il est dit dans les indications qu'il faut faire référence à soi-même en tant que USER, pas "je". Donc "je suis Manu" il le prend pour lui. Il aurait fallu écrire "l'utilisateur s'appelle Manu".

  • @damaslan2246
    @damaslan2246 2 месяца назад +1

    Alors, j'ai essayé il y a quelques mois sur un ordi tout à fait classique. Mon expérience est qu'il faut vraiment un ordi puissant. Au bout de quelques jours, j'ai désinstallé parce que je n'arrivais à rien avec un modèle léger et peu gourmand (un des llamas). Donc à voir les évolutions

  • @vegetixb52
    @vegetixb52 Месяц назад

    Bonne vidéo pour les bidouilleurs, tout fonctionne au poil ! merci de dégrossir tout ça

  • @pascal-golfdevirton5806
    @pascal-golfdevirton5806 15 дней назад

    Pour ce qui est du RAG, est-il possible de charger plusieurs documents? Quelle est la limite totale et par document?

  • @BaldursQuest
    @BaldursQuest 2 месяца назад +2

    Les LLMs en local sont vraiment limités. Il faut des gros modèles pour que cela soit vraiment efficace.

  • @didg9566
    @didg9566 Месяц назад

    Super video, merci pour la synthese!

    • @korben
      @korben  Месяц назад

      De rien 😁

  • @fabricemag4151
    @fabricemag4151 2 месяца назад

    Je l'ai installé avec Pinokio, c'est facile aussi. Maintenant il faut que j’apprenne à l'utiliser. Merci pour l'aide. :)

    • @korben
      @korben  2 месяца назад

      De rien 😁

  • @BuckarooBeats
    @BuckarooBeats 2 месяца назад +1

    Bon bein on testera ça quand j'aurai plus un ordi qui rame dés que j'ouvre 4 onglets

  • @lanfyp
    @lanfyp Месяц назад

    Merci. Comment tu as fait pour utiliser whisper pour l'audio ?

  • @csabrie8455
    @csabrie8455 2 месяца назад +1

    Merci 🎉

  • @sylvainskynet1598
    @sylvainskynet1598 2 месяца назад

    Merci beaucoup c est sympa ;)

  • @thelastshadowsYT
    @thelastshadowsYT 2 месяца назад

    Ca marcherait bien pour ecrire du php ? Et peut on le connecter a internet ou il reste en local ?

  • @raoul4246
    @raoul4246 2 месяца назад +1

    Salut Korben tu nous ferra une petite suite llama 3.1 Nemotron ?? le modèle a charger dans ollama est le Llama-3.1-Nemotron-70B-Instruct-HF-GGUF

    • @korben
      @korben  2 месяца назад +2

      hello. J’ai tourné une vidéo où j’en parle mais ce sera pour les Patreons bientôt. Et dans 4 ou 5 semaines pour RUclips

  • @dayanefadebi
    @dayanefadebi 2 месяца назад

    ❤❤❤❤

  • @warvanankenia5286
    @warvanankenia5286 2 месяца назад +1

    Simplifiez-vous la vie en utilisant pinokio (disponible sur Windows, Mac, Linux) et en installant Open WebUI à partir de l'interface de Pinokio, et voilà...

  • @XavierPennacchio
    @XavierPennacchio 2 месяца назад

    Korben je me permet une remarque : tu vas un peu vite en besogne sur la partie de déclaration de l'adresse d'Ollama j'ai du rajouté ceci --add-host=host.docker.internal:host-gateway sinon ca ne fonctionner pas. T'as du le faire avant mais pour un newbie comme je suis j'étais un peu largué merci perplexity pour le coup je suis resté 2h a essayé de voir avec perplexity ce qu'il y allais pas avec un peu d'intuition je suis partie sur l'adressage réseau, enfin si c'est de cela qu'il s'agit... Mais le reste est parfait merci pour ton travail que tu fais depuis des années.

    • @korben
      @korben  2 месяца назад

      Ah c’est possible. Désolé pour ça.

    • @XavierPennacchio
      @XavierPennacchio 2 месяца назад

      @@korben pas grave tu m’as bien aidé avec ta vidéo c’est l’essentiel

  • @neuvilleeric5289
    @neuvilleeric5289 2 месяца назад

    encore un truc qui fera que les gens reflechiront de moins en moins

  • @loaknatyr3027
    @loaknatyr3027 2 месяца назад

    « Tu ne feras point de machine à l’esprit de l’homme semblable »

    • @korben
      @korben  2 месяца назад +1

      Mdrrrr