COMMENT coder ton assistant AI local et GRATUIT ? Découvrez Ollama & Llama3 !

Поделиться
HTML-код
  • Опубликовано: 7 сен 2024

Комментарии • 11

  • @uzumaki9347
    @uzumaki9347 3 месяца назад +1

    Merci du partage je vais tester dans la semaine!

  • @noahgaming5902
    @noahgaming5902 3 месяца назад +1

    Merci ! De mieux en mieux franchement

  • @Elyana6039
    @Elyana6039 3 месяца назад +1

    Très intéressant 👍
    Merci pour le partage

  • @hugomartin9314
    @hugomartin9314 2 месяца назад +1

    Super vidéo ! Clair et efficace !
    Une petite question, tu recommande quoi comme config au niveau processeur/carte graphique pour le plus gros modèle ?

    • @axelcode_exe
      @axelcode_exe  2 месяца назад

      Merci !
      Alors pour modèle 70B, je dirais pour le CPU mini 16 coeurs, 64 serait parfait
      GPU 48gb mini ( avec deux cartes)
      Et la ram mini mini 64gb

  • @mouradlaraba
    @mouradlaraba 3 месяца назад

    comment tu es passé de la console a l'interface web?

    • @uzumaki9347
      @uzumaki9347 3 месяца назад

      3:25 il explique.. Il a codé front et back

    • @axelcode_exe
      @axelcode_exe  3 месяца назад +1

      Oui je l'ai dev, si tu veux uniquement une interface pour le chat et ne pas faire de custom tu peux utiliser open-webui sur github. C'est open source + local