Ollama : Ejecuta Múltiples LLMs en Paralelo o Simultáneamente.

Поделиться
HTML-код
  • Опубликовано: 18 дек 2024

Комментарии • 9

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    muy interesante gracias

  • @rodolfolopezp
    @rodolfolopezp 6 месяцев назад

    Excelente
    Muchas gracias 😊

  • @SonGoku-pc7jl
    @SonGoku-pc7jl 6 месяцев назад

    muy util para combinar agentes como mistral 0.3 con mejores function calling y llama3 para otras cosas por ejemplo, gracias

  • @KevJames-sy2ej
    @KevJames-sy2ej 7 месяцев назад +1

    Brilliant! But can we also do it on Windows?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol  6 месяцев назад

      I am a Mac user, so I haven't tried to do it on windows. It seems possible following the instructions in the Ollama official GitHub account: github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server

  • @Salionca
    @Salionca 5 месяцев назад

    Gracias. La mayor parte del video en modo oscuro.

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol  4 месяца назад

      He comprobado el video y se ve correctamente. Probablemente subiendo la luminosidad de tu ordenador podrás verlo. A mi también me suele ocurrir que mi mac reduce la luminosidad automáticamente y no veo nada. Esto lo hace para reducir consumo. Puede que sea el mismo caso para ti. Gracias por tu aviso. :)