Ollama : Ejecuta Múltiples LLMs en Paralelo o Simultáneamente.
HTML-код
- Опубликовано: 25 сен 2024
- Con la introducción de la versión v0.1.33 Ollama nos permite ejecutar simultáneamente o en paralelo varios LLMs. No necesitamos esperar a que termine de ejecutarse un LLM para poder ejecutar otro LLM.
Para poder utilizarlo actualmente debemos usar dos variables de entorno (environment variables) al inicializar Ollama. Una de las variables define el número de LLMs que podemos ejecutar de forma simultánea y la segunda variable el número de veces que podemos usar el mismo LLM simultáneamente o en paralelo. Usar una de las variables o ambas variables dependerá de nuestro caso específico.
En futuras versiones es probable que la ejecución simultánea sea accesible por defecto sin necesidad del uso de (environment variables).
En este video vamos a ver cómo hacerlo…
muy interesante gracias
Excelente
Muchas gracias 😊
:)
muy util para combinar agentes como mistral 0.3 con mejores function calling y llama3 para otras cosas por ejemplo, gracias
Gracias a ti. :)
Brilliant! But can we also do it on Windows?
I am a Mac user, so I haven't tried to do it on windows. It seems possible following the instructions in the Ollama official GitHub account: github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server
Gracias. La mayor parte del video en modo oscuro.
He comprobado el video y se ve correctamente. Probablemente subiendo la luminosidad de tu ordenador podrás verlo. A mi también me suele ocurrir que mi mac reduce la luminosidad automáticamente y no veo nada. Esto lo hace para reducir consumo. Puede que sea el mismo caso para ti. Gracias por tu aviso. :)