Aprende Ollama en menos de 8 minutos!
HTML-код
- Опубликовано: 2 окт 2024
- Ollama es una de las formas más fáciles de ejecutar LLMs Open Source. En el vídeo de hoy vemos los primeros pasos con Ollama y cómo empezar en este mundo.
Curso → bit.ly/curso-i...
﹤🍍﹥ Codely
├ 🎥 Suscríbete: ruclips.net/user/c...
├ 🔖 Cursos: bit.ly/cursos-...
└ 👋 Redes sociales:
├ / codelytv
├ / javiercane
├ / rafaoe
├ / codelytv
└ / codelytv
Saludos tengo una duda yo puedo instalar Ollama en un PenDrive, SD Card o disco duro externo si no tengo espacio en mi disco duro de mi laptop.
Gracias y disculpar por la pregunta se que e media tonta es que me interesa pero no tengo mucho espacio.
Lo de que usen el puerto 11434 es de 200 IQ 😂
Ollama se puede instalar en un teléfono y se puede usar gemma2:2b. Mas o menos genera 6 tokens por segundo.
Gracias por la demo! parece interesante habrá que probarlo :)
como filtro para solo obtener el "response" ?
pues lo unico que sale es
Error: could not connect to ollama app, is it running?
ollama serve y después ollama run llama3
Cuando lo van a hacer con Linux.... Creo que con Mac es un pésimo ejemplo.
Mac es unix como Linux, quizás el pésimo es otro