Aprende Ollama en menos de 8 minutos!

Поделиться
HTML-код
  • Опубликовано: 2 окт 2024
  • Ollama es una de las formas más fáciles de ejecutar LLMs Open Source. En el vídeo de hoy vemos los primeros pasos con Ollama y cómo empezar en este mundo.
    Curso → bit.ly/curso-i...
    ﹤🍍﹥ Codely
    ├ 🎥 Suscríbete: ruclips.net/user/c...
    ├ 🔖 Cursos: bit.ly/cursos-...
    └ 👋 Redes sociales:
    ├ / codelytv
    ├ / javiercane
    ├ / rafaoe
    ├ / codelytv
    └ / codelytv

Комментарии • 10

  • @angelmesa9530
    @angelmesa9530 Месяц назад +3

    Saludos tengo una duda yo puedo instalar Ollama en un PenDrive, SD Card o disco duro externo si no tengo espacio en mi disco duro de mi laptop.
    Gracias y disculpar por la pregunta se que e media tonta es que me interesa pero no tengo mucho espacio.

  • @nahuelgavilanbernal5769
    @nahuelgavilanbernal5769 5 месяцев назад +4

    Lo de que usen el puerto 11434 es de 200 IQ 😂

  • @AdanAndre-2090
    @AdanAndre-2090 10 дней назад

    Ollama se puede instalar en un teléfono y se puede usar gemma2:2b. Mas o menos genera 6 tokens por segundo.

  • @antoniomuro1411
    @antoniomuro1411 5 месяцев назад

    Gracias por la demo! parece interesante habrá que probarlo :)

  • @ricardoruizdiaz7218
    @ricardoruizdiaz7218 5 месяцев назад

    como filtro para solo obtener el "response" ?

  • @LOFIBOT-bp6hm
    @LOFIBOT-bp6hm 4 месяца назад

    pues lo unico que sale es
    Error: could not connect to ollama app, is it running?

    • @smitemf155
      @smitemf155 3 месяца назад

      ollama serve y después ollama run llama3

  • @claudioguendelman
    @claudioguendelman 2 месяца назад

    Cuando lo van a hacer con Linux.... Creo que con Mac es un pésimo ejemplo.