Docker + Ollama + FastAPI

Поделиться
HTML-код
  • Опубликовано: 3 окт 2024
  • Docker + Ollama + FastAPI.
    🔗 Link Repo: github.com/dfb...
    🌐 Ollama Docker Image: hub.docker.com...

Комментарии • 12

  • @martinvasconcelo3418
    @martinvasconcelo3418 2 месяца назад +1

    🚀

  • @guillermovc
    @guillermovc 21 день назад +1

    Has podido hacer la respuesta en streaming?, me funciona cuando utilizo virtualenviroment pero no con docker, tengo una arquitectura muy similar, FastAPI y Streamlit

    • @davidbu8248
      @davidbu8248  18 дней назад

      Hola Guillermo. Buen punto en streaming no lo he probado con docker pero podría hacer un video acerca del tema

  • @carlos19989
    @carlos19989 3 месяца назад +1

    Buen video gracias

    • @davidbu8248
      @davidbu8248  2 месяца назад

      De nada Carlos espero te sirva

  • @NAzeexxlayka
    @NAzeexxlayka 2 месяца назад +1

    interesante, que tipo de funcionalidades backend se puede lograr con esta ia?

    • @JeysonOrozcoH
      @JeysonOrozcoH 2 месяца назад +2

      Yo creo que se puede usar como api para conectar un servicio para que sea administrado por ia ejemplo un chat

    • @davidbu8248
      @davidbu8248  2 месяца назад

      Hola espero estén bien si en efecto cualquier servicio que involucre cómo actor a un LLM de los disponibles podría ser casos de uso cómo Chatbot, RAG entre otras posibilidades

    • @alejandromachado6145
      @alejandromachado6145 2 месяца назад

      @@davidbu8248 se puede integrar un sistema de recomendación con un llm ?

  • @Aaron7k
    @Aaron7k 3 месяца назад +1

    :O

  • @antonioyt7719
    @antonioyt7719 3 месяца назад +1

    me suscribo