Local Models with Ollama & Microsoft Extensions - Step-by-Step RAG Guide!

Поделиться
HTML-код
  • Опубликовано: 27 ноя 2024

Комментарии • 4

  • @LearnWithVarun
    @LearnWithVarun 23 дня назад +2

    Wow, Love your content. upload more videos on these series :)

    • @elbruno
      @elbruno  23 дня назад +2

      Thanks Learn! NExt one is this example running with Qdrant local in docker.

  • @greenyngchannel855
    @greenyngchannel855 23 дня назад

    Esto tan solo tiene sentido para modelos en local? Tendría sentido para un modelo en Azure ai Studio ? Por cierto ánimo al equipo de phi3 a probar que tal bueno podría ser utilizar el dispositivo y procesador del equipo de M5Stack ... Gracias !!

    • @elbruno
      @elbruno  23 дня назад

      @@greenyngchannel855 si cambias las interfaces de Embeddings para que usen modelos de Azure OpenAI, funciona igual pero con los modelos en la nube.