como utilizar OLLAMA con LANGCHAIN y cargar cualquier modelo llama2 gemma + RAG

Поделиться
HTML-код
  • Опубликовано: 11 мар 2024
  • @Contenido especial@
    Telegram: t.me/+grICXLZNz7xmNmM0
    Github: github.com/Equipo45/LangChain...
    Descubre la guía definitiva sobre cómo integrar OLLAMA con LANGCHAIN para cargar eficazmente cualquier modelo LLAMA2 GEMMA en tus proyectos de inteligencia artificial. Aprende paso a paso el proceso de implementación, configuración y optimización para aprovechar al máximo estas poderosas herramientas en el desarrollo de tus aplicaciones de IA. Este artículo te ofrece consejos prácticos, ejemplos de código y soluciones a problemas comunes para facilitarte el camino hacia una implementación exitosa. Ideal para desarrolladores, ingenieros de software y entusiastas de la IA que buscan expandir sus habilidades y conocimientos en el campo de la inteligencia artificial.

Комментарии • 5

  • @KevinRamirez-yl9lc
    @KevinRamirez-yl9lc 14 дней назад

    Excelente video, muy claro y preciso, para una proxima ver como se pueden montar estos modelos a produccion

  • @luisEnrique-lj4fq

    muchas gracias

  • @jhosuabernalsalcedo3156

    Hola Ismael, primero agradecerte por hacer este contenido de muy buena calidad, es una gran ayuda para aquellos como yo que nos introducimos en el mundo de las LLM, quería preguntarte si tu hiciste alguna configuración previa o un conjunto de librerías para usar GPT4AllEmbedding ya que en la documentación la usan tal cual lo haces tu, pero en mi caso me pide un "model_name"

  • @gustavopelua

    Muchas gracias, Brillante!!! como usar modelos personalizados .gguf? puedes hacer un video?