Ollama Modelfile (LLMs más rápidos)

Поделиться
HTML-код
  • Опубликовано: 7 ноя 2024
  • Ollama Modelfile
    🔗 Link Repo: github.com/dfb...
    🤖 Ollama Link: ollama.com/lib...
    🔗 Model file Link: github.com/oll...

Комментарии • 7

  • @luisenrique-dr7id
    @luisenrique-dr7id 2 месяца назад +1

    muchas gracias

    • @davidbu8248
      @davidbu8248  2 месяца назад

      De nada Luis espero te sirva

  • @alexisponce6547
    @alexisponce6547 2 месяца назад +1

    Hola, como puedo hacer un fine tuning usando un archivo pdf a un modelo mistral o llama3.1?

    • @davidbu8248
      @davidbu8248  2 месяца назад

      Hola Alexis espero estés bien
      Respecto al modelo si se puede cambiar siempre y cuando esté disponible en Ollama
      Y respecto a lo del finetune si puedes hacer ya sea al modelo de embeddings o al LLM que brinda las respuestas pero si tiene más trabajo
      Cualquier otra duda quedo atento
      Saludos

  • @pablobandeira5461
    @pablobandeira5461 5 месяцев назад +1

    Gran aporte! Gracias!
    Tengo una consulta, quiero hacer un modelo especializado sobre leyes de un país determinado, que recomendas? utilizar RAG o Fine-tunning? Gracias!

    • @davidbu8248
      @davidbu8248  5 месяцев назад +1

      Hola Pablo espero estés bien
      Pienso que si necesita ser muy específico y garantizar precisión el fine tuning no es mala opción. Aunque si se quiere un nivel no tan específico con una buena implementación de RAG debería funcionar

    • @pablobandeira5461
      @pablobandeira5461 5 месяцев назад

      @@davidbu8248 gracias por tu respuesta!