🦙COMO AGREGAR DOCUMENTOS A LLAMA 3 8B en LOCAL - RAG con CHROMA - 100% PRIVADO Y GRATIS ✅REPO

Поделиться
HTML-код
  • Опубликовано: 6 сен 2024

Комментарии • 39

  • @ai.charly
    @ai.charly  3 месяца назад +6

    Editar este vídeo me tomó alrededor de 3 horas, más las horas invertidas en investigación, prueba y error para poder hacer cada app que subo pues se va un tiempo considerable.
    Si te gusta lo que vez, deja un comentario, y si no, también puedes dejarme uno para saber cómo mejorar, me gusta leerlos. 👍🏻

    • @MrJeeoSoft
      @MrJeeoSoft Месяц назад +1

      ¿Que hardware estás utilizando para correr llama tan rápido? Gracias!

    • @ai.charly
      @ai.charly  Месяц назад +1

      @@MrJeeoSoft Procesador: AMD Ryzen 7 4800H with Radeon Graphics
      GPU: NVIDIA GeForce RTX 2060
      Memorias:
      SSD: 953GB (con 472GB usados)
      HDD: 931GB (con 98GB usados)
      Estas son las características de mi laptop. Pero ya te digo que solo corre llama, modelos como Gemma ya van más lento

    • @MrJeeoSoft
      @MrJeeoSoft Месяц назад +1

      ​ @charlytoc132 Muchas gracias por tu respuesta! Claro, creo que a mi laptop le hace falta una placa de video, porque no consigo esa velocidad localmente jaja

    • @ai.charly
      @ai.charly  Месяц назад

      @@MrJeeoSoft puede ser, la verdad es que correr modelos localmente requiere de ciertos requisitos mínimos de hardware (de momento), computadoras de última generación que ya vengan con chips NPU y procesadores más adaptados para IA van a ir mejor. Ya quiero echar mano a una nueva laptop que tenga estas características

    • @emanuelr9815
      @emanuelr9815 Месяц назад +1

      Hola amigo crees que me corra bien en un ryzen 5 5600g es solo la APU? GRACIAS

  • @accipiter_nisus
    @accipiter_nisus 3 месяца назад +3

    Gracias por tu tiempo y esfuerzo. El RAG es el mundo INDIE de la IA. Tenemos el potencial de google, microsoft, nvidia o chatgpt en nuestras manos. Somos responsables de acercar este mundo a los pequeños empresarios y adaptarlo a sus negocios o necesidades

    • @ai.charly
      @ai.charly  3 месяца назад +2

      ¡Concuerdo completamente! De hecho he estado pensando en iniciar una empresa de desarrollo de software e implementación de soluciones con IA donde vivo porque aún no existe y tendría una ventaja competitiva, pero aún no he desarrollado suficiente la idea, este comentario me anima a darle un poco más de atención a la misma, uno debería aspirar a ganar más y ser tu propio jefe

    • @accipiter_nisus
      @accipiter_nisus 3 месяца назад +1

      @@ai.charly Suerte. Las empresas le gustan tener el control de sus propios datos, y que el resultado lo perciba como propio, eso los grandes no se lo pueden dar. Hay un gran nicho de mercado y como en todo tienen que percibir que si invierten le retornará un beneficio de cualquier tipo.

  • @antonioislasromero5539
    @antonioislasromero5539 Месяц назад +2

    Exelente video me hubiera gustado escuchar los comentarios sin alucinaciones del codigo jajaja nuevo sub

  • @ai.charly
    @ai.charly  3 месяца назад +2

    La música fue una decisión defícil, creo que tengo el micrófono con mucha ganancia, tienen que bajarle un poco de volumen

  • @drackp2m
    @drackp2m Месяц назад +2

    `brew install llama` es algo que funciona en macos, porque Brew es un gestor de paquetes (de paquetes de HomeBrew) de forma parecida a lo que `apt` lo es en Ubuntu, así que no está alucinando nada. Solo que quizá debiste especificarle un poco más.

  • @martin_perez
    @martin_perez Месяц назад +1

    Excelente guía, me has iluminado, estoy con un proyecto de leer PDF de documentos escaneados, y se busca vincular llama, pero no funciona muy bien.
    Revisaré todos tus videos a ver si logro mejorar la lectura de estos documentos

    • @ai.charly
      @ai.charly  Месяц назад +1

      @@martin_perez puedes contarme sobre tu proyecto y así lo tomo de inspiración 👌🏻

    • @ai.charly
      @ai.charly  Месяц назад

      @@martin_perez o tus dudas, más bien

    • @martin_perez
      @martin_perez Месяц назад

      @@ai.charly dame tu correo para escribirte.

  • @humbertozambrano8556
    @humbertozambrano8556 Месяц назад +1

    Estoy tratando de usar tools en ollama, aun esta difícil. Creo que debo entrenar una IA en español. Gracias por tu video.

    • @ai.charly
      @ai.charly  Месяц назад

      ¿Has probado hacerlo por tu cuenta? Podrías pedirle que retorne un JSON con las características que necesitas y usar el response_format="json"
      Aunque la verdad Lllama-3-8B no es lo mejor para usar tools

  • @fernandofrias8322
    @fernandofrias8322 2 месяца назад +1

    Muchas gracias. Sería interesante unos videos de Langchain / LangChain Expression Language (LCEL) /Langgraph

  • @diegoserlini6798
    @diegoserlini6798 3 месяца назад +1

    Muy interesante el video, para mi fue bastante difícil de entender. Estaria bueno ver la parte inicial del proyecto, de mi parte estoy comenzando con la programación y al parecer el resto de los que siguen tu canal tienen mucha experiencia, me sigue gustando tu manera de explicar, voy a seguir practicando para en algún momento llegar a este nivel. Saludos y exitos

    • @ai.charly
      @ai.charly  3 месяца назад +1

      ¡Me gusta que haya gente que está empezando! De hecho estoy haciendo vídeos (aunque son para la empresa que trabajo) de Python, Javascript, HTML y CSS, luego quiero subir cursos acá también pero bueno, realmente trabajar de desarrollador y hacer videos puede ser algo demandante de tiempo, ¿qué estás estudiando?

    • @diegoserlini6798
      @diegoserlini6798 3 месяца назад

      Hola @@ai.charly , muchas gracias por tomarte el tiempo para responderme. Estoy estudiando tec en programacion, empecé la carrera este año, a mi me gustaria saber y ver cómo es tu forma de resolver un requerimiento de programación con algún ejemplo básico. No hay muchos videos con esas temáticas. Segui con esta forma de hacer los videos, tenes un diferencial con otros devtubers, te felicito!!!

    • @ai.charly
      @ai.charly  3 месяца назад +1

      @@diegoserlini6798 ¿qué es lo que sueles ver? ¿Qué tipo de cosas te gustaría que resolviera? Algo que realmente me interesa es ver lo que les gusta a las personas que comentan, eso es lo que al final hace crecer a una comunidad y lo tomo mucho en cuenta

    • @diegoserlini6798
      @diegoserlini6798 3 месяца назад +1

      @@ai.charly recien estoy comenzando con programación funcional utilizando diagramas de flujo. Tus videos son muy buenos, pero siento que me falta la parte en donde se te ocurre la idea y todo el proceso de iniciar un proyecto.
      Estuve viendo otro youtuber en ingles que empezó el challange de 100 días programando y explica la forma de encarar cada uno de los problemas. Espero que te sirva. Gracias x todo el tiempo que invertís para compartir tus conocimientos.

    • @ai.charly
      @ai.charly  3 месяца назад +1

      @@diegoserlini6798 creo que debería hacer videos programando y no tanto mostrando proyectos a ver qué pasa

  • @sanventrutoube
    @sanventrutoube 2 месяца назад +2

    hola amigo excelente video, una consulta, que modelo recomendarías para un software de anonimizscion de documentos

    • @ai.charly
      @ai.charly  2 месяца назад +1

      En lo que más me fijaría sería en el tamaño de los documentos. Un buen prompt te puede servir con cualquier modelo, pero en este caso si el documento es muy grande, te recomendaría modelos con un amplio contexto como Claude o GPT-4o, tambien podrías usar la API de Groq para usar Llama 70B pero el contexto de este es de 8 mil tokens, que te bastan para muchos documentos, pero no para todos. Entonces eso, si son muy grandes, modelos con amplio contexto (o también podrías picar el documento para que queda en el contexto de modelos más pequeños).
      Por otro lado aunque el contexto de entrada sea infinito, el output no, muchos modelos están restringidos a 4k tokens, entonces te vas a encontrar en que le pasas un documento gigante y te da solo una parte. Te recomendaría en ese caso que pienses tu lógica para solventar esta limitación orquestando las llamadas necesarias a la API para e ir concatenando el documento nuevo poco a poco. Para mayor velocidad te recomendaría ahora sí Groq que tiene una velocidad de inferencia brutal, y estoy seguro que Llama 70B puede entender una tarea para esta, además que te saldrá más barato que OpenAI o Anthropic.
      ¡Mucho éxito en tu proyecto! Si quieres ver cómo usar Groq mira un vídeo que hice que tiene un template con FastAPI + React y Groq

    • @sanventrutoube
      @sanventrutoube 2 месяца назад

      @@ai.charly muchas gracias por tu respuesta, hice pruebas con spacy pero no es suficiente no detecta bien los nombres, tal vez has usado spacy_llm?

  • @martinVas-se6gs
    @martinVas-se6gs 2 месяца назад

    Gracias por este excelente video, cuando puedas sería interesante, llevarlo a un Char personalizado, con acceso para varios usuarios con diferentes perfiles. Gracias Saludos.

  • @ai_ai4715
    @ai_ai4715 3 месяца назад +1

    Acabo de ver el vídeo y me ha parecido de interés. Tras ver el repositorio me he encontrado con una duda que quisiera resolverla antes de sumergirme en la instalación, pruebas y posibles mejoras. ¿Los embeddings pueden generarse apartir de documentos en español?. ¿Hay que cambiar algo en el sistema de generación de embeddings si tenemos documentos escritos en distintos idiomas como Inglés y español?.

    • @ai.charly
      @ai.charly  3 месяца назад

      No realmente, eso sí, yo consideraría usar Groq, una API que usa LPU para aumentar la velocidad de generación y usar Llama 3 70B si es un proyecto que quieres para usuarios, ya que Llama 3 8B puede a veces responderte en inglés incluso si le pides que te hable en español.
      Cosas que se pueden hacer: modificar el prompt para que sea en español. Con respecto a los documentos, pueden estar en cualquier idioma realmente

  • @Matias643
    @Matias643 3 месяца назад +1

    muy bueno el video, soy nuevo en IA y me sirvió mucho para arrancar con algo que sí funciona !! me quedaron archivos como vectors.py , server.py que no se bien como funcionan, estaría bueno alguna descripción, aunque ya aprenderé esa parte .. gracias saludos

    • @ai.charly
      @ai.charly  3 месяца назад

      ¡Qué bueno que te haya gustado! Justo hoy, en unos minutos, sale otro de una app fullstack con IA, en este caso se incluye una interfaz de usuario con React, y hay un servidor con FastAPI como el que existe en este proyecto, ¡échale un ojo para que aprendas cosas nuevas!

  • @abstractmusic7583
    @abstractmusic7583 3 месяца назад +1

    podrias hacer videos de como usar los LLM con open web ui

  • @pacashanaya
    @pacashanaya 27 дней назад +1

    Ahmmm en realidad, todo se resume en 25 líneas de código sin exagerar usando tanto embeddings, locales como externos, pero buen video.

    • @ai.charly
      @ai.charly  27 дней назад

      @@pacashanaya ¡así es! Realmente hacer aplicaciones con IA no requiere mucho código. La mayor parte del código se va en el resto de la aplicación.

    • @pacashanaya
      @pacashanaya 27 дней назад

      @@ai.charly , ajam además con un framework para web, te generas un chat bot con tus datos, le abres el puerto y listo, casi contrario lo conectas con un chat bot y también es otra locura.