🦙COMO AGREGAR DOCUMENTOS A LLAMA 3 8B en LOCAL - RAG con CHROMA - 100% PRIVADO Y GRATIS ✅REPO

Поделиться
HTML-код
  • Опубликовано: 24 дек 2024

Комментарии • 53

  • @ai.charly
    @ai.charly  7 месяцев назад +10

    Editar este vídeo me tomó alrededor de 3 horas, más las horas invertidas en investigación, prueba y error para poder hacer cada app que subo pues se va un tiempo considerable.
    Si te gusta lo que vez, deja un comentario, y si no, también puedes dejarme uno para saber cómo mejorar, me gusta leerlos. 👍🏻

    • @MrJeeoSoft
      @MrJeeoSoft 5 месяцев назад +1

      ¿Que hardware estás utilizando para correr llama tan rápido? Gracias!

    • @ai.charly
      @ai.charly  5 месяцев назад +1

      @@MrJeeoSoft Procesador: AMD Ryzen 7 4800H with Radeon Graphics
      GPU: NVIDIA GeForce RTX 2060
      Memorias:
      SSD: 953GB (con 472GB usados)
      HDD: 931GB (con 98GB usados)
      Estas son las características de mi laptop. Pero ya te digo que solo corre llama, modelos como Gemma ya van más lento

    • @MrJeeoSoft
      @MrJeeoSoft 5 месяцев назад +1

      ​ @charlytoc132 Muchas gracias por tu respuesta! Claro, creo que a mi laptop le hace falta una placa de video, porque no consigo esa velocidad localmente jaja

    • @ai.charly
      @ai.charly  5 месяцев назад

      @@MrJeeoSoft puede ser, la verdad es que correr modelos localmente requiere de ciertos requisitos mínimos de hardware (de momento), computadoras de última generación que ya vengan con chips NPU y procesadores más adaptados para IA van a ir mejor. Ya quiero echar mano a una nueva laptop que tenga estas características

    • @emanuelr9815
      @emanuelr9815 4 месяца назад +1

      Hola amigo crees que me corra bien en un ryzen 5 5600g es solo la APU? GRACIAS

  • @oscarcentenomora
    @oscarcentenomora 28 дней назад +1

    Me parece que está muy bien. Como recomendación, ser cauteloso con los textos y otros en el video. Lo más importante es el contenido, no los mensajes secundarios.

    • @ai.charly
      @ai.charly  28 дней назад

      ¡Muchísimas gracias por tu comentario! Justo estoy pensando en grabar un vídeo y por mi mente pasaba la idea de ponerme a grabar uno y ya, pero creo que un vídeo mejor planeado puede ser bueno para las personas, e incluso para mí.

    • @ai.charly
      @ai.charly  28 дней назад

      Generalmente no hago guión ni nada, sino que simplemente me pongo a grabar y listo

  • @accipiter_nisus
    @accipiter_nisus 7 месяцев назад +5

    Gracias por tu tiempo y esfuerzo. El RAG es el mundo INDIE de la IA. Tenemos el potencial de google, microsoft, nvidia o chatgpt en nuestras manos. Somos responsables de acercar este mundo a los pequeños empresarios y adaptarlo a sus negocios o necesidades

    • @ai.charly
      @ai.charly  7 месяцев назад +2

      ¡Concuerdo completamente! De hecho he estado pensando en iniciar una empresa de desarrollo de software e implementación de soluciones con IA donde vivo porque aún no existe y tendría una ventaja competitiva, pero aún no he desarrollado suficiente la idea, este comentario me anima a darle un poco más de atención a la misma, uno debería aspirar a ganar más y ser tu propio jefe

    • @accipiter_nisus
      @accipiter_nisus 7 месяцев назад +1

      @@ai.charly Suerte. Las empresas le gustan tener el control de sus propios datos, y que el resultado lo perciba como propio, eso los grandes no se lo pueden dar. Hay un gran nicho de mercado y como en todo tienen que percibir que si invierten le retornará un beneficio de cualquier tipo.

  • @rafaelcampoverde
    @rafaelcampoverde 29 дней назад +1

    Wooooowwww que genial!! Gracias!!!

    • @ai.charly
      @ai.charly  29 дней назад

      @@rafaelcampoverde ¡muchas gracias por tu comentario!

  • @ai.charly
    @ai.charly  7 месяцев назад +3

    La música fue una decisión defícil, creo que tengo el micrófono con mucha ganancia, tienen que bajarle un poco de volumen

  • @antonioislasromero5539
    @antonioislasromero5539 5 месяцев назад +2

    Exelente video me hubiera gustado escuchar los comentarios sin alucinaciones del codigo jajaja nuevo sub

  • @diegoserlini6798
    @diegoserlini6798 7 месяцев назад +1

    Muy interesante el video, para mi fue bastante difícil de entender. Estaria bueno ver la parte inicial del proyecto, de mi parte estoy comenzando con la programación y al parecer el resto de los que siguen tu canal tienen mucha experiencia, me sigue gustando tu manera de explicar, voy a seguir practicando para en algún momento llegar a este nivel. Saludos y exitos

    • @ai.charly
      @ai.charly  7 месяцев назад +1

      ¡Me gusta que haya gente que está empezando! De hecho estoy haciendo vídeos (aunque son para la empresa que trabajo) de Python, Javascript, HTML y CSS, luego quiero subir cursos acá también pero bueno, realmente trabajar de desarrollador y hacer videos puede ser algo demandante de tiempo, ¿qué estás estudiando?

    • @diegoserlini6798
      @diegoserlini6798 7 месяцев назад

      Hola @@ai.charly , muchas gracias por tomarte el tiempo para responderme. Estoy estudiando tec en programacion, empecé la carrera este año, a mi me gustaria saber y ver cómo es tu forma de resolver un requerimiento de programación con algún ejemplo básico. No hay muchos videos con esas temáticas. Segui con esta forma de hacer los videos, tenes un diferencial con otros devtubers, te felicito!!!

    • @ai.charly
      @ai.charly  7 месяцев назад +1

      @@diegoserlini6798 ¿qué es lo que sueles ver? ¿Qué tipo de cosas te gustaría que resolviera? Algo que realmente me interesa es ver lo que les gusta a las personas que comentan, eso es lo que al final hace crecer a una comunidad y lo tomo mucho en cuenta

    • @diegoserlini6798
      @diegoserlini6798 7 месяцев назад +1

      @@ai.charly recien estoy comenzando con programación funcional utilizando diagramas de flujo. Tus videos son muy buenos, pero siento que me falta la parte en donde se te ocurre la idea y todo el proceso de iniciar un proyecto.
      Estuve viendo otro youtuber en ingles que empezó el challange de 100 días programando y explica la forma de encarar cada uno de los problemas. Espero que te sirva. Gracias x todo el tiempo que invertís para compartir tus conocimientos.

    • @ai.charly
      @ai.charly  7 месяцев назад +1

      @@diegoserlini6798 creo que debería hacer videos programando y no tanto mostrando proyectos a ver qué pasa

  • @sanventrutoube
    @sanventrutoube 6 месяцев назад +2

    hola amigo excelente video, una consulta, que modelo recomendarías para un software de anonimizscion de documentos

    • @ai.charly
      @ai.charly  6 месяцев назад +1

      En lo que más me fijaría sería en el tamaño de los documentos. Un buen prompt te puede servir con cualquier modelo, pero en este caso si el documento es muy grande, te recomendaría modelos con un amplio contexto como Claude o GPT-4o, tambien podrías usar la API de Groq para usar Llama 70B pero el contexto de este es de 8 mil tokens, que te bastan para muchos documentos, pero no para todos. Entonces eso, si son muy grandes, modelos con amplio contexto (o también podrías picar el documento para que queda en el contexto de modelos más pequeños).
      Por otro lado aunque el contexto de entrada sea infinito, el output no, muchos modelos están restringidos a 4k tokens, entonces te vas a encontrar en que le pasas un documento gigante y te da solo una parte. Te recomendaría en ese caso que pienses tu lógica para solventar esta limitación orquestando las llamadas necesarias a la API para e ir concatenando el documento nuevo poco a poco. Para mayor velocidad te recomendaría ahora sí Groq que tiene una velocidad de inferencia brutal, y estoy seguro que Llama 70B puede entender una tarea para esta, además que te saldrá más barato que OpenAI o Anthropic.
      ¡Mucho éxito en tu proyecto! Si quieres ver cómo usar Groq mira un vídeo que hice que tiene un template con FastAPI + React y Groq

    • @sanventrutoube
      @sanventrutoube 6 месяцев назад

      @@ai.charly muchas gracias por tu respuesta, hice pruebas con spacy pero no es suficiente no detecta bien los nombres, tal vez has usado spacy_llm?

  • @martin_perez
    @martin_perez 5 месяцев назад +1

    Excelente guía, me has iluminado, estoy con un proyecto de leer PDF de documentos escaneados, y se busca vincular llama, pero no funciona muy bien.
    Revisaré todos tus videos a ver si logro mejorar la lectura de estos documentos

    • @ai.charly
      @ai.charly  5 месяцев назад +1

      @@martin_perez puedes contarme sobre tu proyecto y así lo tomo de inspiración 👌🏻

    • @ai.charly
      @ai.charly  5 месяцев назад

      @@martin_perez o tus dudas, más bien

    • @martin_perez
      @martin_perez 5 месяцев назад

      @@ai.charly dame tu correo para escribirte.

  • @drackp2m
    @drackp2m 5 месяцев назад +3

    `brew install llama` es algo que funciona en macos, porque Brew es un gestor de paquetes (de paquetes de HomeBrew) de forma parecida a lo que `apt` lo es en Ubuntu, así que no está alucinando nada. Solo que quizá debiste especificarle un poco más.

  • @ai_ai4715
    @ai_ai4715 7 месяцев назад +1

    Acabo de ver el vídeo y me ha parecido de interés. Tras ver el repositorio me he encontrado con una duda que quisiera resolverla antes de sumergirme en la instalación, pruebas y posibles mejoras. ¿Los embeddings pueden generarse apartir de documentos en español?. ¿Hay que cambiar algo en el sistema de generación de embeddings si tenemos documentos escritos en distintos idiomas como Inglés y español?.

    • @ai.charly
      @ai.charly  7 месяцев назад

      No realmente, eso sí, yo consideraría usar Groq, una API que usa LPU para aumentar la velocidad de generación y usar Llama 3 70B si es un proyecto que quieres para usuarios, ya que Llama 3 8B puede a veces responderte en inglés incluso si le pides que te hable en español.
      Cosas que se pueden hacer: modificar el prompt para que sea en español. Con respecto a los documentos, pueden estar en cualquier idioma realmente

  • @homero2099
    @homero2099 2 месяца назад +1

    Meti 20 documentos y me revolvio la data a la hora de contestar. Como puedo mejorar o controlar eso cuando hago el rag? Muchas gracias.

    • @ai.charly
      @ai.charly  2 месяца назад

      @@homero2099 bueno, la mejor forma es modificar la forma en la que el RAG está funcionando y adaptarlo para tu caso de uso específico. Dependiendo de qué tipo de documento, su extensión, la IA que estés usando de fondo, se podrían ajustar el tamaño de los chunks, la cantidad de vectores para recibir cuando estés haciendo queries, o incluso los modelos de embeddings. Yo te recomendaría experimentar y pensar como humano, ¿de qué forma puedo yo guardar mi información para que sea más fácil encontrarla en el futuro? Responderlo, y llevarlo a código de vectores

  • @nicobonder
    @nicobonder Месяц назад

    Hola, podrías explicar por qué si usas llama tambi+en tienen que usar OpenAI? Cada vez que quiero hacer un proyecto que involucra OpenAI no puedo porque en el primer intento ya tengo el error "RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota..." y yo pensaba que si se usaba el modelo de Ollama no era necesario trabajar con OpenAI

    • @ai.charly
      @ai.charly  Месяц назад

      @@nicobonder ¡claro! Fíjate, no es realmente necesario usar OpenAI para usar OpenWebUI o los modelos de Ollama en local, el tema es que si quieres usar los modelos de OpenAI necesitas una api key que esté asociada con una cuenta que tenga créditos, si no tienes créditos, te va a salir ese mensaje. Puedes recargar los créditos en la plataforma de OpenAI, busca en navegador: Platform OpenAI, el link empieza por platform.openai.com, allí puedes recargar tus créditos. No necesario usar los modelos de OpenAI al usar los de Ollama, pero dependiendo del caso puede ser conveniente ya que son buenos modelos y al no ejercutarse en tu máquina no necesitas poder de procesamiento.
      ¡Espero que la respuesta te haya servido!

  • @humbertozambrano8556
    @humbertozambrano8556 5 месяцев назад +1

    Estoy tratando de usar tools en ollama, aun esta difícil. Creo que debo entrenar una IA en español. Gracias por tu video.

    • @ai.charly
      @ai.charly  5 месяцев назад

      ¿Has probado hacerlo por tu cuenta? Podrías pedirle que retorne un JSON con las características que necesitas y usar el response_format="json"
      Aunque la verdad Lllama-3-8B no es lo mejor para usar tools

  • @Matias643
    @Matias643 7 месяцев назад +1

    muy bueno el video, soy nuevo en IA y me sirvió mucho para arrancar con algo que sí funciona !! me quedaron archivos como vectors.py , server.py que no se bien como funcionan, estaría bueno alguna descripción, aunque ya aprenderé esa parte .. gracias saludos

    • @ai.charly
      @ai.charly  7 месяцев назад

      ¡Qué bueno que te haya gustado! Justo hoy, en unos minutos, sale otro de una app fullstack con IA, en este caso se incluye una interfaz de usuario con React, y hay un servidor con FastAPI como el que existe en este proyecto, ¡échale un ojo para que aprendas cosas nuevas!

  • @fernandofrias8322
    @fernandofrias8322 6 месяцев назад +1

    Muchas gracias. Sería interesante unos videos de Langchain / LangChain Expression Language (LCEL) /Langgraph

  • @abstractmusic7583
    @abstractmusic7583 6 месяцев назад +1

    podrias hacer videos de como usar los LLM con open web ui

  • @martinVas-se6gs
    @martinVas-se6gs 6 месяцев назад

    Gracias por este excelente video, cuando puedas sería interesante, llevarlo a un Char personalizado, con acceso para varios usuarios con diferentes perfiles. Gracias Saludos.

  • @juanmanuelmm2570
    @juanmanuelmm2570 2 месяца назад +1

    por decir que cuando empiezas a trabajar con clases mo lo puedes dejar. aqui un fanatico de la prpgramacion funcional. por eso te tendre que dar like pero de mala gana 😤

    • @ai.charly
      @ai.charly  2 месяца назад

      @@juanmanuelmm2570 la funcional también es un buen paradigma, lo importante es que código que uno hace sea confiable y sirva para lo que se pretende. ¡Éxito en tus funciones y gracias por tu comentario!

  • @Edos-s1y
    @Edos-s1y Месяц назад +1

    Dado que los términos que usan son bien nuevos para mi , tendré que primero saberlos para entenderte.

    • @ai.charly
      @ai.charly  Месяц назад

      @@Edos-s1y ¿qué términos se te hicieron complicados de entender?

  • @pacashanaya
    @pacashanaya 4 месяца назад +1

    Ahmmm en realidad, todo se resume en 25 líneas de código sin exagerar usando tanto embeddings, locales como externos, pero buen video.

    • @ai.charly
      @ai.charly  4 месяца назад

      @@pacashanaya ¡así es! Realmente hacer aplicaciones con IA no requiere mucho código. La mayor parte del código se va en el resto de la aplicación.

    • @pacashanaya
      @pacashanaya 4 месяца назад

      @@ai.charly , ajam además con un framework para web, te generas un chat bot con tus datos, le abres el puerto y listo, casi contrario lo conectas con un chat bot y también es otra locura.

  • @ur3an0
    @ur3an0 3 месяца назад +2

    una acotación muy al margen, no se dice lama, de dice llama, respetando la doble l, el nombre esta inspirado en un animal de origen sudamericano (bolivia, peru, chile) que se llama, Llama, (se pronuncia yama, ya), nombre científico (Lama glama), es.wikipedia.org/wiki/Lama_glama