Editar este vídeo me tomó alrededor de 3 horas, más las horas invertidas en investigación, prueba y error para poder hacer cada app que subo pues se va un tiempo considerable. Si te gusta lo que vez, deja un comentario, y si no, también puedes dejarme uno para saber cómo mejorar, me gusta leerlos. 👍🏻
@@MrJeeoSoft Procesador: AMD Ryzen 7 4800H with Radeon Graphics GPU: NVIDIA GeForce RTX 2060 Memorias: SSD: 953GB (con 472GB usados) HDD: 931GB (con 98GB usados) Estas son las características de mi laptop. Pero ya te digo que solo corre llama, modelos como Gemma ya van más lento
@charlytoc132 Muchas gracias por tu respuesta! Claro, creo que a mi laptop le hace falta una placa de video, porque no consigo esa velocidad localmente jaja
@@MrJeeoSoft puede ser, la verdad es que correr modelos localmente requiere de ciertos requisitos mínimos de hardware (de momento), computadoras de última generación que ya vengan con chips NPU y procesadores más adaptados para IA van a ir mejor. Ya quiero echar mano a una nueva laptop que tenga estas características
Me parece que está muy bien. Como recomendación, ser cauteloso con los textos y otros en el video. Lo más importante es el contenido, no los mensajes secundarios.
¡Muchísimas gracias por tu comentario! Justo estoy pensando en grabar un vídeo y por mi mente pasaba la idea de ponerme a grabar uno y ya, pero creo que un vídeo mejor planeado puede ser bueno para las personas, e incluso para mí.
Gracias por tu tiempo y esfuerzo. El RAG es el mundo INDIE de la IA. Tenemos el potencial de google, microsoft, nvidia o chatgpt en nuestras manos. Somos responsables de acercar este mundo a los pequeños empresarios y adaptarlo a sus negocios o necesidades
¡Concuerdo completamente! De hecho he estado pensando en iniciar una empresa de desarrollo de software e implementación de soluciones con IA donde vivo porque aún no existe y tendría una ventaja competitiva, pero aún no he desarrollado suficiente la idea, este comentario me anima a darle un poco más de atención a la misma, uno debería aspirar a ganar más y ser tu propio jefe
@@ai.charly Suerte. Las empresas le gustan tener el control de sus propios datos, y que el resultado lo perciba como propio, eso los grandes no se lo pueden dar. Hay un gran nicho de mercado y como en todo tienen que percibir que si invierten le retornará un beneficio de cualquier tipo.
Muy interesante el video, para mi fue bastante difícil de entender. Estaria bueno ver la parte inicial del proyecto, de mi parte estoy comenzando con la programación y al parecer el resto de los que siguen tu canal tienen mucha experiencia, me sigue gustando tu manera de explicar, voy a seguir practicando para en algún momento llegar a este nivel. Saludos y exitos
¡Me gusta que haya gente que está empezando! De hecho estoy haciendo vídeos (aunque son para la empresa que trabajo) de Python, Javascript, HTML y CSS, luego quiero subir cursos acá también pero bueno, realmente trabajar de desarrollador y hacer videos puede ser algo demandante de tiempo, ¿qué estás estudiando?
Hola @@ai.charly , muchas gracias por tomarte el tiempo para responderme. Estoy estudiando tec en programacion, empecé la carrera este año, a mi me gustaria saber y ver cómo es tu forma de resolver un requerimiento de programación con algún ejemplo básico. No hay muchos videos con esas temáticas. Segui con esta forma de hacer los videos, tenes un diferencial con otros devtubers, te felicito!!!
@@diegoserlini6798 ¿qué es lo que sueles ver? ¿Qué tipo de cosas te gustaría que resolviera? Algo que realmente me interesa es ver lo que les gusta a las personas que comentan, eso es lo que al final hace crecer a una comunidad y lo tomo mucho en cuenta
@@ai.charly recien estoy comenzando con programación funcional utilizando diagramas de flujo. Tus videos son muy buenos, pero siento que me falta la parte en donde se te ocurre la idea y todo el proceso de iniciar un proyecto. Estuve viendo otro youtuber en ingles que empezó el challange de 100 días programando y explica la forma de encarar cada uno de los problemas. Espero que te sirva. Gracias x todo el tiempo que invertís para compartir tus conocimientos.
En lo que más me fijaría sería en el tamaño de los documentos. Un buen prompt te puede servir con cualquier modelo, pero en este caso si el documento es muy grande, te recomendaría modelos con un amplio contexto como Claude o GPT-4o, tambien podrías usar la API de Groq para usar Llama 70B pero el contexto de este es de 8 mil tokens, que te bastan para muchos documentos, pero no para todos. Entonces eso, si son muy grandes, modelos con amplio contexto (o también podrías picar el documento para que queda en el contexto de modelos más pequeños). Por otro lado aunque el contexto de entrada sea infinito, el output no, muchos modelos están restringidos a 4k tokens, entonces te vas a encontrar en que le pasas un documento gigante y te da solo una parte. Te recomendaría en ese caso que pienses tu lógica para solventar esta limitación orquestando las llamadas necesarias a la API para e ir concatenando el documento nuevo poco a poco. Para mayor velocidad te recomendaría ahora sí Groq que tiene una velocidad de inferencia brutal, y estoy seguro que Llama 70B puede entender una tarea para esta, además que te saldrá más barato que OpenAI o Anthropic. ¡Mucho éxito en tu proyecto! Si quieres ver cómo usar Groq mira un vídeo que hice que tiene un template con FastAPI + React y Groq
Excelente guía, me has iluminado, estoy con un proyecto de leer PDF de documentos escaneados, y se busca vincular llama, pero no funciona muy bien. Revisaré todos tus videos a ver si logro mejorar la lectura de estos documentos
`brew install llama` es algo que funciona en macos, porque Brew es un gestor de paquetes (de paquetes de HomeBrew) de forma parecida a lo que `apt` lo es en Ubuntu, así que no está alucinando nada. Solo que quizá debiste especificarle un poco más.
Acabo de ver el vídeo y me ha parecido de interés. Tras ver el repositorio me he encontrado con una duda que quisiera resolverla antes de sumergirme en la instalación, pruebas y posibles mejoras. ¿Los embeddings pueden generarse apartir de documentos en español?. ¿Hay que cambiar algo en el sistema de generación de embeddings si tenemos documentos escritos en distintos idiomas como Inglés y español?.
No realmente, eso sí, yo consideraría usar Groq, una API que usa LPU para aumentar la velocidad de generación y usar Llama 3 70B si es un proyecto que quieres para usuarios, ya que Llama 3 8B puede a veces responderte en inglés incluso si le pides que te hable en español. Cosas que se pueden hacer: modificar el prompt para que sea en español. Con respecto a los documentos, pueden estar en cualquier idioma realmente
@@homero2099 bueno, la mejor forma es modificar la forma en la que el RAG está funcionando y adaptarlo para tu caso de uso específico. Dependiendo de qué tipo de documento, su extensión, la IA que estés usando de fondo, se podrían ajustar el tamaño de los chunks, la cantidad de vectores para recibir cuando estés haciendo queries, o incluso los modelos de embeddings. Yo te recomendaría experimentar y pensar como humano, ¿de qué forma puedo yo guardar mi información para que sea más fácil encontrarla en el futuro? Responderlo, y llevarlo a código de vectores
Hola, podrías explicar por qué si usas llama tambi+en tienen que usar OpenAI? Cada vez que quiero hacer un proyecto que involucra OpenAI no puedo porque en el primer intento ya tengo el error "RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota..." y yo pensaba que si se usaba el modelo de Ollama no era necesario trabajar con OpenAI
@@nicobonder ¡claro! Fíjate, no es realmente necesario usar OpenAI para usar OpenWebUI o los modelos de Ollama en local, el tema es que si quieres usar los modelos de OpenAI necesitas una api key que esté asociada con una cuenta que tenga créditos, si no tienes créditos, te va a salir ese mensaje. Puedes recargar los créditos en la plataforma de OpenAI, busca en navegador: Platform OpenAI, el link empieza por platform.openai.com, allí puedes recargar tus créditos. No necesario usar los modelos de OpenAI al usar los de Ollama, pero dependiendo del caso puede ser conveniente ya que son buenos modelos y al no ejercutarse en tu máquina no necesitas poder de procesamiento. ¡Espero que la respuesta te haya servido!
¿Has probado hacerlo por tu cuenta? Podrías pedirle que retorne un JSON con las características que necesitas y usar el response_format="json" Aunque la verdad Lllama-3-8B no es lo mejor para usar tools
muy bueno el video, soy nuevo en IA y me sirvió mucho para arrancar con algo que sí funciona !! me quedaron archivos como vectors.py , server.py que no se bien como funcionan, estaría bueno alguna descripción, aunque ya aprenderé esa parte .. gracias saludos
¡Qué bueno que te haya gustado! Justo hoy, en unos minutos, sale otro de una app fullstack con IA, en este caso se incluye una interfaz de usuario con React, y hay un servidor con FastAPI como el que existe en este proyecto, ¡échale un ojo para que aprendas cosas nuevas!
Gracias por este excelente video, cuando puedas sería interesante, llevarlo a un Char personalizado, con acceso para varios usuarios con diferentes perfiles. Gracias Saludos.
por decir que cuando empiezas a trabajar con clases mo lo puedes dejar. aqui un fanatico de la prpgramacion funcional. por eso te tendre que dar like pero de mala gana 😤
@@juanmanuelmm2570 la funcional también es un buen paradigma, lo importante es que código que uno hace sea confiable y sirva para lo que se pretende. ¡Éxito en tus funciones y gracias por tu comentario!
@@ai.charly , ajam además con un framework para web, te generas un chat bot con tus datos, le abres el puerto y listo, casi contrario lo conectas con un chat bot y también es otra locura.
una acotación muy al margen, no se dice lama, de dice llama, respetando la doble l, el nombre esta inspirado en un animal de origen sudamericano (bolivia, peru, chile) que se llama, Llama, (se pronuncia yama, ya), nombre científico (Lama glama), es.wikipedia.org/wiki/Lama_glama
Editar este vídeo me tomó alrededor de 3 horas, más las horas invertidas en investigación, prueba y error para poder hacer cada app que subo pues se va un tiempo considerable.
Si te gusta lo que vez, deja un comentario, y si no, también puedes dejarme uno para saber cómo mejorar, me gusta leerlos. 👍🏻
¿Que hardware estás utilizando para correr llama tan rápido? Gracias!
@@MrJeeoSoft Procesador: AMD Ryzen 7 4800H with Radeon Graphics
GPU: NVIDIA GeForce RTX 2060
Memorias:
SSD: 953GB (con 472GB usados)
HDD: 931GB (con 98GB usados)
Estas son las características de mi laptop. Pero ya te digo que solo corre llama, modelos como Gemma ya van más lento
@charlytoc132 Muchas gracias por tu respuesta! Claro, creo que a mi laptop le hace falta una placa de video, porque no consigo esa velocidad localmente jaja
@@MrJeeoSoft puede ser, la verdad es que correr modelos localmente requiere de ciertos requisitos mínimos de hardware (de momento), computadoras de última generación que ya vengan con chips NPU y procesadores más adaptados para IA van a ir mejor. Ya quiero echar mano a una nueva laptop que tenga estas características
Hola amigo crees que me corra bien en un ryzen 5 5600g es solo la APU? GRACIAS
Me parece que está muy bien. Como recomendación, ser cauteloso con los textos y otros en el video. Lo más importante es el contenido, no los mensajes secundarios.
¡Muchísimas gracias por tu comentario! Justo estoy pensando en grabar un vídeo y por mi mente pasaba la idea de ponerme a grabar uno y ya, pero creo que un vídeo mejor planeado puede ser bueno para las personas, e incluso para mí.
Generalmente no hago guión ni nada, sino que simplemente me pongo a grabar y listo
Gracias por tu tiempo y esfuerzo. El RAG es el mundo INDIE de la IA. Tenemos el potencial de google, microsoft, nvidia o chatgpt en nuestras manos. Somos responsables de acercar este mundo a los pequeños empresarios y adaptarlo a sus negocios o necesidades
¡Concuerdo completamente! De hecho he estado pensando en iniciar una empresa de desarrollo de software e implementación de soluciones con IA donde vivo porque aún no existe y tendría una ventaja competitiva, pero aún no he desarrollado suficiente la idea, este comentario me anima a darle un poco más de atención a la misma, uno debería aspirar a ganar más y ser tu propio jefe
@@ai.charly Suerte. Las empresas le gustan tener el control de sus propios datos, y que el resultado lo perciba como propio, eso los grandes no se lo pueden dar. Hay un gran nicho de mercado y como en todo tienen que percibir que si invierten le retornará un beneficio de cualquier tipo.
Wooooowwww que genial!! Gracias!!!
@@rafaelcampoverde ¡muchas gracias por tu comentario!
La música fue una decisión defícil, creo que tengo el micrófono con mucha ganancia, tienen que bajarle un poco de volumen
Exelente video me hubiera gustado escuchar los comentarios sin alucinaciones del codigo jajaja nuevo sub
Muy interesante el video, para mi fue bastante difícil de entender. Estaria bueno ver la parte inicial del proyecto, de mi parte estoy comenzando con la programación y al parecer el resto de los que siguen tu canal tienen mucha experiencia, me sigue gustando tu manera de explicar, voy a seguir practicando para en algún momento llegar a este nivel. Saludos y exitos
¡Me gusta que haya gente que está empezando! De hecho estoy haciendo vídeos (aunque son para la empresa que trabajo) de Python, Javascript, HTML y CSS, luego quiero subir cursos acá también pero bueno, realmente trabajar de desarrollador y hacer videos puede ser algo demandante de tiempo, ¿qué estás estudiando?
Hola @@ai.charly , muchas gracias por tomarte el tiempo para responderme. Estoy estudiando tec en programacion, empecé la carrera este año, a mi me gustaria saber y ver cómo es tu forma de resolver un requerimiento de programación con algún ejemplo básico. No hay muchos videos con esas temáticas. Segui con esta forma de hacer los videos, tenes un diferencial con otros devtubers, te felicito!!!
@@diegoserlini6798 ¿qué es lo que sueles ver? ¿Qué tipo de cosas te gustaría que resolviera? Algo que realmente me interesa es ver lo que les gusta a las personas que comentan, eso es lo que al final hace crecer a una comunidad y lo tomo mucho en cuenta
@@ai.charly recien estoy comenzando con programación funcional utilizando diagramas de flujo. Tus videos son muy buenos, pero siento que me falta la parte en donde se te ocurre la idea y todo el proceso de iniciar un proyecto.
Estuve viendo otro youtuber en ingles que empezó el challange de 100 días programando y explica la forma de encarar cada uno de los problemas. Espero que te sirva. Gracias x todo el tiempo que invertís para compartir tus conocimientos.
@@diegoserlini6798 creo que debería hacer videos programando y no tanto mostrando proyectos a ver qué pasa
hola amigo excelente video, una consulta, que modelo recomendarías para un software de anonimizscion de documentos
En lo que más me fijaría sería en el tamaño de los documentos. Un buen prompt te puede servir con cualquier modelo, pero en este caso si el documento es muy grande, te recomendaría modelos con un amplio contexto como Claude o GPT-4o, tambien podrías usar la API de Groq para usar Llama 70B pero el contexto de este es de 8 mil tokens, que te bastan para muchos documentos, pero no para todos. Entonces eso, si son muy grandes, modelos con amplio contexto (o también podrías picar el documento para que queda en el contexto de modelos más pequeños).
Por otro lado aunque el contexto de entrada sea infinito, el output no, muchos modelos están restringidos a 4k tokens, entonces te vas a encontrar en que le pasas un documento gigante y te da solo una parte. Te recomendaría en ese caso que pienses tu lógica para solventar esta limitación orquestando las llamadas necesarias a la API para e ir concatenando el documento nuevo poco a poco. Para mayor velocidad te recomendaría ahora sí Groq que tiene una velocidad de inferencia brutal, y estoy seguro que Llama 70B puede entender una tarea para esta, además que te saldrá más barato que OpenAI o Anthropic.
¡Mucho éxito en tu proyecto! Si quieres ver cómo usar Groq mira un vídeo que hice que tiene un template con FastAPI + React y Groq
@@ai.charly muchas gracias por tu respuesta, hice pruebas con spacy pero no es suficiente no detecta bien los nombres, tal vez has usado spacy_llm?
Excelente guía, me has iluminado, estoy con un proyecto de leer PDF de documentos escaneados, y se busca vincular llama, pero no funciona muy bien.
Revisaré todos tus videos a ver si logro mejorar la lectura de estos documentos
@@martin_perez puedes contarme sobre tu proyecto y así lo tomo de inspiración 👌🏻
@@martin_perez o tus dudas, más bien
@@ai.charly dame tu correo para escribirte.
`brew install llama` es algo que funciona en macos, porque Brew es un gestor de paquetes (de paquetes de HomeBrew) de forma parecida a lo que `apt` lo es en Ubuntu, así que no está alucinando nada. Solo que quizá debiste especificarle un poco más.
correcto
Acabo de ver el vídeo y me ha parecido de interés. Tras ver el repositorio me he encontrado con una duda que quisiera resolverla antes de sumergirme en la instalación, pruebas y posibles mejoras. ¿Los embeddings pueden generarse apartir de documentos en español?. ¿Hay que cambiar algo en el sistema de generación de embeddings si tenemos documentos escritos en distintos idiomas como Inglés y español?.
No realmente, eso sí, yo consideraría usar Groq, una API que usa LPU para aumentar la velocidad de generación y usar Llama 3 70B si es un proyecto que quieres para usuarios, ya que Llama 3 8B puede a veces responderte en inglés incluso si le pides que te hable en español.
Cosas que se pueden hacer: modificar el prompt para que sea en español. Con respecto a los documentos, pueden estar en cualquier idioma realmente
Meti 20 documentos y me revolvio la data a la hora de contestar. Como puedo mejorar o controlar eso cuando hago el rag? Muchas gracias.
@@homero2099 bueno, la mejor forma es modificar la forma en la que el RAG está funcionando y adaptarlo para tu caso de uso específico. Dependiendo de qué tipo de documento, su extensión, la IA que estés usando de fondo, se podrían ajustar el tamaño de los chunks, la cantidad de vectores para recibir cuando estés haciendo queries, o incluso los modelos de embeddings. Yo te recomendaría experimentar y pensar como humano, ¿de qué forma puedo yo guardar mi información para que sea más fácil encontrarla en el futuro? Responderlo, y llevarlo a código de vectores
Hola, podrías explicar por qué si usas llama tambi+en tienen que usar OpenAI? Cada vez que quiero hacer un proyecto que involucra OpenAI no puedo porque en el primer intento ya tengo el error "RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota..." y yo pensaba que si se usaba el modelo de Ollama no era necesario trabajar con OpenAI
@@nicobonder ¡claro! Fíjate, no es realmente necesario usar OpenAI para usar OpenWebUI o los modelos de Ollama en local, el tema es que si quieres usar los modelos de OpenAI necesitas una api key que esté asociada con una cuenta que tenga créditos, si no tienes créditos, te va a salir ese mensaje. Puedes recargar los créditos en la plataforma de OpenAI, busca en navegador: Platform OpenAI, el link empieza por platform.openai.com, allí puedes recargar tus créditos. No necesario usar los modelos de OpenAI al usar los de Ollama, pero dependiendo del caso puede ser conveniente ya que son buenos modelos y al no ejercutarse en tu máquina no necesitas poder de procesamiento.
¡Espero que la respuesta te haya servido!
Estoy tratando de usar tools en ollama, aun esta difícil. Creo que debo entrenar una IA en español. Gracias por tu video.
¿Has probado hacerlo por tu cuenta? Podrías pedirle que retorne un JSON con las características que necesitas y usar el response_format="json"
Aunque la verdad Lllama-3-8B no es lo mejor para usar tools
muy bueno el video, soy nuevo en IA y me sirvió mucho para arrancar con algo que sí funciona !! me quedaron archivos como vectors.py , server.py que no se bien como funcionan, estaría bueno alguna descripción, aunque ya aprenderé esa parte .. gracias saludos
¡Qué bueno que te haya gustado! Justo hoy, en unos minutos, sale otro de una app fullstack con IA, en este caso se incluye una interfaz de usuario con React, y hay un servidor con FastAPI como el que existe en este proyecto, ¡échale un ojo para que aprendas cosas nuevas!
Muchas gracias. Sería interesante unos videos de Langchain / LangChain Expression Language (LCEL) /Langgraph
podrias hacer videos de como usar los LLM con open web ui
Gracias por este excelente video, cuando puedas sería interesante, llevarlo a un Char personalizado, con acceso para varios usuarios con diferentes perfiles. Gracias Saludos.
por decir que cuando empiezas a trabajar con clases mo lo puedes dejar. aqui un fanatico de la prpgramacion funcional. por eso te tendre que dar like pero de mala gana 😤
@@juanmanuelmm2570 la funcional también es un buen paradigma, lo importante es que código que uno hace sea confiable y sirva para lo que se pretende. ¡Éxito en tus funciones y gracias por tu comentario!
Dado que los términos que usan son bien nuevos para mi , tendré que primero saberlos para entenderte.
@@Edos-s1y ¿qué términos se te hicieron complicados de entender?
Ahmmm en realidad, todo se resume en 25 líneas de código sin exagerar usando tanto embeddings, locales como externos, pero buen video.
@@pacashanaya ¡así es! Realmente hacer aplicaciones con IA no requiere mucho código. La mayor parte del código se va en el resto de la aplicación.
@@ai.charly , ajam además con un framework para web, te generas un chat bot con tus datos, le abres el puerto y listo, casi contrario lo conectas con un chat bot y también es otra locura.
una acotación muy al margen, no se dice lama, de dice llama, respetando la doble l, el nombre esta inspirado en un animal de origen sudamericano (bolivia, peru, chile) que se llama, Llama, (se pronuncia yama, ya), nombre científico (Lama glama), es.wikipedia.org/wiki/Lama_glama