Editar este vídeo me tomó alrededor de 3 horas, más las horas invertidas en investigación, prueba y error para poder hacer cada app que subo pues se va un tiempo considerable. Si te gusta lo que vez, deja un comentario, y si no, también puedes dejarme uno para saber cómo mejorar, me gusta leerlos. 👍🏻
@@MrJeeoSoft Procesador: AMD Ryzen 7 4800H with Radeon Graphics GPU: NVIDIA GeForce RTX 2060 Memorias: SSD: 953GB (con 472GB usados) HDD: 931GB (con 98GB usados) Estas son las características de mi laptop. Pero ya te digo que solo corre llama, modelos como Gemma ya van más lento
@charlytoc132 Muchas gracias por tu respuesta! Claro, creo que a mi laptop le hace falta una placa de video, porque no consigo esa velocidad localmente jaja
@@MrJeeoSoft puede ser, la verdad es que correr modelos localmente requiere de ciertos requisitos mínimos de hardware (de momento), computadoras de última generación que ya vengan con chips NPU y procesadores más adaptados para IA van a ir mejor. Ya quiero echar mano a una nueva laptop que tenga estas características
Gracias por tu tiempo y esfuerzo. El RAG es el mundo INDIE de la IA. Tenemos el potencial de google, microsoft, nvidia o chatgpt en nuestras manos. Somos responsables de acercar este mundo a los pequeños empresarios y adaptarlo a sus negocios o necesidades
¡Concuerdo completamente! De hecho he estado pensando en iniciar una empresa de desarrollo de software e implementación de soluciones con IA donde vivo porque aún no existe y tendría una ventaja competitiva, pero aún no he desarrollado suficiente la idea, este comentario me anima a darle un poco más de atención a la misma, uno debería aspirar a ganar más y ser tu propio jefe
@@ai.charly Suerte. Las empresas le gustan tener el control de sus propios datos, y que el resultado lo perciba como propio, eso los grandes no se lo pueden dar. Hay un gran nicho de mercado y como en todo tienen que percibir que si invierten le retornará un beneficio de cualquier tipo.
Me parece que está muy bien. Como recomendación, ser cauteloso con los textos y otros en el video. Lo más importante es el contenido, no los mensajes secundarios.
¡Muchísimas gracias por tu comentario! Justo estoy pensando en grabar un vídeo y por mi mente pasaba la idea de ponerme a grabar uno y ya, pero creo que un vídeo mejor planeado puede ser bueno para las personas, e incluso para mí.
`brew install llama` es algo que funciona en macos, porque Brew es un gestor de paquetes (de paquetes de HomeBrew) de forma parecida a lo que `apt` lo es en Ubuntu, así que no está alucinando nada. Solo que quizá debiste especificarle un poco más.
Muy interesante el video, para mi fue bastante difícil de entender. Estaria bueno ver la parte inicial del proyecto, de mi parte estoy comenzando con la programación y al parecer el resto de los que siguen tu canal tienen mucha experiencia, me sigue gustando tu manera de explicar, voy a seguir practicando para en algún momento llegar a este nivel. Saludos y exitos
¡Me gusta que haya gente que está empezando! De hecho estoy haciendo vídeos (aunque son para la empresa que trabajo) de Python, Javascript, HTML y CSS, luego quiero subir cursos acá también pero bueno, realmente trabajar de desarrollador y hacer videos puede ser algo demandante de tiempo, ¿qué estás estudiando?
Hola @@ai.charly , muchas gracias por tomarte el tiempo para responderme. Estoy estudiando tec en programacion, empecé la carrera este año, a mi me gustaria saber y ver cómo es tu forma de resolver un requerimiento de programación con algún ejemplo básico. No hay muchos videos con esas temáticas. Segui con esta forma de hacer los videos, tenes un diferencial con otros devtubers, te felicito!!!
@@diegoserlini6798 ¿qué es lo que sueles ver? ¿Qué tipo de cosas te gustaría que resolviera? Algo que realmente me interesa es ver lo que les gusta a las personas que comentan, eso es lo que al final hace crecer a una comunidad y lo tomo mucho en cuenta
@@ai.charly recien estoy comenzando con programación funcional utilizando diagramas de flujo. Tus videos son muy buenos, pero siento que me falta la parte en donde se te ocurre la idea y todo el proceso de iniciar un proyecto. Estuve viendo otro youtuber en ingles que empezó el challange de 100 días programando y explica la forma de encarar cada uno de los problemas. Espero que te sirva. Gracias x todo el tiempo que invertís para compartir tus conocimientos.
Excelente guía, me has iluminado, estoy con un proyecto de leer PDF de documentos escaneados, y se busca vincular llama, pero no funciona muy bien. Revisaré todos tus videos a ver si logro mejorar la lectura de estos documentos
¿Has probado hacerlo por tu cuenta? Podrías pedirle que retorne un JSON con las características que necesitas y usar el response_format="json" Aunque la verdad Lllama-3-8B no es lo mejor para usar tools
En lo que más me fijaría sería en el tamaño de los documentos. Un buen prompt te puede servir con cualquier modelo, pero en este caso si el documento es muy grande, te recomendaría modelos con un amplio contexto como Claude o GPT-4o, tambien podrías usar la API de Groq para usar Llama 70B pero el contexto de este es de 8 mil tokens, que te bastan para muchos documentos, pero no para todos. Entonces eso, si son muy grandes, modelos con amplio contexto (o también podrías picar el documento para que queda en el contexto de modelos más pequeños). Por otro lado aunque el contexto de entrada sea infinito, el output no, muchos modelos están restringidos a 4k tokens, entonces te vas a encontrar en que le pasas un documento gigante y te da solo una parte. Te recomendaría en ese caso que pienses tu lógica para solventar esta limitación orquestando las llamadas necesarias a la API para e ir concatenando el documento nuevo poco a poco. Para mayor velocidad te recomendaría ahora sí Groq que tiene una velocidad de inferencia brutal, y estoy seguro que Llama 70B puede entender una tarea para esta, además que te saldrá más barato que OpenAI o Anthropic. ¡Mucho éxito en tu proyecto! Si quieres ver cómo usar Groq mira un vídeo que hice que tiene un template con FastAPI + React y Groq
muy bueno el video, soy nuevo en IA y me sirvió mucho para arrancar con algo que sí funciona !! me quedaron archivos como vectors.py , server.py que no se bien como funcionan, estaría bueno alguna descripción, aunque ya aprenderé esa parte .. gracias saludos
¡Qué bueno que te haya gustado! Justo hoy, en unos minutos, sale otro de una app fullstack con IA, en este caso se incluye una interfaz de usuario con React, y hay un servidor con FastAPI como el que existe en este proyecto, ¡échale un ojo para que aprendas cosas nuevas!
Gracias por este excelente video, cuando puedas sería interesante, llevarlo a un Char personalizado, con acceso para varios usuarios con diferentes perfiles. Gracias Saludos.
Acabo de ver el vídeo y me ha parecido de interés. Tras ver el repositorio me he encontrado con una duda que quisiera resolverla antes de sumergirme en la instalación, pruebas y posibles mejoras. ¿Los embeddings pueden generarse apartir de documentos en español?. ¿Hay que cambiar algo en el sistema de generación de embeddings si tenemos documentos escritos en distintos idiomas como Inglés y español?.
No realmente, eso sí, yo consideraría usar Groq, una API que usa LPU para aumentar la velocidad de generación y usar Llama 3 70B si es un proyecto que quieres para usuarios, ya que Llama 3 8B puede a veces responderte en inglés incluso si le pides que te hable en español. Cosas que se pueden hacer: modificar el prompt para que sea en español. Con respecto a los documentos, pueden estar en cualquier idioma realmente
@@homero2099 bueno, la mejor forma es modificar la forma en la que el RAG está funcionando y adaptarlo para tu caso de uso específico. Dependiendo de qué tipo de documento, su extensión, la IA que estés usando de fondo, se podrían ajustar el tamaño de los chunks, la cantidad de vectores para recibir cuando estés haciendo queries, o incluso los modelos de embeddings. Yo te recomendaría experimentar y pensar como humano, ¿de qué forma puedo yo guardar mi información para que sea más fácil encontrarla en el futuro? Responderlo, y llevarlo a código de vectores
Hola, podrías explicar por qué si usas llama tambi+en tienen que usar OpenAI? Cada vez que quiero hacer un proyecto que involucra OpenAI no puedo porque en el primer intento ya tengo el error "RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota..." y yo pensaba que si se usaba el modelo de Ollama no era necesario trabajar con OpenAI
@@nicobonder ¡claro! Fíjate, no es realmente necesario usar OpenAI para usar OpenWebUI o los modelos de Ollama en local, el tema es que si quieres usar los modelos de OpenAI necesitas una api key que esté asociada con una cuenta que tenga créditos, si no tienes créditos, te va a salir ese mensaje. Puedes recargar los créditos en la plataforma de OpenAI, busca en navegador: Platform OpenAI, el link empieza por platform.openai.com, allí puedes recargar tus créditos. No necesario usar los modelos de OpenAI al usar los de Ollama, pero dependiendo del caso puede ser conveniente ya que son buenos modelos y al no ejercutarse en tu máquina no necesitas poder de procesamiento. ¡Espero que la respuesta te haya servido!
por decir que cuando empiezas a trabajar con clases mo lo puedes dejar. aqui un fanatico de la prpgramacion funcional. por eso te tendre que dar like pero de mala gana 😤
@@juanmanuelmm2570 la funcional también es un buen paradigma, lo importante es que código que uno hace sea confiable y sirva para lo que se pretende. ¡Éxito en tus funciones y gracias por tu comentario!
@@ai.charly , ajam además con un framework para web, te generas un chat bot con tus datos, le abres el puerto y listo, casi contrario lo conectas con un chat bot y también es otra locura.
El mejor tutorial para no entender nada xD Se nota que sabes, pero la edición no es lo tuyo, ha sido un vídeo caótico y con tanta edición me ha mareado. La explicación no es clara del todo, aunque repito es un vídeo agridulce porque como el tuyo no he visto ninguno en el sentido que eres el único que ha dado en el quiz de que no todos los embedings sirven para todos los documentos. Yo use el notebooklm con un pdf de derecho penal y se supone que podías preguntarle y no me contestaba bien. Pense que serían los embeding o chunks o lo que sea, no tengo conocimineto suficiente. Seria mejor un video mas visual sobre como refinar y visualizar lo que guarda la IA o como lo guarda y como ir procesandoselo o modificando para que nos responda como queremos. Al final me he perdido con tanto codigo y edición que has metido. Te felicito porque te lo has currado y se nota que eres muy bueno!
@javaboy6581 ¡gracias por tu comentario! La verdad es que aún estoy en proceso, muchas veces no tengo mucho tiempo para los vídeos, ¡en el futuro planeo contratar un editor para los vídeos para que suban de calidad! Es un proceso iterativo, ir aprendiendo de los errores, los comentarios, empezar a trabajar de una forma más estructurada y así. Puedes dejar tus dudas para próximos vídeos, en el 2025 planeo subir con mayor regularidad y cada vez ir mejorando la calidad de los vídeos. ¡Gracias por comentar!
@@ai.charly De nada charly, y espero que no sonase hiriente mi comentario, lo lance porque te vi potencial si no simplemente hubiera puesto mi dislike, pero creo que vas a progresar mucho en esto y te haras mucho mejor. Lo que mas me gusta y no veo es lo que te he comentado, los RAG locales y con IA locales. Para meterle el PDF a openai o usar RAG de pago vale cualquier tuto, pero tenerlo todo en local es lo que la gente que no quiere perder intimidad queremos y de eso solo hay lo tipico de montar llm y tuto rapido de como hacer un RAG que ya te digo que NUNCA FUNCIONA ya que pienso que hay que tratar los datos o mejorar los chunks o lo que sea y eso nadie lo explica y pienso que es porque no saben realmente y me dio la sensacion de que tu si sabrías o por lo menos investigarias y nos enseñarias porque tienes energia para eso y mas! Apoyo tu canal desde ya!
@javaboy6581 ¡no te preocupes! Yo considero que cada persona tiene su forma de expresarse y no sentí realmente como un ataque tu comentario o algo así, me tomo las cosas de forma relajada. Prepárate porque para Enero tengo pensados más vídeos de IA en local y uno dedicado exclusivamente a Bases de datos vectoriales
una acotación muy al margen, no se dice lama, de dice llama, respetando la doble l, el nombre esta inspirado en un animal de origen sudamericano (bolivia, peru, chile) que se llama, Llama, (se pronuncia yama, ya), nombre científico (Lama glama), es.wikipedia.org/wiki/Lama_glama
Editar este vídeo me tomó alrededor de 3 horas, más las horas invertidas en investigación, prueba y error para poder hacer cada app que subo pues se va un tiempo considerable.
Si te gusta lo que vez, deja un comentario, y si no, también puedes dejarme uno para saber cómo mejorar, me gusta leerlos. 👍🏻
¿Que hardware estás utilizando para correr llama tan rápido? Gracias!
@@MrJeeoSoft Procesador: AMD Ryzen 7 4800H with Radeon Graphics
GPU: NVIDIA GeForce RTX 2060
Memorias:
SSD: 953GB (con 472GB usados)
HDD: 931GB (con 98GB usados)
Estas son las características de mi laptop. Pero ya te digo que solo corre llama, modelos como Gemma ya van más lento
@charlytoc132 Muchas gracias por tu respuesta! Claro, creo que a mi laptop le hace falta una placa de video, porque no consigo esa velocidad localmente jaja
@@MrJeeoSoft puede ser, la verdad es que correr modelos localmente requiere de ciertos requisitos mínimos de hardware (de momento), computadoras de última generación que ya vengan con chips NPU y procesadores más adaptados para IA van a ir mejor. Ya quiero echar mano a una nueva laptop que tenga estas características
Hola amigo crees que me corra bien en un ryzen 5 5600g es solo la APU? GRACIAS
Gracias por tu tiempo y esfuerzo. El RAG es el mundo INDIE de la IA. Tenemos el potencial de google, microsoft, nvidia o chatgpt en nuestras manos. Somos responsables de acercar este mundo a los pequeños empresarios y adaptarlo a sus negocios o necesidades
¡Concuerdo completamente! De hecho he estado pensando en iniciar una empresa de desarrollo de software e implementación de soluciones con IA donde vivo porque aún no existe y tendría una ventaja competitiva, pero aún no he desarrollado suficiente la idea, este comentario me anima a darle un poco más de atención a la misma, uno debería aspirar a ganar más y ser tu propio jefe
@@ai.charly Suerte. Las empresas le gustan tener el control de sus propios datos, y que el resultado lo perciba como propio, eso los grandes no se lo pueden dar. Hay un gran nicho de mercado y como en todo tienen que percibir que si invierten le retornará un beneficio de cualquier tipo.
La música fue una decisión defícil, creo que tengo el micrófono con mucha ganancia, tienen que bajarle un poco de volumen
Exelente video me hubiera gustado escuchar los comentarios sin alucinaciones del codigo jajaja nuevo sub
Wooooowwww que genial!! Gracias!!!
@@rafaelcampoverde ¡muchas gracias por tu comentario!
Me parece que está muy bien. Como recomendación, ser cauteloso con los textos y otros en el video. Lo más importante es el contenido, no los mensajes secundarios.
¡Muchísimas gracias por tu comentario! Justo estoy pensando en grabar un vídeo y por mi mente pasaba la idea de ponerme a grabar uno y ya, pero creo que un vídeo mejor planeado puede ser bueno para las personas, e incluso para mí.
Generalmente no hago guión ni nada, sino que simplemente me pongo a grabar y listo
`brew install llama` es algo que funciona en macos, porque Brew es un gestor de paquetes (de paquetes de HomeBrew) de forma parecida a lo que `apt` lo es en Ubuntu, así que no está alucinando nada. Solo que quizá debiste especificarle un poco más.
correcto
Muy Rapido. complejo y lenguaje muy tecnico. Seve todo muy bien pero esos puntos. Al final no me quedo claro como hacer todo.
@@claudioguendelman ¡entonces hay que hacer una nueva versión más sencilla! Gracias por tu comentario
Muy interesante el video, para mi fue bastante difícil de entender. Estaria bueno ver la parte inicial del proyecto, de mi parte estoy comenzando con la programación y al parecer el resto de los que siguen tu canal tienen mucha experiencia, me sigue gustando tu manera de explicar, voy a seguir practicando para en algún momento llegar a este nivel. Saludos y exitos
¡Me gusta que haya gente que está empezando! De hecho estoy haciendo vídeos (aunque son para la empresa que trabajo) de Python, Javascript, HTML y CSS, luego quiero subir cursos acá también pero bueno, realmente trabajar de desarrollador y hacer videos puede ser algo demandante de tiempo, ¿qué estás estudiando?
Hola @@ai.charly , muchas gracias por tomarte el tiempo para responderme. Estoy estudiando tec en programacion, empecé la carrera este año, a mi me gustaria saber y ver cómo es tu forma de resolver un requerimiento de programación con algún ejemplo básico. No hay muchos videos con esas temáticas. Segui con esta forma de hacer los videos, tenes un diferencial con otros devtubers, te felicito!!!
@@diegoserlini6798 ¿qué es lo que sueles ver? ¿Qué tipo de cosas te gustaría que resolviera? Algo que realmente me interesa es ver lo que les gusta a las personas que comentan, eso es lo que al final hace crecer a una comunidad y lo tomo mucho en cuenta
@@ai.charly recien estoy comenzando con programación funcional utilizando diagramas de flujo. Tus videos son muy buenos, pero siento que me falta la parte en donde se te ocurre la idea y todo el proceso de iniciar un proyecto.
Estuve viendo otro youtuber en ingles que empezó el challange de 100 días programando y explica la forma de encarar cada uno de los problemas. Espero que te sirva. Gracias x todo el tiempo que invertís para compartir tus conocimientos.
@@diegoserlini6798 creo que debería hacer videos programando y no tanto mostrando proyectos a ver qué pasa
Excelente guía, me has iluminado, estoy con un proyecto de leer PDF de documentos escaneados, y se busca vincular llama, pero no funciona muy bien.
Revisaré todos tus videos a ver si logro mejorar la lectura de estos documentos
@@martin_perez puedes contarme sobre tu proyecto y así lo tomo de inspiración 👌🏻
@@martin_perez o tus dudas, más bien
@@ai.charly dame tu correo para escribirte.
Muchas gracias. Sería interesante unos videos de Langchain / LangChain Expression Language (LCEL) /Langgraph
Estoy tratando de usar tools en ollama, aun esta difícil. Creo que debo entrenar una IA en español. Gracias por tu video.
¿Has probado hacerlo por tu cuenta? Podrías pedirle que retorne un JSON con las características que necesitas y usar el response_format="json"
Aunque la verdad Lllama-3-8B no es lo mejor para usar tools
hola amigo excelente video, una consulta, que modelo recomendarías para un software de anonimizscion de documentos
En lo que más me fijaría sería en el tamaño de los documentos. Un buen prompt te puede servir con cualquier modelo, pero en este caso si el documento es muy grande, te recomendaría modelos con un amplio contexto como Claude o GPT-4o, tambien podrías usar la API de Groq para usar Llama 70B pero el contexto de este es de 8 mil tokens, que te bastan para muchos documentos, pero no para todos. Entonces eso, si son muy grandes, modelos con amplio contexto (o también podrías picar el documento para que queda en el contexto de modelos más pequeños).
Por otro lado aunque el contexto de entrada sea infinito, el output no, muchos modelos están restringidos a 4k tokens, entonces te vas a encontrar en que le pasas un documento gigante y te da solo una parte. Te recomendaría en ese caso que pienses tu lógica para solventar esta limitación orquestando las llamadas necesarias a la API para e ir concatenando el documento nuevo poco a poco. Para mayor velocidad te recomendaría ahora sí Groq que tiene una velocidad de inferencia brutal, y estoy seguro que Llama 70B puede entender una tarea para esta, además que te saldrá más barato que OpenAI o Anthropic.
¡Mucho éxito en tu proyecto! Si quieres ver cómo usar Groq mira un vídeo que hice que tiene un template con FastAPI + React y Groq
@@ai.charly muchas gracias por tu respuesta, hice pruebas con spacy pero no es suficiente no detecta bien los nombres, tal vez has usado spacy_llm?
muy bueno el video, soy nuevo en IA y me sirvió mucho para arrancar con algo que sí funciona !! me quedaron archivos como vectors.py , server.py que no se bien como funcionan, estaría bueno alguna descripción, aunque ya aprenderé esa parte .. gracias saludos
¡Qué bueno que te haya gustado! Justo hoy, en unos minutos, sale otro de una app fullstack con IA, en este caso se incluye una interfaz de usuario con React, y hay un servidor con FastAPI como el que existe en este proyecto, ¡échale un ojo para que aprendas cosas nuevas!
podrias hacer videos de como usar los LLM con open web ui
Gracias por este excelente video, cuando puedas sería interesante, llevarlo a un Char personalizado, con acceso para varios usuarios con diferentes perfiles. Gracias Saludos.
Acabo de ver el vídeo y me ha parecido de interés. Tras ver el repositorio me he encontrado con una duda que quisiera resolverla antes de sumergirme en la instalación, pruebas y posibles mejoras. ¿Los embeddings pueden generarse apartir de documentos en español?. ¿Hay que cambiar algo en el sistema de generación de embeddings si tenemos documentos escritos en distintos idiomas como Inglés y español?.
No realmente, eso sí, yo consideraría usar Groq, una API que usa LPU para aumentar la velocidad de generación y usar Llama 3 70B si es un proyecto que quieres para usuarios, ya que Llama 3 8B puede a veces responderte en inglés incluso si le pides que te hable en español.
Cosas que se pueden hacer: modificar el prompt para que sea en español. Con respecto a los documentos, pueden estar en cualquier idioma realmente
Meti 20 documentos y me revolvio la data a la hora de contestar. Como puedo mejorar o controlar eso cuando hago el rag? Muchas gracias.
@@homero2099 bueno, la mejor forma es modificar la forma en la que el RAG está funcionando y adaptarlo para tu caso de uso específico. Dependiendo de qué tipo de documento, su extensión, la IA que estés usando de fondo, se podrían ajustar el tamaño de los chunks, la cantidad de vectores para recibir cuando estés haciendo queries, o incluso los modelos de embeddings. Yo te recomendaría experimentar y pensar como humano, ¿de qué forma puedo yo guardar mi información para que sea más fácil encontrarla en el futuro? Responderlo, y llevarlo a código de vectores
Hola, podrías explicar por qué si usas llama tambi+en tienen que usar OpenAI? Cada vez que quiero hacer un proyecto que involucra OpenAI no puedo porque en el primer intento ya tengo el error "RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota..." y yo pensaba que si se usaba el modelo de Ollama no era necesario trabajar con OpenAI
@@nicobonder ¡claro! Fíjate, no es realmente necesario usar OpenAI para usar OpenWebUI o los modelos de Ollama en local, el tema es que si quieres usar los modelos de OpenAI necesitas una api key que esté asociada con una cuenta que tenga créditos, si no tienes créditos, te va a salir ese mensaje. Puedes recargar los créditos en la plataforma de OpenAI, busca en navegador: Platform OpenAI, el link empieza por platform.openai.com, allí puedes recargar tus créditos. No necesario usar los modelos de OpenAI al usar los de Ollama, pero dependiendo del caso puede ser conveniente ya que son buenos modelos y al no ejercutarse en tu máquina no necesitas poder de procesamiento.
¡Espero que la respuesta te haya servido!
Dado que los términos que usan son bien nuevos para mi , tendré que primero saberlos para entenderte.
@@Edos-s1y ¿qué términos se te hicieron complicados de entender?
por decir que cuando empiezas a trabajar con clases mo lo puedes dejar. aqui un fanatico de la prpgramacion funcional. por eso te tendre que dar like pero de mala gana 😤
@@juanmanuelmm2570 la funcional también es un buen paradigma, lo importante es que código que uno hace sea confiable y sirva para lo que se pretende. ¡Éxito en tus funciones y gracias por tu comentario!
Ahmmm en realidad, todo se resume en 25 líneas de código sin exagerar usando tanto embeddings, locales como externos, pero buen video.
@@pacashanaya ¡así es! Realmente hacer aplicaciones con IA no requiere mucho código. La mayor parte del código se va en el resto de la aplicación.
@@ai.charly , ajam además con un framework para web, te generas un chat bot con tus datos, le abres el puerto y listo, casi contrario lo conectas con un chat bot y también es otra locura.
El mejor tutorial para no entender nada xD
Se nota que sabes, pero la edición no es lo tuyo, ha sido un vídeo caótico y con tanta edición me ha mareado.
La explicación no es clara del todo, aunque repito es un vídeo agridulce porque como el tuyo no he visto ninguno en el sentido que eres el único que ha dado en el quiz de que no todos los embedings sirven para todos los documentos. Yo use el notebooklm con un pdf de derecho penal y se supone que podías preguntarle y no me contestaba bien. Pense que serían los embeding o chunks o lo que sea, no tengo conocimineto suficiente.
Seria mejor un video mas visual sobre como refinar y visualizar lo que guarda la IA o como lo guarda y como ir procesandoselo o modificando para que nos responda como queremos.
Al final me he perdido con tanto codigo y edición que has metido.
Te felicito porque te lo has currado y se nota que eres muy bueno!
@javaboy6581 ¡gracias por tu comentario! La verdad es que aún estoy en proceso, muchas veces no tengo mucho tiempo para los vídeos, ¡en el futuro planeo contratar un editor para los vídeos para que suban de calidad! Es un proceso iterativo, ir aprendiendo de los errores, los comentarios, empezar a trabajar de una forma más estructurada y así. Puedes dejar tus dudas para próximos vídeos, en el 2025 planeo subir con mayor regularidad y cada vez ir mejorando la calidad de los vídeos. ¡Gracias por comentar!
@@ai.charly De nada charly, y espero que no sonase hiriente mi comentario, lo lance porque te vi potencial si no simplemente hubiera puesto mi dislike, pero creo que vas a progresar mucho en esto y te haras mucho mejor. Lo que mas me gusta y no veo es lo que te he comentado, los RAG locales y con IA locales. Para meterle el PDF a openai o usar RAG de pago vale cualquier tuto, pero tenerlo todo en local es lo que la gente que no quiere perder intimidad queremos y de eso solo hay lo tipico de montar llm y tuto rapido de como hacer un RAG que ya te digo que NUNCA FUNCIONA ya que pienso que hay que tratar los datos o mejorar los chunks o lo que sea y eso nadie lo explica y pienso que es porque no saben realmente y me dio la sensacion de que tu si sabrías o por lo menos investigarias y nos enseñarias porque tienes energia para eso y mas!
Apoyo tu canal desde ya!
@javaboy6581 ¡no te preocupes! Yo considero que cada persona tiene su forma de expresarse y no sentí realmente como un ataque tu comentario o algo así, me tomo las cosas de forma relajada. Prepárate porque para Enero tengo pensados más vídeos de IA en local y uno dedicado exclusivamente a Bases de datos vectoriales
una acotación muy al margen, no se dice lama, de dice llama, respetando la doble l, el nombre esta inspirado en un animal de origen sudamericano (bolivia, peru, chile) que se llama, Llama, (se pronuncia yama, ya), nombre científico (Lama glama), es.wikipedia.org/wiki/Lama_glama