@@agustinmedinaIA Una duda. En el "windows buffer memory", no sé qué poner en el campo "key" ( to use to store session ID in the memory), suponiendo que hay que seleccionar el campo "session ID" a "define below". Gracias.
Soy algo novato y me ha quedado una cosa por entender... ¿Por qué tienes 2 WFs? y si son los dos necesarios... ¿Cómo se comunican entre ellos? Entiendo bastante bien el concepto del RAG porque hice uno con Python, pero me interesa mucho esto de las automatizaciones. Gracias por compartir!!
@@rafabotella Hola Rafa, es por una cuestión de arquitectura y tenerlo modularizado. Realmente, lo podríamos tener todo en el mismo, pero añadiría complejidad a un flujo y en caso de errores, sería más complicado hacer el seguimiento. Me gusta tratar la “carga de información” al RAG por un lado y las consultas por otro. :)
Buenas! En nuestra empresa estamos teniendo dificultades a la hora de competir contra productos como NotebookLM de Google o similares. Estas herramientas ya son capaces de analizar tus documentos para que puedas chatear con ellos con una calidad excepcional. ¿En qué nos recomiendas enfocarnos entonces para personalizar nuestros agentes para poder dialogar con la documentación de la empresa? ¿En qué podemos destacar? Mil gracias!
¡Gracias por tu comentario! Para competir con herramientas como NotebookLM, es clave centrarse en la personalización profunda (adaptar agentes a la terminología y procesos internos), garantizar privacidad y seguridad con soluciones locales, e integrar los agentes con herramientas empresariales clave como CRMs y ERPs. ¡Espero que estas ideas te sean útiles!
Se puede hacer lo mismo pero sin pagar? Osea usando la api de mi llm que tengo instalado en local? Y si es así y partiendo que tengo una 4060ti de 16Gb de VRAM, cual es el mejor llm para este caso?
@@CucumberHK Hola! Si, los modelos abiertos que comento en el vídeo son gratis 🙂 modelos cuantizados (más pequeños) de pocos parámetros de llama3.2 los podrías correr. Si buscas en Google los requerimientos del modelo, normalmente se encuentran fácil. Te recomiendo unirte a la comunidad!
@@agustinmedinaIA Gracias por responder, hay forma de entrenar para que pueda revisar documentos y dar una respuesta en base a eso, por ejemplo que verifique que el documento es el correcto.
Hola Adán, con las alucinaciones tienes varias posibilidades. Si usas un agente de n8n y acotas muy bien el prompt del agente, en teoría, no debería tener un % superior al 1% (habría que calcularlo) Aun así, esto es fácilmente solucionable usando un GPT personalizado con la temperatura a 0%
Excelente y muy bien explicado de este canal es donde va a salir mi emprendimiento, no cargo una moneda pero si estudio mucho
Eso es! con pasión y ganas. Vamos.
Excelente explicación! Con ganas de probarlo. Gracias Agustín!
@@mariarosadogarcia3525 Gracias a ti María!!!! :)
¡¡Muchas gracias!!! muy práctico y bien explicado. Estoy deseando de seguir viendo más.
Gracias, pronto más Rodrigo. Me alegro de poder ayudar.
@@agustinmedinaIA Una duda. En el "windows buffer memory", no sé qué poner en el campo "key" ( to use to store session ID in the memory), suponiendo que hay que seleccionar el campo "session ID" a "define below". Gracias.
@@rodrigosantosalvarez6316 Hola, pon un "1" por ejemplo. Seria algo así como el "tag" del usuario.
gracias. funcionó
Maravilloso video 🎉🎉🎉❤
Muchas gracias!
Excelente contenido, muchas gracias por compartir tu amplio conocimeinto!
@@fabriscazzariello muchísimas gracias Fabris. Lo mismo te digo, te has ganado un suscriptor 😉
Muchas gracias!
@@AIPapersDecodedPodcast a ti
Una maravilla tus contenidos, gracias por compartirlos!
Gracias a ti Juan Carlos por valorarlo.
Excelente, felicitaciones por la explicación, lo haces ver muy sencillo. Una pregunta: porque usar Supabase y no chromadb como vector store?
Gracias. Realmente he usado Supabase por una cuestión de comodidad, ya que ofrecen una versión gratuita inicial.
Muy buen contenido, gracias por compartir
@@edueditaa6088 Gracias a ti Edu.
Si puede pruebalo. Es bastante bueno. De costos no estoy seguro cuanto. Eso si usas llamaparse pero es bueno
Lo tendré en cuenta :)
Es por acá!!! 🙏
Claudio, gracias por el apoyo! significa mucho viniendo de ti.
Soy algo novato y me ha quedado una cosa por entender... ¿Por qué tienes 2 WFs? y si son los dos necesarios... ¿Cómo se comunican entre ellos? Entiendo bastante bien el concepto del RAG porque hice uno con Python, pero me interesa mucho esto de las automatizaciones. Gracias por compartir!!
@@rafabotella Hola Rafa, es por una cuestión de arquitectura y tenerlo modularizado. Realmente, lo podríamos tener todo en el mismo, pero añadiría complejidad a un flujo y en caso de errores, sería más complicado hacer el seguimiento. Me gusta tratar la “carga de información” al RAG por un lado y las consultas por otro. :)
soy el suscriptor 227 lo voy a guardar pa cuando crezcas y sortees cositas xD
Gracias por el apoyo! Ya veremos si algún día hay sorteos para los OGs como tú jaja
Saludos desde olivas la Española estoy interesado
Hola! Para cualquier consulta: ailinkyt@gmail.com o a través de nuestro canal de Telegram en la descripción. 🙂
Na bro, tremendo video!
Gracias!!
Buenas! En nuestra empresa estamos teniendo dificultades a la hora de competir contra productos como NotebookLM de Google o similares. Estas herramientas ya son capaces de analizar tus documentos para que puedas chatear con ellos con una calidad excepcional. ¿En qué nos recomiendas enfocarnos entonces para personalizar nuestros agentes para poder dialogar con la documentación de la empresa? ¿En qué podemos destacar? Mil gracias!
¡Gracias por tu comentario! Para competir con herramientas como NotebookLM, es clave centrarse en la personalización profunda (adaptar agentes a la terminología y procesos internos), garantizar privacidad y seguridad con soluciones locales, e integrar los agentes con herramientas empresariales clave como CRMs y ERPs. ¡Espero que estas ideas te sean útiles!
@agustinmedinaIA Mil gracias!
Se puede hacer lo mismo pero sin pagar? Osea usando la api de mi llm que tengo instalado en local?
Y si es así y partiendo que tengo una 4060ti de 16Gb de VRAM, cual es el mejor llm para este caso?
@@CucumberHK Hola! Si, los modelos abiertos que comento en el vídeo son gratis 🙂 modelos cuantizados (más pequeños) de pocos parámetros de llama3.2 los podrías correr. Si buscas en Google los requerimientos del modelo, normalmente se encuentran fácil. Te recomiendo unirte a la comunidad!
Se puede incorporar en un chat para una web?
Hola Atreas, gracias por comentar. Sí, se puede integrar pero no sería la mejor forma :)
Existe alguna forma de hacer "copy paste" de este proyecto?
Hey Andres, sí! En mi comunidad de Skool está el template para importarlo.
Hola compadre, saludos desde México. Toda la información puede ser almacenada en supabase sin el google drive? almacenar los documentos o imagenes
Exacto Cesar. El Drive es solo para "subir" la información.
@@agustinmedinaIA Gracias por responder, hay forma de entrenar para que pueda revisar documentos y dar una respuesta en base a eso, por ejemplo que verifique que el documento es el correcto.
@ Si, ese procedimiento se conoce como “finetunning”. Es algo complejo, pero hay mucha documentación.
Gracias. Yo hecho varios Rags y estoy encontrando que Lama Index devuelve un alto nivel de exactitud. No sé si has usado ese franeworjk
Cual es su costo?
He oído hablar de él, pero no lo he implementado la verdad. Le echaré un vistazo :)
Es factible que, en lugar de usar los servicios de OpenAI se utilice -con los límites gratuitos- la API de Groq o Gemini?
Si, solo tienes que cambiar el nodo de OpenAI por el del modelo que quieras utilizar. Con Gemini lo he probado y funciona a la perfección.
Se podrá usar de manera local?@@agustinmedinaIA
@@ing_ivan_perezb Hola Ivan, sí. De hecho, es lo más recomendable cuando se tratan de datos sensibles. Hoy subiré una master class de RAGS locales.
321 y Sumando 😋
Esperemos que mucho más!
Cuentame el
% de alucionaciones? El gran problema es las alucinaciones de estos naive Rags
Hola Adán, con las alucinaciones tienes varias posibilidades. Si usas un agente de n8n y acotas muy bien el prompt del agente, en teoría, no debería tener un % superior al 1% (habría que calcularlo) Aun así, esto es fácilmente solucionable usando un GPT personalizado con la temperatura a 0%