Excelente explicación.. tengo una pregunta desde mi total ignorancia, esa re-indexación que hablar en el minuto 12:52, se cconfigura o el llm de por si lo hace ? No se si se entendió mi pregunta. Saludos
Buenas, antes de nada gracias por comentar! Buenísima pregunta, no lo hace automáticamente el LLM, hay que configurarlo, de hecho es un poco delicado, es bueno establecer esta política de retroalimentación para que no se indexe cualquier cosa, esta realimentación se debe tratar de forma especial
Buenas! Si te refieres a la fuente de información con la que alimentar la bbdd vectorial si, puedes usar Google sheets y documentos en drive. Además depende de la cantidad de hojas y documentos no tiene por qué ser de bajo contexto, puede haber muchísima información indexada en base a esa información. Lo más importante es determinar el tamaño óptimo de los chunks para generar los embeedings
@@inteligencia_artificial_tech Entonces, los chunks van a determinar el modelo que elijamos (la ventana de contexto). O también, ¿se debería te tener en cuenta la cantidad de personas que interactúen con el contenido? Si tengo un documento de Google Sheets, 2 o 3, pero 1000 personas que ingresan por día, esto se puede solucionar con servicios como 'Render' para la velocidad de procesamiento.
Yo uso qdrant, el primero problema es dividir archivos grandes, ya que se pierde la relacion de uno y otro. otro problema es enviar en el contexto muchisimo texto, hay veces que supera la capacidad de gpt4. funciona muy bien con textos medianos o para buscar cosas especificas. no me sirvio por ejemplo para: EJ: De los ultimos 100 articulos cuales son las categorias mas usadas. Para poder acceder a datos agrupados, cree otros procesos que hacer reportes y guardan en la DB vectorial. Si alguien pide un reporte de algo, no tenga que buscar toda la DB. Algo de lo que me paso.
Excleente video, y lo mejor presentado por Kevin Spacey :D
Muy buen Video!!
Buena explación
Excelente, tienes algún curso ?
Todavía no online, suelo impartirlos en empresas pero no me he puesto nunca a grabar uno así, quizá no sea mala idea, me lo apunto, muchas gracias!
Excelente explicación.. tengo una pregunta desde mi total ignorancia, esa re-indexación que hablar en el minuto 12:52, se cconfigura o el llm de por si lo hace ? No se si se entendió mi pregunta. Saludos
Buenas, antes de nada gracias por comentar! Buenísima pregunta, no lo hace automáticamente el LLM, hay que configurarlo, de hecho es un poco delicado, es bueno establecer esta política de retroalimentación para que no se indexe cualquier cosa, esta realimentación se debe tratar de forma especial
@@inteligencia_artificial_tech ok, entonces en ese caso se necesita código, gracias y seguiré viendo tus videos
Es interesante eso del asistente con cara, existe algo que se puede simular una avatar hablando ?
Un modelo RAG básico ¿Podría llamarse así para un GoogleSheets y documentos en Drive? (Hablando en términos de bajo contexto)
Buenas! Si te refieres a la fuente de información con la que alimentar la bbdd vectorial si, puedes usar Google sheets y documentos en drive. Además depende de la cantidad de hojas y documentos no tiene por qué ser de bajo contexto, puede haber muchísima información indexada en base a esa información. Lo más importante es determinar el tamaño óptimo de los chunks para generar los embeedings
@@inteligencia_artificial_tech Entonces, los chunks van a determinar el modelo que elijamos (la ventana de contexto). O también, ¿se debería te tener en cuenta la cantidad de personas que interactúen con el contenido? Si tengo un documento de Google Sheets, 2 o 3, pero 1000 personas que ingresan por día, esto se puede solucionar con servicios como 'Render' para la velocidad de procesamiento.
Seria interesante revise Deasie, para gobierno de datos no estructurados, los mismos que se usan en los RAGs
Yo uso qdrant, el primero problema es dividir archivos grandes, ya que se pierde la relacion de uno y otro. otro problema es enviar en el contexto muchisimo texto, hay veces que supera la capacidad de gpt4. funciona muy bien con textos medianos o para buscar cosas especificas. no me sirvio por ejemplo para:
EJ: De los ultimos 100 articulos cuales son las categorias mas usadas.
Para poder acceder a datos agrupados, cree otros procesos que hacer reportes y guardan en la DB vectorial.
Si alguien pide un reporte de algo, no tenga que buscar toda la DB.
Algo de lo que me paso.
Muchísimas gracias por compartir! Un abrazo
Hola, un aspecto clave es la capa de Gobierno de datos (semantica), pues la IAG solo entiende conceptos, no entiende terminos tecnicos (pe tx_01)