Me alegra saber que te ha resultado útil! En la nueva comunidad estoy compartiendo más contenido acerca de RAG, te invito a unirte: bit.ly/theacademy-ai Un saludo!
te ganaste mis likes y subcripción!! Explicaste los que nos llevaría días/meses de aprendizajes leyendo la documentaciones en solo pal de minutos! gran maestro!! Sigue trayendo enseñanzas así con pruebas reales. Me gusta la explicaciones tan precisas antes del código y después del código.
¡Wow, muchas gracias! Me alegra muchísimo saber que te ha sido útil y que disfrutas de las explicaciones. ¡Gracias por tus likes y por suscribirte! Seguiré trayendo más contenido con explicaciones detalladas y pruebas reales. ¡Un gran saludo! 😊🚀
Gracias por explicar el embedding semántico. He utilizado el modelo gratuito de Spacy en_core_web_sm y me ha ayudado muchísimo para crear chunks semánticos sin depender de OpenAI. Ahora tengo la tarea de profundizar LCEL para ver como me ayuda en el RAG
Hola! Me alegra mucho que te haya sido útil la explicación y que te haya podido ayudar! 😊😊 Tengo un vídeo en el canal en el cual explico los principios de LangChain, entre ellos el LCEL también! Espero que te pueda servir de ayuda. Saludos!
Por ahora no, estoy preparando algo que espero poder compartir con vosotros muy pronto! Te invito a unirte a la comunidad de Telegram ya que comparto por allí siempre todo, aparte de apoyarnos entre todos y resolver dudas, etc. Saludos! 😊
Gracias por el curso, la explicación de los embeddings es excelente, muy gráfica y fácil de entender. Te felicito y espero con ansias la siguiente entrega 👏👏👏
Excelente, clarisimas las explicaciones, lo mejor en habla hispana que he encontrado hasta el momento.... duda, no estan los videos de la puesta en prod de la RAG?? slds!
Genial! Me alegra mucho de que el vídeo os haya aportado valor! Si no estás por el grupo de Telegram te invito a unirte ya que la comunidad va creciendo y nos vamos ayudando entre todos con los proyectos! Saludos! 😊
¡Hola @user-dj5tc4lv3n! 😄 Me alegra mucho que te guste el contenido. ¡Gracias por tu apoyo y tus palabras tan amables! 🙌 Espero que sigas disfrutando del canal. 🚀
Muchas gracias por tu comentario! 😊 Te invito a unirte a la nueva comunidad dond eencontrarás recursos muy valiosos para segui aprendiendo: bit.ly/theacademy-ai Un saludo!
¡Hola NELSON! ¡Muchas gracias por tu comentario y por la gran apreciación! 😁 Me esfuerzo mucho para brindaros contenido de calidad. Si tienes alguna duda o quieres profundizar en algún tema, no dudes en preguntar. Saludos!
Se podria tambien realizar lo del semantic chunk en la respuesta, me refiero hacer que devuelva por ejemplo 10 coincidencias, y agrupar de esos 10 de forma semantica para obtener un contexto mayor.
Maestro, excelente esta iniciativa de explicar en detalle la aplicación práctica del uso del RAG desde cero. Podrías compartir el notebook que explicaste en el video, gracias desde ya.
Gracias por tus palabras! Me alegra que encuentres útil la iniciativa. Todos los recursos del canal los tienes disponibles en el grupo de Telegram. Saludos!
Excelente Video!!! Gracias nuevamente por tus aportes. Estoy necesitando efectuar enlaces de cadenas, osea la respuesta a la pregunta sea una nueva entrada , se puede hacer con LCEL . Gracias por todo desde Argentina
Gracias por el video, muy didáctico! Hay alguna forma de limitar el tamaño de los chunks con el semantic chunker? En ocasiones me genera chunks muy grandes que sobrepasan el tamaño máximo permitido del modelo de embeddings. Gracias
Hola! Gracias por tu comentario! Me alegra de que te haya sido útil el vídeo! Tienes el parámetro number_of_chunks. Otra cosa que se me ocurre también es reducir el umbral mediante el cual agrupa los chunks con el parámetro breakpoint_threshold_amount. Saludos!
¡Hola! Muchas gracias por tu comentario y por apreciar el contenido y la explicación. Estoy compartiendo el código en nuestra comunidad de Telegram para animar a más personas a unirse a esta comunidad de entusiastas de la IA. Cada vez somos más, y estamos compartiendo conocimientos y ayudándonos mutuamente. ¡Te invito a unirte! Aquí está el enlace: [t.me/coding_mindset. ¡Nos vemos allí!
Excelente video. Pregunta: Existe algún motor diferente a OpenAI y que sea completamente gratuito para programar las LLM o las RAG? Lo pregunto por el tema de los token's
@maengora, si se llama Ollama, puedes instalar locamente tus LLMs, eso sí debes tener una maquina por lo menos con 16Gb de Ram. Otra opción es con Google Colab, donde también puedes levantar Ollama y un modelo como Llama3
Gracias por tu comentario! 😊 Respecto a la pregunta, tal y como comentan los compañeros, la manera 100% gratuita y para siempre es utilizar Ollama con modelos OpenSource en local. Hace poco hice un vídeo hablando de Ollama ya que lo usaremos en videos posteriores. Te dejo por aquí el enlace 👉 ruclips.net/video/sZnvKxHPXKs/видео.html Por otro lado, de manera temporal también puedes usar la API de Groq (GroqCloud), que por ahora es gratuita ya que están en fase de pruebas, pero no durará mucho tiempo . Saludos!
me ha gustado mucho el vídeo, muy didáctico, tenía un monumental cacao con todos esos terminas y me los has aclarado, gracias. Me parecía estupendo ver información sobre pase a producción de sistemas RAG. Saludos P.D.: ¿Compartes en algún sitio los notebook?
Me alegra mucho que el video te haya resultado útil y didáctico. Entiendo que los términos relacionados con la inteligencia artificial pueden ser confusos al principio, así que me complace haber podido aclararlos. Gracias por tu comentario y por ver el video. Si tienes alguna otra pregunta o sugerencia, no dudes en compartirla. Espero verte en futuros videos! Los notebooks y código los comparto en el grupo de Telegram -> t.me/coding_mindset Saludos!😊
Muchas gracias! Me alegro de que te haya gustado! Por ahora todo el contenido que estoy creando es gratuito para RUclips, pero pudes unirte a la comunidad de Telegram y cualquier novedad os lo haré saber 👉 t.me/coding_mindset Saludos!
Excelente video, me puedes decir como se llama la aplicación donde mostraste lis vectores y sus dimensiones, me parece muy didáctica y me gustaría saber si es accesible, gracias.
Hola, muy buenos tus video! Tengo una duda, como seria una estrategia para poder resumir el contenido de varios chunks? por ejemplo darle una novela entera y que me genere un resumen del mismo, muchas gracias!
Excelente intuición! 🎯 En LangChain existen varios tipos de 'chains' para summarización: Stuff: Para documentos pequeños, resume todo de una vez Map-Reduce: Para documentos grandes como tu novela - primero resume cada chunk (map) y luego combina los resúmenes (reduce) Refine: Va refinando el resumen iterativamente con cada nuevo chunk Map-Reduce sería ideal para tu caso con la novela, ya que maneja eficientemente grandes volúmenes de texto. Saludos!
Muchísimas gracias por esto de los chunks, primera vez que encuentro que alguien hable de esto... llevaba tiempo tratando de entender porque no me respondían bien los RAG, ahora una consulta, con respecto a los embedings y mis textos están en español, tuve mejores resultados con un embeding multidioma como ser intfloat/multilingual-e5-large, esto es asi? o sea se que los LLM actuales desarrollan mejores resultados en ingles, pero usar un modelo de embeding multidioma mejoraría realmente la contextualización de una pregunta en español? (a pesar de ser considerablemente mas lento)
Muchas gracias por tu comentario! E interesante pregunta, cierto es que en inglés dan mejores resultados aunque a priori digamos que la gran mayoría (ya que no conozco ni he probado todos) son multi idioma, lo que algunos ofrecen mejores resultados que otros en función del idioma en cuestión. El último model de OpenAI (text-embedding-3) ha mejorado mucho en Español, otro que también ofrece buenos resultados es el de Cohere (cohere- multilingual). Te invito a unirte al canal de Telegram y podemos seguir comentando por ahí, me gustaría conocer más que tal van tus pruebas! 👉 t.me/coding_mindset Saludos!
@@CodingMindsetIO Me olvide de aclarar que estoy usando modelos opensource (ollama) y por otro lado... por supuesto estoy en el grupo de telegram jajaja gracias por la respuesta!!!
Gracias a ti por tu comentario! 😊 voy publicando todos los notebooks en el grupo de Telegram, si quieres unirte, te dejo el enlace por aqui -> t.me/coding_mindset
@@ldelossantos Gracias ppr la respuesta. Entonces es básicamente lo mismo pero ofrece mayor precisión. Asumo que también habrá un tema de costos asociado.
OpenAI con los GPTs lo que hizo fue crear una manera sencilla, con una interfaz gráfica de crear Agentes y sistemas RAG. Lo de si es mejor solución o no, dependerá de muchos factores: flexibilidad del sistema que necesites, Interconectividad, privacidad de los datos, etc…
Efectivamente, el tema de costos es diferente, El usuario de GPT te cuesta 20 USD al mes (25 si queres un grupo). En el video viste que son los tokens... Por API un millon de tokens es de 15 usd... Si es una persona seguramente es mal negocio, si son varios posiblemente te sea mas barato. Aparte acordate que lo explicado te enseña a hacer tu propia aplicación, eso te permite otro nivel de integraciones. Por ejemplo haces un RAG con los manuales de tu producto y automatizas el soporte por email o chat. Por último, podes cambiar de AI, en lugar de GPT tenes Gemini de Google, Mistral (francesa), LLAMA (de meta), etc.. Cada una con sos precios y caracteristicas.
El mejor contenido de RAG que he visto de creadores de contenido. Gracias!
Muchísimas gracias por el apoyo!
Un Saludo!
Muy útiles los 3 vídeos, a la espera del siguiente.
Muy didáctico, se agradece un montón.
Muchas gracias por tu tiempo! 💪🔥
Grandisimo! Lo tengo anotado para vermelo entero, eres de lo mejor de youtube por no decir el mejor en RAG y LLM
Muchísimas gracias por el apoyo! 🙏 Me alegra que te guste el contenido y te resulte útil! 😊
Un saludo!
Excelente serie. Muchas gracias por compartir tu conocimiento. Estoy empezando con los RAGs y me fue muy útil. Espero que se pueda retomar pronto.
Me alegra saber que te ha resultado útil! En la nueva comunidad estoy compartiendo más contenido acerca de RAG, te invito a unirte: bit.ly/theacademy-ai
Un saludo!
Excelente! gracias por compartir tus conocimientos!
Muchas gracias por la explicación tan detallada!! Superdidáctico!!
te ganaste mis likes y subcripción!! Explicaste los que nos llevaría días/meses de aprendizajes leyendo la documentaciones en solo pal de minutos! gran maestro!! Sigue trayendo enseñanzas así con pruebas reales.
Me gusta la explicaciones tan precisas antes del código y después del código.
¡Wow, muchas gracias! Me alegra muchísimo saber que te ha sido útil y que disfrutas de las explicaciones. ¡Gracias por tus likes y por suscribirte! Seguiré trayendo más contenido con explicaciones detalladas y pruebas reales. ¡Un gran saludo! 😊🚀
hola, acabó de encontrar tus videos y me parecieron fantástico y espero el próximo con ansia, mil gracias por tu aporte.
Muchas gracias por tu comentario! Me alegro de que el canal te esté aportando valor!
Saludos!
Gracias por explicar el embedding semántico. He utilizado el modelo gratuito de Spacy en_core_web_sm y me ha ayudado muchísimo para crear chunks semánticos sin depender de OpenAI.
Ahora tengo la tarea de profundizar LCEL para ver como me ayuda en el RAG
Hola! Me alegra mucho que te haya sido útil la explicación y que te haya podido ayudar! 😊😊
Tengo un vídeo en el canal en el cual explico los principios de LangChain, entre ellos el LCEL también! Espero que te pueda servir de ayuda.
Saludos!
¡Gracias!
¿Tienes alguna plataforma donde se pueda apoyar un poco tu contenido como Patreon o similares?
Muchas gracias a ti @jkendo9001 ! 🙏🙏❤
Por ahora no, estoy preparando algo que espero poder compartir con vosotros muy pronto! Te invito a unirte a la comunidad de Telegram ya que comparto por allí siempre todo, aparte de apoyarnos entre todos y resolver dudas, etc.
Saludos! 😊
¡Buen video! ¡Gran información! Esperando, con impaciencia, el resto de contenido RAG,. ¡Gracias por tu tiempo!
Gracias por tu comentario! ☺️ En breves tendremos la siguiente parte de la trama RAG!
Gracias por el curso, la explicación de los embeddings es excelente, muy gráfica y fácil de entender. Te felicito y espero con ansias la siguiente entrega 👏👏👏
Muchísimas gracias por tu comentario! Me alegra mucho que te haya gustado y resultado útil! ☺️
realmente muy atinado, la importancia de considerar un aspecto crítico esencial, muchas gracias y excelente exposicion
Excelente, clarisimas las explicaciones, lo mejor en habla hispana que he encontrado hasta el momento.... duda, no estan los videos de la puesta en prod de la RAG?? slds!
Brutal, te he descubierto... suscrito, justamente lo que estamos montando y este detalle no lo teníamos en cuenta, mil gracias... ahora a seguirte.
Genial! Me alegra mucho de que el vídeo os haya aportado valor! Si no estás por el grupo de Telegram te invito a unirte ya que la comunidad va creciendo y nos vamos ayudando entre todos con los proyectos! Saludos! 😊
Grandísimo como siempre Elvin! Muchas gracias por todo!!!!!
¡Hola @user-dj5tc4lv3n! 😄 Me alegra mucho que te guste el contenido. ¡Gracias por tu apoyo y tus palabras tan amables! 🙌 Espero que sigas disfrutando del canal. 🚀
Muchas gracias por la explicación tan paso a paso.
Me encantará seguirte aprendiendo en este tema🙏
Muchas gracias por tu comentario! Seguiremos la trama de RAG en breves! 😀
brutal!!!! a la espera del siguiente
Gracias por tu comentario! me alegro de que te haya gustado!
Muy buen video. Muy clara. Ya hice lo mismo y esta funcionado. Espero que puedaa hacee los sig videos 👍
¡Muchas gracias! Me alegra saber que te resultó claro y que ya lo tienes funcionando. ¡Definitivamente seguiré haciendo más videos! 👍😊
Excelente video, gracias por brindar información de calidad.
Además que la explicación es super clara.
Saludos desde Perú
Muchas gracias por tu comentario, me alegro de que te haya resultado útil el vídeo! 😀
Saludos!!
Excelente explicacion... quiero armar un RAG local usando un LLM Open source y los conocimientos que has compartidos son mas que valiosos.
Muchas gracias por tu comentario! 😊
Te invito a unirte a la nueva comunidad dond eencontrarás recursos muy valiosos para segui aprendiendo: bit.ly/theacademy-ai
Un saludo!
Que buen video, gracias.
Muchas gracias muchacho, si quisiera que saques el video de las aplicaciones con rag.
Increíble todo lo que aprendí, súper recomendado
Muchas gracias! Por comentarios así vale la pena el esfuerzo de crear estas vídeos! 😊
Saludos!
Gracias por compartir. Excelente contenido.
Gracias por tus palabras! Me alegra que te haya gustado el contenido.
Saludos!
¡Qué buen nivel se necesitaba este canal!
Me alegro de que te guste el contenido del canal! Saludos! 😊
¡Muy buena la explicación de embeddings!
Gracias! Me alegro de que te haya gustado 😊
Genial el Vídeo !!! me encanto y ya me suscribi a tu telegram.
Muchas gracias por tu comentario y el apoyo! Saludos 👋
Excelente este contenido es de nivel Pro
¡Hola NELSON! ¡Muchas gracias por tu comentario y por la gran apreciación! 😁 Me esfuerzo mucho para brindaros contenido de calidad. Si tienes alguna duda o quieres profundizar en algún tema, no dudes en preguntar.
Saludos!
Muy buen video, saludos desde Argentina !!
Muchas gracias! ☺️ Saludos 👋
Se podria tambien realizar lo del semantic chunk en la respuesta, me refiero hacer que devuelva por ejemplo 10 coincidencias, y agrupar de esos 10 de forma semantica para obtener un contexto mayor.
Creo que no he entendido del todo bien la pregunta. Te refieres a la respuesta del LLM?
Excelente contenido!
¡Hola! Muchas gracias por tu comentario 😊 Me alegra que te haya gustado el contenido. ¡Espero que sigas disfrutando del canal! 🚀
Maestro, excelente esta iniciativa de explicar en detalle la aplicación práctica del uso del RAG desde cero.
Podrías compartir el notebook que explicaste en el video, gracias desde ya.
Gracias por tus palabras! Me alegra que encuentres útil la iniciativa. Todos los recursos del canal los tienes disponibles en el grupo de Telegram.
Saludos!
Sirve ;) muy bueno
Gracias! Me alegro de que te haya servido!😊
muy bueno
Muchas gracias! me alegro de que te haya gustado! Saludos!
Excelente Video!!! Gracias nuevamente por tus aportes. Estoy necesitando efectuar enlaces de cadenas, osea la respuesta a la pregunta sea una nueva entrada , se puede hacer con LCEL . Gracias por todo desde Argentina
Muchas Gracias! Sí, efectivamente el LCEL nos permite realizar todo tipo de cadenas, inclusive el caso que planteas.
Saludos!
Execelente video 😊😊
¡Muchas gracias! 🙌 Me alegra que te haya resultado útil. Saludos!
Gracias por el video, muy didáctico! Hay alguna forma de limitar el tamaño de los chunks con el semantic chunker? En ocasiones me genera chunks muy grandes que sobrepasan el tamaño máximo permitido del modelo de embeddings. Gracias
Hola! Gracias por tu comentario! Me alegra de que te haya sido útil el vídeo!
Tienes el parámetro number_of_chunks. Otra cosa que se me ocurre también es reducir el umbral mediante el cual agrupa los chunks con el parámetro breakpoint_threshold_amount.
Saludos!
muy buen contenido y muy bien explicado. Deberias compartir los Repos de Github de los labs o demos que presentas en los videos.
¡Hola! Muchas gracias por tu comentario y por apreciar el contenido y la explicación. Estoy compartiendo el código en nuestra comunidad de Telegram para animar a más personas a unirse a esta comunidad de entusiastas de la IA. Cada vez somos más, y estamos compartiendo conocimientos y ayudándonos mutuamente. ¡Te invito a unirte! Aquí está el enlace: [t.me/coding_mindset. ¡Nos vemos allí!
Excelente video. Pregunta: Existe algún motor diferente a OpenAI y que sea completamente gratuito para programar las LLM o las RAG? Lo pregunto por el tema de los token's
@maengora, si se llama Ollama, puedes instalar locamente tus LLMs, eso sí debes tener una maquina por lo menos con 16Gb de Ram. Otra opción es con Google Colab, donde también puedes levantar Ollama y un modelo como Llama3
Como ha dicho Pablo puedes crear tu propio gpt con llama 3 con unsplash fine tuneado para tu caso de uso
Gracias por tu comentario! 😊
Respecto a la pregunta, tal y como comentan los compañeros, la manera 100% gratuita y para siempre es utilizar Ollama con modelos OpenSource en local. Hace poco hice un vídeo hablando de Ollama ya que lo usaremos en videos posteriores. Te dejo por aquí el enlace 👉 ruclips.net/video/sZnvKxHPXKs/видео.html
Por otro lado, de manera temporal también puedes usar la API de Groq (GroqCloud), que por ahora es gratuita ya que están en fase de pruebas, pero no durará mucho tiempo .
Saludos!
@@CodingMindsetIOHola un video o tutorial para imprementar Ollama en lugar de OpenIA en estos ejemplos?
me ha gustado mucho el vídeo, muy didáctico, tenía un monumental cacao con todos esos terminas y me los has aclarado, gracias.
Me parecía estupendo ver información sobre pase a producción de sistemas RAG.
Saludos
P.D.: ¿Compartes en algún sitio los notebook?
Me alegra mucho que el video te haya resultado útil y didáctico. Entiendo que los términos relacionados con la inteligencia artificial pueden ser confusos al principio, así que me complace haber podido aclararlos.
Gracias por tu comentario y por ver el video. Si tienes alguna otra pregunta o sugerencia, no dudes en compartirla. Espero verte en futuros videos!
Los notebooks y código los comparto en el grupo de Telegram -> t.me/coding_mindset
Saludos!😊
La mejor explicación mil gracias tienes cursos ? Donde pueda profundizar ?
Muchas gracias! Me alegro de que te haya gustado! Por ahora todo el contenido que estoy creando es gratuito para RUclips, pero pudes unirte a la comunidad de Telegram y cualquier novedad os lo haré saber 👉 t.me/coding_mindset
Saludos!
Excelente video, me puedes decir como se llama la aplicación donde mostraste lis vectores y sus dimensiones, me parece muy didáctica y me gustaría saber si es accesible, gracias.
Si igual me gustaría saber
Me alegro de que os haya gustado el vídeo! 😊
Os dejo por aquí el enlace al proyector de embeddings 👉 projector.tensorflow.org/
Hola, muy buenos tus video! Tengo una duda, como seria una estrategia para poder resumir el contenido de varios chunks? por ejemplo darle una novela entera y que me genere un resumen del mismo, muchas gracias!
Excelente intuición! 🎯 En LangChain existen varios tipos de 'chains' para summarización:
Stuff: Para documentos pequeños, resume todo de una vez
Map-Reduce: Para documentos grandes como tu novela - primero resume cada chunk (map) y luego combina los resúmenes (reduce)
Refine: Va refinando el resumen iterativamente con cada nuevo chunk
Map-Reduce sería ideal para tu caso con la novela, ya que maneja eficientemente grandes volúmenes de texto.
Saludos!
@@CodingMindsetIO Excelentee, muchas gracias!
ponerlo en produccion, ufff.
Claro que si tío.
Sin miedo al éxito!😜
Muchísimas gracias por esto de los chunks, primera vez que encuentro que alguien hable de esto... llevaba tiempo tratando de entender porque no me respondían bien los RAG, ahora una consulta, con respecto a los embedings y mis textos están en español, tuve mejores resultados con un embeding multidioma como ser intfloat/multilingual-e5-large, esto es asi? o sea se que los LLM actuales desarrollan mejores resultados en ingles, pero usar un modelo de embeding multidioma mejoraría realmente la contextualización de una pregunta en español? (a pesar de ser considerablemente mas lento)
Muchas gracias por tu comentario! E interesante pregunta, cierto es que en inglés dan mejores resultados aunque a priori digamos que la gran mayoría (ya que no conozco ni he probado todos) son multi idioma, lo que algunos ofrecen mejores resultados que otros en función del idioma en cuestión. El último model de OpenAI (text-embedding-3) ha mejorado mucho en Español, otro que también ofrece buenos resultados es el de Cohere (cohere- multilingual).
Te invito a unirte al canal de Telegram y podemos seguir comentando por ahí, me gustaría conocer más que tal van tus pruebas! 👉 t.me/coding_mindset
Saludos!
@@CodingMindsetIO Me olvide de aclarar que estoy usando modelos opensource (ollama) y por otro lado... por supuesto estoy en el grupo de telegram jajaja gracias por la respuesta!!!
Si los vectores son multidimensionales ¿cómo hace el proyector para representar las palabras en un espacio de 3 dimensiones?
hola, pudieras compartir el documento para estudiarlo mas a detalle, contiene información que vale oro 😀
Hola! si estás en el grupo de Telegram pídemelo por ahí y te lo facilito!
Saludos! 😊
muy bueno, la aplicación rag será de tipo web ?
Gracias por tu comentario! 😊 la pondremos en un servidor web para que pueda ser consumida.
Saludos!
Muchas gracias, esta bien explicado, como dirían por ahí "Como para coquito" :D
Gracias a ti! Me alegra que te haya gustado y que haya sido fácil de entender 😄
Gracias por el curso, ¿Podrias poner enlace al código?
Gracias a ti por tu comentario! 😊 voy publicando todos los notebooks en el grupo de Telegram, si quieres unirte, te dejo el enlace por aqui -> t.me/coding_mindset
Pregunta desde mi total ignorancia ¿Un custom GPT de OpenAI no sería la mejor solución a esto? Repito, soy ignorante y estoy intentando aprender.
si por custom te referis a crear un asistente y subirle files, estas haciendo un RAG. si hablas de fine tuning, no te conviene.
@@ldelossantos Gracias ppr la respuesta. Entonces es básicamente lo mismo pero ofrece mayor precisión. Asumo que también habrá un tema de costos asociado.
OpenAI con los GPTs lo que hizo fue crear una manera sencilla, con una interfaz gráfica de crear Agentes y sistemas RAG. Lo de si es mejor solución o no, dependerá de muchos factores: flexibilidad del sistema que necesites, Interconectividad, privacidad de los datos, etc…
Efectivamente, el tema de costos es diferente, El usuario de GPT te cuesta 20 USD al mes (25 si queres un grupo). En el video viste que son los tokens... Por API un millon de tokens es de 15 usd... Si es una persona seguramente es mal negocio, si son varios posiblemente te sea mas barato. Aparte acordate que lo explicado te enseña a hacer tu propia aplicación, eso te permite otro nivel de integraciones. Por ejemplo haces un RAG con los manuales de tu producto y automatizas el soporte por email o chat. Por último, podes cambiar de AI, en lugar de GPT tenes Gemini de Google, Mistral (francesa), LLAMA (de meta), etc.. Cada una con sos precios y caracteristicas.
Lo mejor es RAG + LoRa fine tunning, sobre todo si quieres un producto diferenciador que estará en el core de tu modelo de negocios
Lo malo es que no comparte el código. Pero las explicaciones muy claras! :)
Las comparto en el grupo de Telegram 😉. Gracias por tu comentario y me alegro de que te gusten las explicaciones ☺️
Donde estan esos .ipynb??? Me gstaria tenerlos a mano para mi desarrollo sin tener que ir de adelante a atras en el video
Esto ahorra mucho procesamiento hace que al integrar con gpt sea más económico
Un saludo!
Me gustaría ver su implementación paso a paso (no teorico)
En el canal tienes videos explicándo los sistemas RAG básicos y ejemplo prácticos de código.
Un Saludo!
depende
puedes compartir la ppt?
En el grupo de Telegram comparto todos los recursos! 😊