LangChain: GPT4 ahora no olvidará nada

Поделиться
HTML-код
  • Опубликовано: 26 окт 2024

Комментарии • 52

  • @ozzy1987mr
    @ozzy1987mr Год назад +5

    Vas super bien con la explicacion y el contenido... brutal la intro!! esperando la siguiente entrega

    • @AMPTech
      @AMPTech  Год назад +1

      Muchas gracias! Quise jugar un rato y ponerme creativo con la intro, gracias por el comentario:)

  • @leonardopatinorodriguez8239
    @leonardopatinorodriguez8239 Год назад +1

    Muy bien explicado, Excelente video.

  • @IAVIC
    @IAVIC Год назад +2

    Ole y ole , que bueno

  • @PedroPerez-u9u
    @PedroPerez-u9u Год назад

    Increible la serie de videos, Estoy a la espera de ver temas restantes
    un saludo

  • @cristiancontreras352
    @cristiancontreras352 Год назад +4

    Excelente video como siempre, deberías continuar este mismo y colocar lo en producción

  • @astronomiahoy264
    @astronomiahoy264 Год назад +1

    Excelente información

    • @AMPTech
      @AMPTech  Год назад

      Muchas gracias por el comentario!

  • @alfredolawler2205
    @alfredolawler2205 6 месяцев назад

    Muy bien explicado Alex!

  • @ennioagc
    @ennioagc Год назад

    Gracias por el vídeo

  • @GLINCE123
    @GLINCE123 Год назад

    Excelente video

  • @fernandopuig178
    @fernandopuig178 Год назад

    Otro video interesante y útil, gracias ‼️

  • @ezequielugazbenites3500
    @ezequielugazbenites3500 Год назад

    Que capo!!

  • @jaumaras
    @jaumaras Год назад

    muy útiles tus videos, gracias

  • @GualaDRAKE
    @GualaDRAKE Год назад

    Hola ola! Muy buen inicio el de la malla de respaldo de la silla, primero pensé que era un efecto de edición :D :D :D
    Ahora poner atención al video ;)

    • @AMPTech
      @AMPTech  Год назад +1

      Muchas gracias! Esa toma me tomó mas intentos de lo que be gustaría admitir jajaja

    • @GualaDRAKE
      @GualaDRAKE Год назад

      @@AMPTech 🤣👌👏👏👏👏🤘

  • @alejandroromero3352
    @alejandroromero3352 Год назад +2

    Hola, muy buen video! Solamente creo que te faltó hablar de la Vector store-backed memory

    • @AMPTech
      @AMPTech  Год назад +3

      Hola! Si es que ese tema lo quiero meter específicamente en un video. Pensé que meter el concepto de bases de datos vectoriales en este videos podria llegar a generar confusión en algunas personas. Pero sin duda hare video mencionándolo!

    • @danilogarcia6317
      @danilogarcia6317 Год назад

      @@AMPTech Lo esperamos con ansias :)

  • @fandonfandon5777
    @fandonfandon5777 Год назад

    Felicidades por esta serie de videos y la calidad y claridad de tus explicaciones! ¿Podrías incluir en esta serie de videos desarrollos con Langchain y modelos open source tipo Falcon, etc.? Muchas gracias!

  • @hernandocastroarana6206
    @hernandocastroarana6206 Год назад +2

    Excelente video. Sería excelente hacer algo sobre Llama Index (GPT Index).

  • @andresparra6208
    @andresparra6208 Год назад +2

    Hola, podrías hacer un video instalando el controlador para un ventilador en la jetson nano?... Gracias 😊

  • @jonathanramirezmontes9373
    @jonathanramirezmontes9373 Год назад +1

    Están increibles tus vídeos, he visto todo lo que has hecho relcionado con OpenAI, Crees que en algún momento puedas tocar el tema de algunas herramientas open source (HuggingFace) que se acerquen a las funcionalidades de que tiene OpenAI?

  • @alfredolawler2205
    @alfredolawler2205 6 месяцев назад

    Una pregunta Alex: porque usas como parametro, cuando instancias el modelo LLM, stop: "
    Human"? Gracias!

  • @gerr_cass
    @gerr_cass Год назад +1

    Hola, gracias por compartir. Dado que ChatGPT, el que usamos oficial via web, si mantiene memoria de cada conversacion, ¿cual de estos métodos usa para mantener el contexto en cada chat?. A mi particularmente me parece mas razonable el de resumen, pero el contexto o memoria es una caracteristica muy importante para un asistente virtual, ¿hay alguna buena práctica o método dominante para este propósito?

  • @cristinab8733
    @cristinab8733 Год назад

    ¡Muy buen vídeo!
    Aunque LangChain proporcione esta capa de "memoria", ¿tendría sentido usarla si necesito que recuerde solo la conversación de la semana pasada por ejemplo? Esto es para implementar un chatbot con ChatGPT

  • @yorius96
    @yorius96 Год назад +1

    Muy buen video, creo que está muy bien explicado. Aunque no me quedó claro qué pasa con la ventana de contexto si se utiliza el primer método (en el que se guarda todo en el historial). ¿En la medida que el historial crece, se gastan los 4.000 tokens de ventana de contexto?¿Deja de funcionar al superar el rate limit? porque me imagino que esto se puede evitar fijando un k como en el segundo método (si solo guardo 3 o 4 mensajes, la ventana de contexto se va liberando, evitando llegar al limite), pero qué pasa cuando guardo el historial completo?. Otra cosa que me generó dudas es que cuando se usa el método del resumen (el tercero) ¿se hace sobre los imputs que ya se fueron resumiendo?¿o el resumen se hace sobre el historial completo (con todos los mensaje completos y sin resumir)?. De nuevo, buena explicación y gracias por tu trabajo.

    • @AMPTech
      @AMPTech  Год назад +2

      El resumen se hace sobre los inputs y los resumenes ya hechos. Sobre la ventana de contexto, cuando el historico sobrepasa los 4mil tokens va a dejar de funcionar, por eso el modo de mantener una ventana del historico es el que mas recomendaria entre esos dos (el de historico completo o el de la ventana del historico)

    • @yorius96
      @yorius96 Год назад

      @@AMPTech Muchas gracias :)

  • @haroldmunoz1775
    @haroldmunoz1775 Год назад

    hola Alex. Me encantó tu video y es un tema super relevante. No se si sea del caso he escuchado que se puede almacenar los embedding en bases de datos externas o los grafos en NEO4J. Genial otro video reforzando el tema. Mil gracias

  • @capablancastyle
    @capablancastyle Год назад

    Hola, gracias por el video, quisiera saber si exploraras el modelo falcón 9b o 40, pues veo que con esa licencia se puede usar plenamente! De antemano, gracias!

  • @joakinic
    @joakinic 11 месяцев назад

    Hola, al ser parte de LangChain, esto debería funcionar de igual forma para modelos locales como Ollama?

  • @italonicolas100
    @italonicolas100 11 месяцев назад

    Tengo un error cuando ingreso el código
    "llm = ChatOpenAI(stop="
    Human")
    memoria = ConversationKGMemory(llm=llm)
    chatbot_kgm = ConversationChain(llm=llm, memory=memoria, verbose=True)" Me entrega el siguiente warning -> "WARNING! stop is not default parameter.
    stop was transferred to model_kwargs.
    Please confirm that stop is what you intended."
    He actualizado la librería y no se que hacer D:

  • @valentinaliendro3593
    @valentinaliendro3593 Год назад

    La memoria se puede implementar usando tanto GPT 4 como en 3.5 turbo?

  • @alexanderacevedo962
    @alexanderacevedo962 Год назад

    al principio hay algo que no entendi muy bien al momento que dijiste de los problemas , la memoria en si va con el tamaño por la cantidad de token o usando esta funcionalidad de la librería langchain no me da limites para el tamaño del historial?

    • @AMPTech
      @AMPTech  Год назад

      langchain guarda todo el historico, pero el limite de tokens del modelo como tal sigue siendo el mismo.

  • @ennioagc
    @ennioagc Год назад

    Se pueden implementar varios tipos de memoria a la vez?

  • @ernestosantiesteban6333
    @ernestosantiesteban6333 Год назад +1

    No sería mas eficiente hacer un embedings de toda la conversación y que se agregue al contexto del prompt actual como en los programas de chatear con pdfs? Por cierto muy buen video.

    • @AMPTech
      @AMPTech  Год назад +2

      Ese es otro tipo de memoria que tocare en otro video. En el que justo haces retrieval de los embeddings y después lo procesas con un llm.

  • @yonautercreations8284
    @yonautercreations8284 Год назад

    A mi me crea una duda, si estoy enviando vía api, la tarificación es por token, no? Osea que si continuamente le meto al promt todo el historial, estaré incrementando el coste a lo bestia. Podrías comentar esta parte? Ya que no es lo mismo pagar la suscripción a 20 dólares, que pagar por token y tener excesos, si?

    • @AMPTech
      @AMPTech  Год назад

      Si, el usar memoria en estos modelos incrementa el costo pues estas enviando cada vez mas tokens. Esto es distinto a la suscripcion de 20 dolares que mencionas ya que esa suscripcion es para poder usar chatgpt en su mejor version (con GPT4), pero esta API que menciono es para poder integrar todos los modelos que tienen a tu código (a diferencia de tener que utilizar su interfaz gráfica para poderlo utilizar)
      Saludos!

  • @alexanderacevedo962
    @alexanderacevedo962 Год назад

    como podiera hacer para que el mismo modela sea autoadministable con las tareas que debe hacer , con respecto al rol de personalizacion que le doy , que me recomiendas?

    • @AMPTech
      @AMPTech  Год назад

      Echale un ojo a AutoGPT, este tipo de implementaciones todavia tienen sus fallas (y se han inflado mucho las expectativas de estos) pero para algunas tareas un poco básicas pueden funcionar. Al igual que hacer agentes con Langchain, justo en este momento estaba creando el archivo para empezar a planear ese video! jajaja

  • @Arieloreyes
    @Arieloreyes Год назад +1

    Muy buen video, pero no pudimos ver la visualización de los grafos, importaste nx pero no hiciste nada con eso.
    Saludos.

  • @nicolasmielnizuk8319
    @nicolasmielnizuk8319 11 месяцев назад

    Hola Amigo, que es Gnoss gpt

  • @orlandodeabreu9167
    @orlandodeabreu9167 Год назад

    ¿Puede enviarse a Chat GPT el historial de una conversación antigua?

    • @AMPTech
      @AMPTech  Год назад

      Si, se puede almacenar el historico en una variable y hacer un pickle file. Despues ese file lo cargas y por default ya tendrá el historial de las conversaciones pasadas.

  • @orlandomanuelospinohernand9869

    Gracias! Consulta como y cuando cual utilizar?

    • @AMPTech
      @AMPTech  Год назад

      La que mas he usado yo es la segunda con la ventana. Esa es muy buena solución para la mayoría de los casos. La que genera los resumenes te funciona si sabes que las interacciones que tendrás con tu chatbot rápido van a exceder el limite de tokens que tenga el modelo.

  • @hernansanchezavila1423
    @hernansanchezavila1423 Год назад

    Excelente video, como es tu email. Por favor, Gracias. Necesito contactarte