RI AI + Python en Español
RI AI + Python en Español
  • Видео 46
  • Просмотров 25 895
Aprende IA Python Desde Cero. Python e Inteligencia Artificial(IA) Unidas: una Combinación Explosiva
¡Aprende a usar las bases de Python para usarlo en tu trabajo o en tus estudios y abre las puertas de la Inteligencia Artificial!
En este tutorial de introducción a Python de unas 2.30 horas + 30 minutos de anexos de duración, aprenderás las bases de Python para que puedas incorporar este conocimiento en tu trabajo o en tus estudios y puedas igualmente iniciarte en el mundo de la inteligencia artificial(IA).
La última parte del video, los anexos, de una duración de 30 minutos, aproximadamente, te mostrará cómo instalar todas y cada una de las herramientas usadas en el tutorial.
Aprende a combinar Python e Inteligencia Artificial(IA) y disfruta de un conocimiento en manos de muy pocos.
¡ Bie...
Просмотров: 332

Видео

El Decoder en la Arquitectura de Transformadores. Qué es un decoder y cómo funciona.
Просмотров 229Месяц назад
Siguiendo la serie de videos sobre HuggingFace vamos a ver la arquitectura de los transformadores (Transformers Architecture) que es una arquitectura usada por la gran mayoría de los ‘pre-trained models’(modelos pre entrenados) o ‘fine-tuned models’ (modelos fine-tuned) usados para tareas de procesamiento de lenguajes naturales (natural language processing (NLP)) en inteligencia artificial y qu...
El Encoder en la Arquitectura de Transformadores. Qué es un Encoder y Cómo funciona.
Просмотров 180Месяц назад
Siguiendo la serie de videos sobre HuggingFace vamos a ver la arquitectura de los transformadores (Transformers Architecture) que es una arquitectura usada por la gran mayoría de los "pre-trained models" (modelos pre entrenados) o "fine-tuned models" (modelos fine-tuned) usados para tareas de procesamiento de lenguajes naturales (natural language processing (NLP)) en inteligencia artificial y q...
Hugging Face - Usa variables de entorno para conectarte a tu cuenta. Ejemplo con JupyterLab.
Просмотров 127Месяц назад
En este video vamos a ver cómo conectarnos a Hugging Face de forma programática usando, en este caso, JupiterLab. Vamos a crear un fichero donde vamos a definir las variables de entorno necesarias para conectarnos a nuestra cuenta de Hugging Face. Esto nos permitirá acceder directamente a nuestra cuenta gracias a que mantendremos el fichero de las variables de entorno, siempre disponibles. Cone...
Hugging Face - Cómo puedes conectarte de forma programática a tu cuenta. Ejemplo usando Colab.
Просмотров 2612 месяца назад
En este video vamos a ver cómo conectarnos a Hugging Face de forma programática usando, en este caso, Colab. Vemos un ejemplo, de una forma en que puedes realizar la conexión a tu cuenta. Hugging Face es una plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de aplicaciones que son...
Hugging Face - Dentro del Pipeline: ¿Qué ocurre, qué sucede? ¿Cómo funciona ? Su magia explicada.
Просмотров 2132 месяца назад
En este video vamos a ver qué sucede dentro del pipeline. En el video anterior explicamos cómo usar la función pipeline de la librería de transformers para interactuar con multitud de modelos y ser capaces de realizar distintas tares con tan sólo tres lineas de código. Vamos a ver qué detrás de tres lineas de código que parecen ´mágicas´ ocurren muchas más cosas. Vamos a ver su secreto. Hugging...
Hugging Face - Pipeline: Realiza multitud de tareas diferentes con sólo 3 líneas de código.
Просмотров 2392 месяца назад
En este video vamos a ver cómo usar la función pipeline de la librería de transformers para interactuar con multitud de modelos y ser capaces de realizar distintas tares con tan sólo tres lineas de código. Hugging Face es una plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de ap...
Hugging Face - Listos para usarlo en sólo 14 minutos. Modelos, Datasets y demo Spaces(aplicaciones).
Просмотров 3,7 тыс.2 месяца назад
En este video vamos a ver qué es Hugging Face, cómo iniciarnos en el uso de la plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de aplicaciones que son open-source y que están públicamente abiertas a todas aquella personas u organizaciones que estén interesadas. Vamos a navegar p...
Ollama - Visualizar tokens: Mistral versus Llama3. Tiktokenizer - Visualizar tokens sin usar código.
Просмотров 1153 месяца назад
En este video, que es la continuación del video titulado: “Ollama - ¿Qué son los tokens? ¿Cómo verlos? - Usa los token ids para ver todos los tokens de llama3.”: ruclips.net/video/bkiQPRuDx-o/видео.html ,vamos a ver los token ids de los Lenguajes de gran tamaño (Large Language Models (LLMs)), utilizando cómo ejemplo mistral , LLM open-source. Además veremos cómo podemos acceder a los tokens de ...
Ollama - ¿Qué son los tokens? ¿Cómo verlos? - Usa los token ids para ver todos los tokens de llama3.
Просмотров 2883 месяца назад
En este video vamos a explicar qué son los tokens y vamos también a explicar cómo utilizar Ollama para ver los token ids de los Lenguajes de gran tamaño (Large Language Models (LLMs)), utilizando cómo ejemplo llama3, LLM open-source. Usaremos una alternativa para obtener los tokens asignados a los distintos tokens ids que pudimos obtener de Ollama. Ollama es una herramienta que nos permite ejec...
Ollama - Crea tus propios modelos de LLM con parámetros específicos y más avanzados. Veamos cómo...
Просмотров 9763 месяца назад
En este video vamos a ver cómo configurar Ollama para crear tus propios Lenguajes de gran tamaño (Large Language Models (LLMs)) utilizando parámetros específicos y más avanzados. En lugar de definir los distintos parámetros en el momento de la ejecución del LLM( runtime ) elegimos crear de antemano nuestro propio modelo construido a partir o sobre cualquier otro LLM open-source de nuestra elecc...
Ollama - Modifica el tamaño de la ventana de contexto (context window) en los LLMs. ¿Cómo hacerlo?
Просмотров 2453 месяца назад
En este video vamos a ver cómo configurar Ollama para obtener de los Lenguajes de gran tamaño (Large Language Models (LLMs)) como llama 3 o Mistral, por ejemplo, una talla de contexto que sea más o menos amplio para que el LLM proporcione el siguiente token más probable. Vamos a usar el parámetro específico “num_ctx” para conseguir esto de los LLMs. En videos posteriores iremos viendo y explica...
Ollama - Obtén de los LLMs respuestas contantes. A la misma pregunta, siempre la misma respuesta.
Просмотров 1813 месяца назад
En este video vamos a ver cómo configurar Ollama para obtener de los Lenguajes de gran tamaño (Large Language Models (LLMs)) como llama 3 o Mistral, por ejemplo, siempre la misma respuesta a una misma pregunta. Vamos a usar el parámetro específico “seed” para conseguir una repuesta constante y única de los LLMs. En videos posteriores iremos viendo y explicando otras opciones de parámetros avanz...
Ollama - Un paso más en el nivel de creatividad del LLM - Respuestas más creativas y diversas.
Просмотров 1764 месяца назад
En este video vamos a ver cómo configurar Ollama para ir más allá en la modificación del nivel creativo de los Lenguajes de gran tamaño (Large Language Models (LLMs)), como llama 3 o Mistral, por ejemplo. Vamos a usar los parámetros específicos “top_k” y “top_p” para conseguir repuestas de los LLMs aún más creativas en algunos casos o aún más conservadores en otros. En videos posteriores iremos...
Ollama - Modifica el nivel de creatividad del LLM - Una cuestión de temperatura. Veamos cómo...
Просмотров 5884 месяца назад
En este video vamos a ver cómo configurar Ollama para modificar el nivel creativo de los Lenguajes de gran tamaño (Large Language Models (LLMs)), como llama 3 o Mistral, por ejemplo. Vamos a usar el parámetro específico “temperature”(temperatura) para conseguir repuestas de los LLMs más creativas en algunos casos o más conservadores en otros. En videos posteriores iremos viendo y explicando otr...
Llama3.1 - Ollama : Tool Calling ( llamadas de herramientas). ¡ Incrementa las habilidades del LLM !
Просмотров 4904 месяца назад
Llama3.1 - Ollama : Tool Calling ( llamadas de herramientas). ¡ Incrementa las habilidades del LLM !
Ollama - Mantén ‘vivos’ o ‘cargados’ en memoria los LLMs por el tiempo necesario. ¿Cómo hacerlo ?
Просмотров 2974 месяца назад
Ollama - Mantén ‘vivos’ o ‘cargados’ en memoria los LLMs por el tiempo necesario. ¿Cómo hacerlo ?
Ollama - ¿chat( ) o generate( )? ¿Cómo usarlos? - Interactúa con los LLMs correctamente.
Просмотров 4555 месяцев назад
Ollama - ¿chat( ) o generate( )? ¿Cómo usarlos? - Interactúa con los LLMs correctamente.
Chroma Vector Stores - Elige el modelo de embeddings que quieras (Modelos de Sentence-Transformers)
Просмотров 3875 месяцев назад
Chroma Vector Stores - Elige el modelo de embeddings que quieras (Modelos de Sentence-Transformers)
Chroma Vector Stores - Crea una Base de Datos de Vectores Persistente o Permanente. ¡ Veamos cómo !
Просмотров 6325 месяцев назад
Chroma Vector Stores - Crea una Base de Datos de Vectores Persistente o Permanente. ¡ Veamos cómo !
Hierarchical Navigable Small World (HNSW) en Chroma - Cómo Funciona : Visualización del algoritmo.
Просмотров 2605 месяцев назад
Hierarchical Navigable Small World (HNSW) en Chroma - Cómo Funciona : Visualización del algoritmo.
Chroma Vector Stores - Base de Datos De Embeddings - Almacén de Embeddings. Qué son y Cómo Se Usan.
Просмотров 1,3 тыс.5 месяцев назад
Chroma Vector Stores - Base de Datos De Embeddings - Almacén de Embeddings. Qué son y Cómo Se Usan.
Retrieval-Augmented Generation (RAG):¿Cómo Incorporar Distintos Tipos de Documentos simultáneamente?
Просмотров 8156 месяцев назад
Retrieval-Augmented Generation (RAG):¿Cómo Incorporar Distintos Tipos de Documentos simultáneamente?
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 3: Ej. en código.
Просмотров 3746 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 3: Ej. en código.
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 2: Ej. en código.
Просмотров 6096 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 2: Ej. en código.
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ?
Просмотров 1,1 тыс.6 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ?
Ollama : Ejecuta Múltiples LLMs en Paralelo o Simultáneamente.
Просмотров 7196 месяцев назад
Ollama : Ejecuta Múltiples LLMs en Paralelo o Simultáneamente.
OLLAMA embedding : Modelos de embedding más rápidos y especializados.
Просмотров 1,7 тыс.7 месяцев назад
OLLAMA embedding : Modelos de embedding más rápidos y especializados.
Prompt Engineering : Cómo Pedir a los LLMs que Deduzcan o Analicen Sentimientos.
Просмотров 2707 месяцев назад
Prompt Engineering : Cómo Pedir a los LLMs que Deduzcan o Analicen Sentimientos.
Prompt Engineering : Desarrollo por Iteración - ¡ Iterar para ganar !
Просмотров 1447 месяцев назад
Prompt Engineering : Desarrollo por Iteración - ¡ Iterar para ganar !

Комментарии

  • @josepbeltran
    @josepbeltran 10 дней назад

    Hola, da igual el embeding que usemos para usar con modelos LLM, o cada modelo LLM tiene su definicion de embedding que soporta? cualquier tipo lo puedo usar en gpt o llama? gracias

  • @gustavozatorre9556
    @gustavozatorre9556 11 дней назад

    Excelente tus vídeos, muchas gracias, Felicitaciones!!

  • @alejandrodazal
    @alejandrodazal 13 дней назад

    Te he conocido con 741 subscriptores en un tiempo recordare esto cuando seas Trend desde hoy ya te estoy follow!!!

  • @jagonzalez3703
    @jagonzalez3703 15 дней назад

    Echaba de menos tus clases magistrales.

  • @Pablo-Ramirez
    @Pablo-Ramirez 15 дней назад

    Hola. Muchas gracias por tu excelente trabajo.

  • @maxza7300
    @maxza7300 23 дня назад

    Y esto funciona también con el embedding de Google ? El Gecko003?

  • @marcelodanielkowalczuk3034
    @marcelodanielkowalczuk3034 25 дней назад

    En un faceswap genero un video pero cuando quiero descargarlo el botòn de descarga ya no està. Còmo puedo acceder al archivo creado? Gracias.

  • @RoylanSuarez-jh2ji
    @RoylanSuarez-jh2ji Месяц назад

    Excelente explicación.. gracias por el aporte

  • @hersic-v3p
    @hersic-v3p Месяц назад

    Muchas gracias por compartir tu conocimiento, grande !

  • @TheSyphonfilterarg
    @TheSyphonfilterarg Месяц назад

    Faltaría filtrar modelos desde SD 1.5 hasta FLUX. se entiende.

  • @guillermodanielflores7097
    @guillermodanielflores7097 Месяц назад

    Muy buenos tus videos, felicitaciones !!!!. habrá la posibilidad de poder bajar los archivos de Jupyter para Probar. muchas gracias !!!!!

  • @koldomoge9136
    @koldomoge9136 Месяц назад

    Muchas gracias por tu video. Una cuestión. Que diferencia hay entre T4GPU, y T4 TPU?

  • @PraexorVS
    @PraexorVS Месяц назад

    No se entiende ni mierda

  • @PraexorVS
    @PraexorVS Месяц назад

    Dale zoom tío

  • @Pablo-Ramirez
    @Pablo-Ramirez Месяц назад

    Muchas gracias por tu trabajo.

  • @garriola007
    @garriola007 2 месяца назад

    Muy bueno. Me quede con ganas de más.

  • @cebberus4332
    @cebberus4332 2 месяца назад

    Estimado, esta generación de embbedings, sirven para crear de forma más eficiente datasets ?, me refiero a que es posible crear un dataset de embeddings, tokenizar y entrenar o fine-tunear una IA ?

  • @KevinAQM
    @KevinAQM 2 месяца назад

    ¡Qué buen análisis! Aun no entro a estudiar enteramente Machine Learning, vengo de análisis de datos (pandas, numpy y matplotlib) pero ya tengo una idea general de cómo se trabaja en ML. Saludos desde Perú.

  • @chonk3d607
    @chonk3d607 2 месяца назад

    bueniiisiiimo muchisimas gracias!

  • @sandroormeno
    @sandroormeno 2 месяца назад

    Gracias por el video, ¿Estos modelos de embedding pueden ser utilizados para textos en español? ¿Cuáles serían los mejores para este caso?

  • @RI-AI-Python-Espanol
    @RI-AI-Python-Espanol 2 месяца назад

    Al tratar de ejecutar LLMs como los de 8B parámetros(8,000,000,000), tanto el CPU como la GPU pueden ser útiles, pero de manera diferente. CPU: Ventajas: - Puede ser suficiente para modelos más pequeños o tareas específicas como tokenización, por ejemplo. - No requiere hardware adicional. Desventajas: - Probablemente será mucho más lento que una tarjeta gráfica dedicada para cálculos a gran escala. - Puede consumir más memoria e impactar en el rendimiento. GPU: Ventajas: - Puede acelerar significativamente los cálculos para modelos grandes como LLMs, gracias al procesamiento paralelo de los GPUs. - Puede liberar recursos del CPU para otras tareas o mejorar el rendimiento general de tu ordenador. Desventajas: - Requiere una tarjeta gráfica compatible (e. g., NVIDIA, AMD) con suficiente VRAM(Video Random Access Memory) y soporte para CUDA/OpenCL. - Es posible que requiera configuración adicional y ajustes. Para ejecutar LLMs con 8B de parámetros, usa una GPU si es posible. Algunas razones: - Escalabilidad: Las GPUs están diseñadas para manejar cálculos paralelos masivos, lo que las hace ideales para modelos a gran escala como LLMs. - Rapidez: Una tarjeta gráfica dedicada puede acelerar significativamente los tiempos de cálculo en comparación con el uso solo del CPU. - Memoria: Si tu modelo requiere cantidades significativas de memoria, una GPU con suficiente VRAM (e. g., 12 GB o más) puede ser beneficiosa. Si no tienes una GPU compatible, aún podrías ejecutar modelos más pequeños o tareas específicas en tu CPU. Sin embargo, para modelos más grandes como los que tienen 8B parámetros, una GPU podría ser necesaria para alcanzar tiempos de cálculo razonables y un rendimiento adecuado. Incluso con una GPU, debes considerar otros factores: - Tamaño del modelo: Los modelos más grandes requieren más memoria y recursos computacionales. - Tamaño de lote: Lotes más pequeños pueden llevar a tiempos de entrenamiento más lentos, mientras que lotes más grandes pueden no caber en memoria. - Optimizer: La elección del optimizer (e. g., Adam,...) puede afectar el rendimiento. Al trabajar con grandes LLMs, es fundamental equilibrar los trade-offs entre el uso de CPU y GPU, el tamaño del modelo y otros factores para alcanzar tiempos de entrenamiento eficientes.

  • @vidasalud9275
    @vidasalud9275 2 месяца назад

    Hola, gracias por el contenido. ¿Que tarjeta de video recomiendara crear API de solo inferencia para una emrpesa pequeña ?

  • @h_7_794
    @h_7_794 2 месяца назад

    Una pregunta. Que Ordenador tienes? He instalado ollama en mi máquina y va muy muy lento. Mi intención es ejecutar LLMs de 8B de parámetros, que es más importante tener CPU o GPU?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol 2 месяца назад

      Para ejecutar LLMs con 8B de parámetros, usa una GPU si es posible. Algunas razones: - Escalabilidad: Las GPUs están diseñadas para manejar cálculos paralelos masivos, lo que las hace ideales para modelos a gran escala como LLMs. - Rapidez: Una tarjeta gráfica dedicada puede acelerar significativamente los tiempos de cálculo en comparación con el uso solo del CPU. - Memoria: Si tu modelo requiere cantidades significativas de memoria, una GPU con suficiente VRAM (e. g., 12 GB o más) puede ser beneficiosa. Si no tienes una GPU compatible, aún podrías ejecutar modelos más pequeños o tareas específicas en tu CPU. Sin embargo, para modelos más grandes como los que tienen 8B parámetros, una GPU podría ser necesaria para alcanzar tiempos de cálculo razonables y un rendimiento adecuado. Nota : Podemos usar Colab para ejecutar los modelos usando GPU. Lo vamos a ver en uno de los videos que van a salir en las proóximas semanas. Pondré aquí el link/enlace cuando esté disponible. :)

  • @juanjocastillo736
    @juanjocastillo736 2 месяца назад

    Llegué hasta el 1:54 y me fui a vomitar.

  • @Pablo-Ramirez
    @Pablo-Ramirez 2 месяца назад

    Interesantes capítulos a la espera del siguiente para ver como nos conectamos vía python. Gracias.

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 2 месяца назад

    Que buen y maravilloso aporte, gracias. en realidad es de gran ayuda. Sin embargo, los documentos (NO el notebook: Web, PDF, CSV, TXT) serían de gran utilidad para replicar lo que enseñas, gracias 👍.

  • @Pablo-Ramirez
    @Pablo-Ramirez 3 месяца назад

    Muchas gracias por seguir compartiendo tu conocimiento. Saludos.

  • @h_7_794
    @h_7_794 3 месяца назад

    Ollama es machista. Hace micromaschismos. Debería deconstruirse... Jajaja

  • @AA-pw4bk
    @AA-pw4bk 3 месяца назад

    Excellent information. Muchas gracias.

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 3 месяца назад

    Muy buen video, útil para diferentes propósitos. El último ejemplo donde se verifica si hay un tema en la oración, se puede hacer en español o hay que hacer algo adicional ? gracias

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol 3 месяца назад

      El inglés ha sido el idioma usado en los LLMs para ser entrenados. A medida que vayan saliendo nuevos modelos, el uso de otros idiomas empezará quizá a ser más corriente y entonces los resultados obtenidos con las instrucciones en esos idiomas serán mejores. Lo mejor es que pruebes y lo hagas en español para ver los resultados...

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 3 месяца назад

    Excelente video ! gracias

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 3 месяца назад

    Excelente video, gracias. Que debe hacerse para trabajar en español desde el texto (mensaje), pregunta (summary) y respuesta del modelo?

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 3 месяца назад

    Gracias por el video 👍, claro y preciso. Con respecto al texto que utilizas, se puede utilizar en español ?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol 3 месяца назад

      Puedes usar el español, pero los resultados que obtienes suelen ser peores. Una de las razones fundamentales está en los tokens. En los videos sobre los tokens en el canal explico un poco la razón por la que los LLM funcionan mejor en inglés. Dicho esto, lo mejor que puedes hacer es probar por ti mismo y ver si los resultados obtenidos son suficientes para tu caso particular.

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 3 месяца назад

    Hola, gracias por tu video, muy interesante. Sería de gran apoyo que hagas un fine-tuning al llama3👍

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    Muy bueno. Podrias hablar de GraphRag?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol 3 месяца назад

      Está en camino... Dicho esto GraphRag es un proyecto reciente(en realidad como todos en esto...) y que en el momento de este comentario no se puede 'oficialmente' usar con modelos open-source sin usar 'trucos' para acceder a ellos. Además de que sus resultados son mucho mejores con modelos más grandes de los que hemos usado en el canal. En el canal usamos versiones de LLMs open-source para poder ejecutarlos localmente usando Ollama (de manera que cualquier persona que tenga un ordenador reciente pueda por lo menos usarlos y practicar con ellos localmente) Pero es evidente que GraphRag está tratando de solucionar uno de los problemas fundamentales de los RAG(básicos o naives) que es el de ser capaz de 'atar cabos', es decir, ser capaces de a partir de datos fragmentados encontrar relaciones entre ellos. A seguir de cerca... En el propio repositorio de Github del projecto nos indican: "Warning: GraphRAG indexing can be an expensive operation, please read all of the documentation to understand the process and costs involved, and start small." La indexación en GraphRAG es una operación costosa, ir a la documentación para entender los procesos y los costes que implican...

  • @memo9586
    @memo9586 3 месяца назад

    Excelente, tengo la duda si es necesario usar Langchain o no. ¿En qué casos es recomendable usarlo?

  • @RonBastidas
    @RonBastidas 3 месяца назад

    Amigo, veo que usas MAC... yo también tengo, peroesta muy lento y parece que ya me quede atrás... puedes ayudarme a compartir tu configuración de hardware?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol 3 месяца назад

      En mi caso uso un Mac última generación. En otras versiones más antiguas el proceso puede ser más lento. Cuando se use intentar parar otros procesos en el ordenador que no se estén usando para mejorar el rendimiento...

  • @Pablo-Ramirez
    @Pablo-Ramirez 3 месяца назад

    Excelente, muchas gracias.

  • @rageshns
    @rageshns 3 месяца назад

    github code please?

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    muy interesante ,gracias por compartir

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    muy interesante gracias

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    gracias por el video

  • @PassingTheDog
    @PassingTheDog 3 месяца назад

    Estaría bien un video con representaciones de embeddings!

  • @garriola007
    @garriola007 3 месяца назад

    Hola, muy bueno y original tu contenido. Podras hacer algun video sobre ABM en Chromadb sin eliminar toda la BBDD? Gracias y sigue así.

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    muy buen video. gracias

  • @erickbustamantealarcon2414
    @erickbustamantealarcon2414 3 месяца назад

    10/10, justo lo que estaba buscando

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    ¡Excelente explicación¡

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    muy útil

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    Hola, genial. ¿piensas ver temas de machine learning?

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 3 месяца назад

    Buenos videos, me gustaron porque explicas bastante bien y sobre todo porque muestras soluciones altamente personalizables , vía código, y que tienen en cuenta la privacidad de los datos.