RI AI + Python en Español
RI AI + Python en Español
  • Видео 45
  • Просмотров 20 348
El Decoder en la Arquitectura de Transformadores. Qué es un decoder y cómo funciona.
Siguiendo la serie de videos sobre HuggingFace vamos a ver la arquitectura de los transformadores (Transformers Architecture) que es una arquitectura usada por la gran mayoría de los ‘pre-trained models’(modelos pre entrenados) o ‘fine-tuned models’ (modelos fine-tuned) usados para tareas de procesamiento de lenguajes naturales (natural language processing (NLP)) en inteligencia artificial y que podemos encontrarnos hoy en día en Hugging Face.
En este video nos vamos a centrar en el decoder de la arquitectura de transformadores. Vamos a explicar lo que es un decoder en la arquitectura de transformadores y cómo funciona éste en un modelo de tipo encoder-decoder.
Просмотров: 107

Видео

El Encoder en la Arquitectura de Transformadores. Qué es un Encoder y Cómo funciona.
Просмотров 115День назад
Siguiendo la serie de videos sobre HuggingFace vamos a ver la arquitectura de los transformadores (Transformers Architecture) que es una arquitectura usada por la gran mayoría de los "pre-trained models" (modelos pre entrenados) o "fine-tuned models" (modelos fine-tuned) usados para tareas de procesamiento de lenguajes naturales (natural language processing (NLP)) en inteligencia artificial y q...
Hugging Face - Usa variables de entorno para conectarte a tu cuenta. Ejemplo con JupyterLab.
Просмотров 8814 дней назад
En este video vamos a ver cómo conectarnos a Hugging Face de forma programática usando, en este caso, JupiterLab. Vamos a crear un fichero donde vamos a definir las variables de entorno necesarias para conectarnos a nuestra cuenta de Hugging Face. Esto nos permitirá acceder directamente a nuestra cuenta gracias a que mantendremos el fichero de las variables de entorno, siempre disponibles. Cone...
Hugging Face - Cómo puedes conectarte de forma programática a tu cuenta. Ejemplo usando Colab.
Просмотров 14521 день назад
En este video vamos a ver cómo conectarnos a Hugging Face de forma programática usando, en este caso, Colab. Vemos un ejemplo, de una forma en que puedes realizar la conexión a tu cuenta. Hugging Face es una plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de aplicaciones que son...
Hugging Face - Dentro del Pipeline: ¿Qué ocurre, qué sucede? ¿Cómo funciona ? Su magia explicada.
Просмотров 150Месяц назад
En este video vamos a ver qué sucede dentro del pipeline. En el video anterior explicamos cómo usar la función pipeline de la librería de transformers para interactuar con multitud de modelos y ser capaces de realizar distintas tares con tan sólo tres lineas de código. Vamos a ver qué detrás de tres lineas de código que parecen ´mágicas´ ocurren muchas más cosas. Vamos a ver su secreto. Hugging...
Hugging Face - Pipeline: Realiza multitud de tareas diferentes con sólo 3 líneas de código.
Просмотров 178Месяц назад
En este video vamos a ver cómo usar la función pipeline de la librería de transformers para interactuar con multitud de modelos y ser capaces de realizar distintas tares con tan sólo tres lineas de código. Hugging Face es una plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de ap...
Hugging Face - Listos para usarlo en sólo 14 minutos. Modelos, Datasets y demo Spaces(aplicaciones).
Просмотров 1,5 тыс.Месяц назад
En este video vamos a ver qué es Hugging Face, cómo iniciarnos en el uso de la plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de aplicaciones que son open-source y que están públicamente abiertas a todas aquella personas u organizaciones que estén interesadas. Vamos a navegar p...
Ollama - Visualizar tokens: Mistral versus Llama3. Tiktokenizer - Visualizar tokens sin usar código.
Просмотров 97Месяц назад
En este video, que es la continuación del video titulado: “Ollama - ¿Qué son los tokens? ¿Cómo verlos? - Usa los token ids para ver todos los tokens de llama3.”: ruclips.net/video/bkiQPRuDx-o/видео.html ,vamos a ver los token ids de los Lenguajes de gran tamaño (Large Language Models (LLMs)), utilizando cómo ejemplo mistral , LLM open-source. Además veremos cómo podemos acceder a los tokens de ...
Ollama - ¿Qué son los tokens? ¿Cómo verlos? - Usa los token ids para ver todos los tokens de llama3.
Просмотров 2422 месяца назад
En este video vamos a explicar qué son los tokens y vamos también a explicar cómo utilizar Ollama para ver los token ids de los Lenguajes de gran tamaño (Large Language Models (LLMs)), utilizando cómo ejemplo llama3, LLM open-source. Usaremos una alternativa para obtener los tokens asignados a los distintos tokens ids que pudimos obtener de Ollama. Ollama es una herramienta que nos permite ejec...
Ollama - Crea tus propios modelos de LLM con parámetros específicos y más avanzados. Veamos cómo...
Просмотров 7522 месяца назад
En este video vamos a ver cómo configurar Ollama para crear tus propios Lenguajes de gran tamaño (Large Language Models (LLMs)) utilizando parámetros específicos y más avanzados. En lugar de definir los distintos parámetros en el momento de la ejecución del LLM( runtime ) elegimos crear de antemano nuestro propio modelo construido a partir o sobre cualquier otro LLM open-source de nuestra elecc...
Ollama - Modifica el tamaño de la ventana de contexto (context window) en los LLMs. ¿Cómo hacerlo?
Просмотров 2022 месяца назад
En este video vamos a ver cómo configurar Ollama para obtener de los Lenguajes de gran tamaño (Large Language Models (LLMs)) como llama 3 o Mistral, por ejemplo, una talla de contexto que sea más o menos amplio para que el LLM proporcione el siguiente token más probable. Vamos a usar el parámetro específico “num_ctx” para conseguir esto de los LLMs. En videos posteriores iremos viendo y explica...
Ollama - Obtén de los LLMs respuestas contantes. A la misma pregunta, siempre la misma respuesta.
Просмотров 1582 месяца назад
En este video vamos a ver cómo configurar Ollama para obtener de los Lenguajes de gran tamaño (Large Language Models (LLMs)) como llama 3 o Mistral, por ejemplo, siempre la misma respuesta a una misma pregunta. Vamos a usar el parámetro específico “seed” para conseguir una repuesta constante y única de los LLMs. En videos posteriores iremos viendo y explicando otras opciones de parámetros avanz...
Ollama - Un paso más en el nivel de creatividad del LLM - Respuestas más creativas y diversas.
Просмотров 1622 месяца назад
En este video vamos a ver cómo configurar Ollama para ir más allá en la modificación del nivel creativo de los Lenguajes de gran tamaño (Large Language Models (LLMs)), como llama 3 o Mistral, por ejemplo. Vamos a usar los parámetros específicos “top_k” y “top_p” para conseguir repuestas de los LLMs aún más creativas en algunos casos o aún más conservadores en otros. En videos posteriores iremos...
Ollama - Modifica el nivel de creatividad del LLM - Una cuestión de temperatura. Veamos cómo...
Просмотров 5663 месяца назад
En este video vamos a ver cómo configurar Ollama para modificar el nivel creativo de los Lenguajes de gran tamaño (Large Language Models (LLMs)), como llama 3 o Mistral, por ejemplo. Vamos a usar el parámetro específico “temperature”(temperatura) para conseguir repuestas de los LLMs más creativas en algunos casos o más conservadores en otros. En videos posteriores iremos viendo y explicando otr...
Llama3.1 - Ollama : Tool Calling ( llamadas de herramientas). ¡ Incrementa las habilidades del LLM !
Просмотров 4593 месяца назад
En este video informamos de la reciente introducción de llama3.1, el 'Large Language Model' (LLM) open-source de Meta con tres versiones diferentes (405B,70B y 8B de parámetros). La introducción de Llama3.1, anima a Ollama, no sólo a poner a disposición el modelo llama3.1, sino que además pone en marcha la funcionalidad de ´tool calling´ (llamadas de herramientas) que permiten a los Lenguajes d...
Ollama - Mantén ‘vivos’ o ‘cargados’ en memoria los LLMs por el tiempo necesario. ¿Cómo hacerlo ?
Просмотров 2573 месяца назад
Ollama - Mantén ‘vivos’ o ‘cargados’ en memoria los LLMs por el tiempo necesario. ¿Cómo hacerlo ?
Ollama - ¿chat( ) o generate( )? ¿Cómo usarlos? - Interactúa con los LLMs correctamente.
Просмотров 4063 месяца назад
Ollama - ¿chat( ) o generate( )? ¿Cómo usarlos? - Interactúa con los LLMs correctamente.
Chroma Vector Stores - Elige el modelo de embeddings que quieras (Modelos de Sentence-Transformers)
Просмотров 3444 месяца назад
Chroma Vector Stores - Elige el modelo de embeddings que quieras (Modelos de Sentence-Transformers)
Chroma Vector Stores - Crea una Base de Datos de Vectores Persistente o Permanente. ¡ Veamos cómo !
Просмотров 5214 месяца назад
Chroma Vector Stores - Crea una Base de Datos de Vectores Persistente o Permanente. ¡ Veamos cómo !
Hierarchical Navigable Small World (HNSW) en Chroma - Cómo Funciona : Visualización del algoritmo.
Просмотров 2464 месяца назад
Hierarchical Navigable Small World (HNSW) en Chroma - Cómo Funciona : Visualización del algoritmo.
Chroma Vector Stores - Base de Datos De Embeddings - Almacén de Embeddings. Qué son y Cómo Se Usan.
Просмотров 1 тыс.4 месяца назад
Chroma Vector Stores - Base de Datos De Embeddings - Almacén de Embeddings. Qué son y Cómo Se Usan.
Retrieval-Augmented Generation (RAG):¿Cómo Incorporar Distintos Tipos de Documentos simultáneamente?
Просмотров 7195 месяцев назад
Retrieval-Augmented Generation (RAG):¿Cómo Incorporar Distintos Tipos de Documentos simultáneamente?
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 3: Ej. en código.
Просмотров 3295 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 3: Ej. en código.
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 2: Ej. en código.
Просмотров 5165 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 2: Ej. en código.
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ?
Просмотров 8855 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ?
Ollama : Ejecuta Múltiples LLMs en Paralelo o Simultáneamente.
Просмотров 6235 месяцев назад
Ollama : Ejecuta Múltiples LLMs en Paralelo o Simultáneamente.
OLLAMA embedding : Modelos de embedding más rápidos y especializados.
Просмотров 1,5 тыс.5 месяцев назад
OLLAMA embedding : Modelos de embedding más rápidos y especializados.
Prompt Engineering : Cómo Pedir a los LLMs que Deduzcan o Analicen Sentimientos.
Просмотров 2636 месяцев назад
Prompt Engineering : Cómo Pedir a los LLMs que Deduzcan o Analicen Sentimientos.
Prompt Engineering : Desarrollo por Iteración - ¡ Iterar para ganar !
Просмотров 1366 месяцев назад
Prompt Engineering : Desarrollo por Iteración - ¡ Iterar para ganar !
Prompt Engineering : Dar tiempo para pensar a los LLMs - ¡ Veamos cómo hacerlo !
Просмотров 3526 месяцев назад
Prompt Engineering : Dar tiempo para pensar a los LLMs - ¡ Veamos cómo hacerlo !

Комментарии

  • @RoylanSuarez-jh2ji
    @RoylanSuarez-jh2ji 9 часов назад

    Excelente explicación.. gracias por el aporte

  • @hersic-v3p
    @hersic-v3p 6 дней назад

    Muchas gracias por compartir tu conocimiento, grande !

  • @TheSyphonfilterarg
    @TheSyphonfilterarg 6 дней назад

    Faltaría filtrar modelos desde SD 1.5 hasta FLUX. se entiende.

  • @guillermodanielflores7097
    @guillermodanielflores7097 8 дней назад

    Muy buenos tus videos, felicitaciones !!!!. habrá la posibilidad de poder bajar los archivos de Jupyter para Probar. muchas gracias !!!!!

  • @koldomoge9136
    @koldomoge9136 10 дней назад

    Muchas gracias por tu video. Una cuestión. Que diferencia hay entre T4GPU, y T4 TPU?

  • @PraexorVS
    @PraexorVS 14 дней назад

    No se entiende ni mierda

  • @PraexorVS
    @PraexorVS 14 дней назад

    Dale zoom tío

  • @Pablo-Ramirez
    @Pablo-Ramirez 19 дней назад

    Muchas gracias por tu trabajo.

  • @garriola007
    @garriola007 27 дней назад

    Muy bueno. Me quede con ganas de más.

  • @cebberus4332
    @cebberus4332 Месяц назад

    Estimado, esta generación de embbedings, sirven para crear de forma más eficiente datasets ?, me refiero a que es posible crear un dataset de embeddings, tokenizar y entrenar o fine-tunear una IA ?

  • @KevinAQM
    @KevinAQM Месяц назад

    ¡Qué buen análisis! Aun no entro a estudiar enteramente Machine Learning, vengo de análisis de datos (pandas, numpy y matplotlib) pero ya tengo una idea general de cómo se trabaja en ML. Saludos desde Perú.

  • @chonk3d607
    @chonk3d607 Месяц назад

    bueniiisiiimo muchisimas gracias!

  • @sandroormeno
    @sandroormeno Месяц назад

    Gracias por el video, ¿Estos modelos de embedding pueden ser utilizados para textos en español? ¿Cuáles serían los mejores para este caso?

  • @RI-AI-Python-Espanol
    @RI-AI-Python-Espanol Месяц назад

    Al tratar de ejecutar LLMs como los de 8B parámetros(8,000,000,000), tanto el CPU como la GPU pueden ser útiles, pero de manera diferente. CPU: Ventajas: - Puede ser suficiente para modelos más pequeños o tareas específicas como tokenización, por ejemplo. - No requiere hardware adicional. Desventajas: - Probablemente será mucho más lento que una tarjeta gráfica dedicada para cálculos a gran escala. - Puede consumir más memoria e impactar en el rendimiento. GPU: Ventajas: - Puede acelerar significativamente los cálculos para modelos grandes como LLMs, gracias al procesamiento paralelo de los GPUs. - Puede liberar recursos del CPU para otras tareas o mejorar el rendimiento general de tu ordenador. Desventajas: - Requiere una tarjeta gráfica compatible (e. g., NVIDIA, AMD) con suficiente VRAM(Video Random Access Memory) y soporte para CUDA/OpenCL. - Es posible que requiera configuración adicional y ajustes. Para ejecutar LLMs con 8B de parámetros, usa una GPU si es posible. Algunas razones: - Escalabilidad: Las GPUs están diseñadas para manejar cálculos paralelos masivos, lo que las hace ideales para modelos a gran escala como LLMs. - Rapidez: Una tarjeta gráfica dedicada puede acelerar significativamente los tiempos de cálculo en comparación con el uso solo del CPU. - Memoria: Si tu modelo requiere cantidades significativas de memoria, una GPU con suficiente VRAM (e. g., 12 GB o más) puede ser beneficiosa. Si no tienes una GPU compatible, aún podrías ejecutar modelos más pequeños o tareas específicas en tu CPU. Sin embargo, para modelos más grandes como los que tienen 8B parámetros, una GPU podría ser necesaria para alcanzar tiempos de cálculo razonables y un rendimiento adecuado. Incluso con una GPU, debes considerar otros factores: - Tamaño del modelo: Los modelos más grandes requieren más memoria y recursos computacionales. - Tamaño de lote: Lotes más pequeños pueden llevar a tiempos de entrenamiento más lentos, mientras que lotes más grandes pueden no caber en memoria. - Optimizer: La elección del optimizer (e. g., Adam,...) puede afectar el rendimiento. Al trabajar con grandes LLMs, es fundamental equilibrar los trade-offs entre el uso de CPU y GPU, el tamaño del modelo y otros factores para alcanzar tiempos de entrenamiento eficientes.

  • @vidasalud9275
    @vidasalud9275 Месяц назад

    Hola, gracias por el contenido. ¿Que tarjeta de video recomiendara crear API de solo inferencia para una emrpesa pequeña ?

  • @h_7_794
    @h_7_794 Месяц назад

    Una pregunta. Que Ordenador tienes? He instalado ollama en mi máquina y va muy muy lento. Mi intención es ejecutar LLMs de 8B de parámetros, que es más importante tener CPU o GPU?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol Месяц назад

      Para ejecutar LLMs con 8B de parámetros, usa una GPU si es posible. Algunas razones: - Escalabilidad: Las GPUs están diseñadas para manejar cálculos paralelos masivos, lo que las hace ideales para modelos a gran escala como LLMs. - Rapidez: Una tarjeta gráfica dedicada puede acelerar significativamente los tiempos de cálculo en comparación con el uso solo del CPU. - Memoria: Si tu modelo requiere cantidades significativas de memoria, una GPU con suficiente VRAM (e. g., 12 GB o más) puede ser beneficiosa. Si no tienes una GPU compatible, aún podrías ejecutar modelos más pequeños o tareas específicas en tu CPU. Sin embargo, para modelos más grandes como los que tienen 8B parámetros, una GPU podría ser necesaria para alcanzar tiempos de cálculo razonables y un rendimiento adecuado. Nota : Podemos usar Colab para ejecutar los modelos usando GPU. Lo vamos a ver en uno de los videos que van a salir en las proóximas semanas. Pondré aquí el link/enlace cuando esté disponible. :)

  • @juanjocastillo736
    @juanjocastillo736 Месяц назад

    Llegué hasta el 1:54 y me fui a vomitar.

  • @Pablo-Ramirez
    @Pablo-Ramirez Месяц назад

    Interesantes capítulos a la espera del siguiente para ver como nos conectamos vía python. Gracias.

  • @LuisC23-ve4uo
    @LuisC23-ve4uo Месяц назад

    Que buen y maravilloso aporte, gracias. en realidad es de gran ayuda. Sin embargo, los documentos (NO el notebook: Web, PDF, CSV, TXT) serían de gran utilidad para replicar lo que enseñas, gracias 👍.

  • @Pablo-Ramirez
    @Pablo-Ramirez Месяц назад

    Muchas gracias por seguir compartiendo tu conocimiento. Saludos.

  • @h_7_794
    @h_7_794 Месяц назад

    Ollama es machista. Hace micromaschismos. Debería deconstruirse... Jajaja

  • @AA-pw4bk
    @AA-pw4bk 2 месяца назад

    Excellent information. Muchas gracias.

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 2 месяца назад

    Muy buen video, útil para diferentes propósitos. El último ejemplo donde se verifica si hay un tema en la oración, se puede hacer en español o hay que hacer algo adicional ? gracias

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol Месяц назад

      El inglés ha sido el idioma usado en los LLMs para ser entrenados. A medida que vayan saliendo nuevos modelos, el uso de otros idiomas empezará quizá a ser más corriente y entonces los resultados obtenidos con las instrucciones en esos idiomas serán mejores. Lo mejor es que pruebes y lo hagas en español para ver los resultados...

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 2 месяца назад

    Excelente video ! gracias

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 2 месяца назад

    Excelente video, gracias. Que debe hacerse para trabajar en español desde el texto (mensaje), pregunta (summary) y respuesta del modelo?

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 2 месяца назад

    Gracias por el video 👍, claro y preciso. Con respecto al texto que utilizas, se puede utilizar en español ?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol Месяц назад

      Puedes usar el español, pero los resultados que obtienes suelen ser peores. Una de las razones fundamentales está en los tokens. En los videos sobre los tokens en el canal explico un poco la razón por la que los LLM funcionan mejor en inglés. Dicho esto, lo mejor que puedes hacer es probar por ti mismo y ver si los resultados obtenidos son suficientes para tu caso particular.

  • @LuisC23-ve4uo
    @LuisC23-ve4uo 2 месяца назад

    Hola, gracias por tu video, muy interesante. Sería de gran apoyo que hagas un fine-tuning al llama3👍

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    Muy bueno. Podrias hablar de GraphRag?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol Месяц назад

      Está en camino... Dicho esto GraphRag es un proyecto reciente(en realidad como todos en esto...) y que en el momento de este comentario no se puede 'oficialmente' usar con modelos open-source sin usar 'trucos' para acceder a ellos. Además de que sus resultados son mucho mejores con modelos más grandes de los que hemos usado en el canal. En el canal usamos versiones de LLMs open-source para poder ejecutarlos localmente usando Ollama (de manera que cualquier persona que tenga un ordenador reciente pueda por lo menos usarlos y practicar con ellos localmente) Pero es evidente que GraphRag está tratando de solucionar uno de los problemas fundamentales de los RAG(básicos o naives) que es el de ser capaz de 'atar cabos', es decir, ser capaces de a partir de datos fragmentados encontrar relaciones entre ellos. A seguir de cerca... En el propio repositorio de Github del projecto nos indican: "Warning: GraphRAG indexing can be an expensive operation, please read all of the documentation to understand the process and costs involved, and start small." La indexación en GraphRAG es una operación costosa, ir a la documentación para entender los procesos y los costes que implican...

  • @memo9586
    @memo9586 2 месяца назад

    Excelente, tengo la duda si es necesario usar Langchain o no. ¿En qué casos es recomendable usarlo?

  • @RonBastidas
    @RonBastidas 2 месяца назад

    Amigo, veo que usas MAC... yo también tengo, peroesta muy lento y parece que ya me quede atrás... puedes ayudarme a compartir tu configuración de hardware?

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol Месяц назад

      En mi caso uso un Mac última generación. En otras versiones más antiguas el proceso puede ser más lento. Cuando se use intentar parar otros procesos en el ordenador que no se estén usando para mejorar el rendimiento...

  • @Pablo-Ramirez
    @Pablo-Ramirez 2 месяца назад

    Excelente, muchas gracias.

  • @rageshns
    @rageshns 2 месяца назад

    github code please?

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    muy interesante ,gracias por compartir

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    muy interesante gracias

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    gracias por el video

  • @PassingTheDog
    @PassingTheDog 2 месяца назад

    Estaría bien un video con representaciones de embeddings!

  • @garriola007
    @garriola007 2 месяца назад

    Hola, muy bueno y original tu contenido. Podras hacer algun video sobre ABM en Chromadb sin eliminar toda la BBDD? Gracias y sigue así.

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    muy buen video. gracias

  • @erickbustamantealarcon2414
    @erickbustamantealarcon2414 2 месяца назад

    10/10, justo lo que estaba buscando

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    ¡Excelente explicación¡

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    muy útil

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    Hola, genial. ¿piensas ver temas de machine learning?

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 2 месяца назад

    Buenos videos, me gustaron porque explicas bastante bien y sobre todo porque muestras soluciones altamente personalizables , vía código, y que tienen en cuenta la privacidad de los datos.

  • @Pablo-Ramirez
    @Pablo-Ramirez 2 месяца назад

    Como siempre muchas gracias por tu video. Tengo una consulta espero se entienda. Tengo un script de RAG con Python y Ollama de forma local, he realizado muchas pruebas con distintos LLMs y los mejores resultados han sido con Llama3. Ahora dije yo, si es así, con Llama3.1 va a ser mejor. Pero 😢 fue todo lo contrario incluso en ocasiones me dice que hay riesgo y que no puede responder. Porque puede ocurrir esto. Gracias disculpa lo largo de la consulta. Saludos.

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol Месяц назад

      Lo único que puedo decir, es que la única solución que tenemos es ir probando los modelos y usar aquellos que nos den mejores resultados...

  • @diegam5864
    @diegam5864 3 месяца назад

    Estoy mirando tus videos y voy entendiendo mas de como va la cosa. No entiendo al 100% porqué hay que hacer pequeños trozos del documento. En caso de pasarle un documento que tenga, digamos 20MB de texto, que pasa? explota ollama? Gracias por los videos.

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol Месяц назад

      Tenemos que hacer trozos de documentos porque los LLMs tienen un 'context window'(ventana de contexto) limitada, que quiere decir básicamente que no pueden analizar/trabajar con más de un número máximo de palabras. Para entendernos (Los LLM usan tokens que representan palabras o partes de palabras), si le damos al LLM un texto completo y no lo partimos en trozos que pueda analizar, únicamente usará el texto hasta el punto en que su ventana de contexto le permite y lo demás no lo podrá usar. Para saber más sobre los tokens : ruclips.net/video/bkiQPRuDx-o/видео.html

  • @garriola007
    @garriola007 3 месяца назад

    Hola, que tal. Me encanta todo lo que estas subiendo y estoy aprendiendo mucho con tus videos. Podrías poner la función entera de get_current_weather. Soy novato y no sé cómo continuarla. Muchas gracias

    • @garriola007
      @garriola007 3 месяца назад

      reproduje el video en velocidad lenta y pude ver lo que me faltaba. Estupendo!!!

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol 3 месяца назад

      Me alegro que te este sirviendo. :)

  • @TradingCero
    @TradingCero 3 месяца назад

    Gracias crack !

  • @pabloandresrodriguezgil1866
    @pabloandresrodriguezgil1866 3 месяца назад

    Muy cortico

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol 2 месяца назад

      Gracias por el comentario. ¿Qué duración de video sería la ideal ?

  • @fcojara2000
    @fcojara2000 3 месяца назад

    hola, por qué decidiste usar la librería Ollama en lugar de LangChain ?. gracias por compartir tus conocimientos.

    • @RI-AI-Python-Espanol
      @RI-AI-Python-Espanol 3 месяца назад

      Estar pendiente de cómo funcionan y evolucionan tanto LangChain y Ollama me parece interesante. Me limito a mostrar cómo funcionan y luego que cada uno experimente con ellas y las use dependiendo de sus necesidades o preferencias.

  • @Pablo-Ramirez
    @Pablo-Ramirez 3 месяца назад

    Muchas gracias, se aprende mucho con tus videos. Saludos.