- Видео 46
- Просмотров 25 895
RI AI + Python en Español
Добавлен 8 янв 2024
AI + Python en español para tod@s.
Aprende IA Python Desde Cero. Python e Inteligencia Artificial(IA) Unidas: una Combinación Explosiva
¡Aprende a usar las bases de Python para usarlo en tu trabajo o en tus estudios y abre las puertas de la Inteligencia Artificial!
En este tutorial de introducción a Python de unas 2.30 horas + 30 minutos de anexos de duración, aprenderás las bases de Python para que puedas incorporar este conocimiento en tu trabajo o en tus estudios y puedas igualmente iniciarte en el mundo de la inteligencia artificial(IA).
La última parte del video, los anexos, de una duración de 30 minutos, aproximadamente, te mostrará cómo instalar todas y cada una de las herramientas usadas en el tutorial.
Aprende a combinar Python e Inteligencia Artificial(IA) y disfruta de un conocimiento en manos de muy pocos.
¡ Bie...
En este tutorial de introducción a Python de unas 2.30 horas + 30 minutos de anexos de duración, aprenderás las bases de Python para que puedas incorporar este conocimiento en tu trabajo o en tus estudios y puedas igualmente iniciarte en el mundo de la inteligencia artificial(IA).
La última parte del video, los anexos, de una duración de 30 minutos, aproximadamente, te mostrará cómo instalar todas y cada una de las herramientas usadas en el tutorial.
Aprende a combinar Python e Inteligencia Artificial(IA) y disfruta de un conocimiento en manos de muy pocos.
¡ Bie...
Просмотров: 332
Видео
El Decoder en la Arquitectura de Transformadores. Qué es un decoder y cómo funciona.
Просмотров 229Месяц назад
Siguiendo la serie de videos sobre HuggingFace vamos a ver la arquitectura de los transformadores (Transformers Architecture) que es una arquitectura usada por la gran mayoría de los ‘pre-trained models’(modelos pre entrenados) o ‘fine-tuned models’ (modelos fine-tuned) usados para tareas de procesamiento de lenguajes naturales (natural language processing (NLP)) en inteligencia artificial y qu...
El Encoder en la Arquitectura de Transformadores. Qué es un Encoder y Cómo funciona.
Просмотров 180Месяц назад
Siguiendo la serie de videos sobre HuggingFace vamos a ver la arquitectura de los transformadores (Transformers Architecture) que es una arquitectura usada por la gran mayoría de los "pre-trained models" (modelos pre entrenados) o "fine-tuned models" (modelos fine-tuned) usados para tareas de procesamiento de lenguajes naturales (natural language processing (NLP)) en inteligencia artificial y q...
Hugging Face - Usa variables de entorno para conectarte a tu cuenta. Ejemplo con JupyterLab.
Просмотров 127Месяц назад
En este video vamos a ver cómo conectarnos a Hugging Face de forma programática usando, en este caso, JupiterLab. Vamos a crear un fichero donde vamos a definir las variables de entorno necesarias para conectarnos a nuestra cuenta de Hugging Face. Esto nos permitirá acceder directamente a nuestra cuenta gracias a que mantendremos el fichero de las variables de entorno, siempre disponibles. Cone...
Hugging Face - Cómo puedes conectarte de forma programática a tu cuenta. Ejemplo usando Colab.
Просмотров 2612 месяца назад
En este video vamos a ver cómo conectarnos a Hugging Face de forma programática usando, en este caso, Colab. Vemos un ejemplo, de una forma en que puedes realizar la conexión a tu cuenta. Hugging Face es una plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de aplicaciones que son...
Hugging Face - Dentro del Pipeline: ¿Qué ocurre, qué sucede? ¿Cómo funciona ? Su magia explicada.
Просмотров 2132 месяца назад
En este video vamos a ver qué sucede dentro del pipeline. En el video anterior explicamos cómo usar la función pipeline de la librería de transformers para interactuar con multitud de modelos y ser capaces de realizar distintas tares con tan sólo tres lineas de código. Vamos a ver qué detrás de tres lineas de código que parecen ´mágicas´ ocurren muchas más cosas. Vamos a ver su secreto. Hugging...
Hugging Face - Pipeline: Realiza multitud de tareas diferentes con sólo 3 líneas de código.
Просмотров 2392 месяца назад
En este video vamos a ver cómo usar la función pipeline de la librería de transformers para interactuar con multitud de modelos y ser capaces de realizar distintas tares con tan sólo tres lineas de código. Hugging Face es una plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de ap...
Hugging Face - Listos para usarlo en sólo 14 minutos. Modelos, Datasets y demo Spaces(aplicaciones).
Просмотров 3,7 тыс.2 месяца назад
En este video vamos a ver qué es Hugging Face, cómo iniciarnos en el uso de la plataforma en la que la comunidad interesada en el “Machine Learning” (Aprendizaje Automático) se reúne para compartir modelos, datasets o conjuntos de datos, además de aplicaciones que son open-source y que están públicamente abiertas a todas aquella personas u organizaciones que estén interesadas. Vamos a navegar p...
Ollama - Visualizar tokens: Mistral versus Llama3. Tiktokenizer - Visualizar tokens sin usar código.
Просмотров 1153 месяца назад
En este video, que es la continuación del video titulado: “Ollama - ¿Qué son los tokens? ¿Cómo verlos? - Usa los token ids para ver todos los tokens de llama3.”: ruclips.net/video/bkiQPRuDx-o/видео.html ,vamos a ver los token ids de los Lenguajes de gran tamaño (Large Language Models (LLMs)), utilizando cómo ejemplo mistral , LLM open-source. Además veremos cómo podemos acceder a los tokens de ...
Ollama - ¿Qué son los tokens? ¿Cómo verlos? - Usa los token ids para ver todos los tokens de llama3.
Просмотров 2883 месяца назад
En este video vamos a explicar qué son los tokens y vamos también a explicar cómo utilizar Ollama para ver los token ids de los Lenguajes de gran tamaño (Large Language Models (LLMs)), utilizando cómo ejemplo llama3, LLM open-source. Usaremos una alternativa para obtener los tokens asignados a los distintos tokens ids que pudimos obtener de Ollama. Ollama es una herramienta que nos permite ejec...
Ollama - Crea tus propios modelos de LLM con parámetros específicos y más avanzados. Veamos cómo...
Просмотров 9763 месяца назад
En este video vamos a ver cómo configurar Ollama para crear tus propios Lenguajes de gran tamaño (Large Language Models (LLMs)) utilizando parámetros específicos y más avanzados. En lugar de definir los distintos parámetros en el momento de la ejecución del LLM( runtime ) elegimos crear de antemano nuestro propio modelo construido a partir o sobre cualquier otro LLM open-source de nuestra elecc...
Ollama - Modifica el tamaño de la ventana de contexto (context window) en los LLMs. ¿Cómo hacerlo?
Просмотров 2453 месяца назад
En este video vamos a ver cómo configurar Ollama para obtener de los Lenguajes de gran tamaño (Large Language Models (LLMs)) como llama 3 o Mistral, por ejemplo, una talla de contexto que sea más o menos amplio para que el LLM proporcione el siguiente token más probable. Vamos a usar el parámetro específico “num_ctx” para conseguir esto de los LLMs. En videos posteriores iremos viendo y explica...
Ollama - Obtén de los LLMs respuestas contantes. A la misma pregunta, siempre la misma respuesta.
Просмотров 1813 месяца назад
En este video vamos a ver cómo configurar Ollama para obtener de los Lenguajes de gran tamaño (Large Language Models (LLMs)) como llama 3 o Mistral, por ejemplo, siempre la misma respuesta a una misma pregunta. Vamos a usar el parámetro específico “seed” para conseguir una repuesta constante y única de los LLMs. En videos posteriores iremos viendo y explicando otras opciones de parámetros avanz...
Ollama - Un paso más en el nivel de creatividad del LLM - Respuestas más creativas y diversas.
Просмотров 1764 месяца назад
En este video vamos a ver cómo configurar Ollama para ir más allá en la modificación del nivel creativo de los Lenguajes de gran tamaño (Large Language Models (LLMs)), como llama 3 o Mistral, por ejemplo. Vamos a usar los parámetros específicos “top_k” y “top_p” para conseguir repuestas de los LLMs aún más creativas en algunos casos o aún más conservadores en otros. En videos posteriores iremos...
Ollama - Modifica el nivel de creatividad del LLM - Una cuestión de temperatura. Veamos cómo...
Просмотров 5884 месяца назад
En este video vamos a ver cómo configurar Ollama para modificar el nivel creativo de los Lenguajes de gran tamaño (Large Language Models (LLMs)), como llama 3 o Mistral, por ejemplo. Vamos a usar el parámetro específico “temperature”(temperatura) para conseguir repuestas de los LLMs más creativas en algunos casos o más conservadores en otros. En videos posteriores iremos viendo y explicando otr...
Llama3.1 - Ollama : Tool Calling ( llamadas de herramientas). ¡ Incrementa las habilidades del LLM !
Просмотров 4904 месяца назад
Llama3.1 - Ollama : Tool Calling ( llamadas de herramientas). ¡ Incrementa las habilidades del LLM !
Ollama - Mantén ‘vivos’ o ‘cargados’ en memoria los LLMs por el tiempo necesario. ¿Cómo hacerlo ?
Просмотров 2974 месяца назад
Ollama - Mantén ‘vivos’ o ‘cargados’ en memoria los LLMs por el tiempo necesario. ¿Cómo hacerlo ?
Ollama - ¿chat( ) o generate( )? ¿Cómo usarlos? - Interactúa con los LLMs correctamente.
Просмотров 4555 месяцев назад
Ollama - ¿chat( ) o generate( )? ¿Cómo usarlos? - Interactúa con los LLMs correctamente.
Chroma Vector Stores - Elige el modelo de embeddings que quieras (Modelos de Sentence-Transformers)
Просмотров 3875 месяцев назад
Chroma Vector Stores - Elige el modelo de embeddings que quieras (Modelos de Sentence-Transformers)
Chroma Vector Stores - Crea una Base de Datos de Vectores Persistente o Permanente. ¡ Veamos cómo !
Просмотров 6325 месяцев назад
Chroma Vector Stores - Crea una Base de Datos de Vectores Persistente o Permanente. ¡ Veamos cómo !
Hierarchical Navigable Small World (HNSW) en Chroma - Cómo Funciona : Visualización del algoritmo.
Просмотров 2605 месяцев назад
Hierarchical Navigable Small World (HNSW) en Chroma - Cómo Funciona : Visualización del algoritmo.
Chroma Vector Stores - Base de Datos De Embeddings - Almacén de Embeddings. Qué son y Cómo Se Usan.
Просмотров 1,3 тыс.5 месяцев назад
Chroma Vector Stores - Base de Datos De Embeddings - Almacén de Embeddings. Qué son y Cómo Se Usan.
Retrieval-Augmented Generation (RAG):¿Cómo Incorporar Distintos Tipos de Documentos simultáneamente?
Просмотров 8156 месяцев назад
Retrieval-Augmented Generation (RAG):¿Cómo Incorporar Distintos Tipos de Documentos simultáneamente?
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 3: Ej. en código.
Просмотров 3746 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 3: Ej. en código.
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 2: Ej. en código.
Просмотров 6096 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ? PARTE 2: Ej. en código.
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ?
Просмотров 1,1 тыс.6 месяцев назад
¿Qué es Retrieval-Augmented Generation (RAG) ? ¿Por Qué Debería Usarlo YA ?
Ollama : Ejecuta Múltiples LLMs en Paralelo o Simultáneamente.
Просмотров 7196 месяцев назад
Ollama : Ejecuta Múltiples LLMs en Paralelo o Simultáneamente.
OLLAMA embedding : Modelos de embedding más rápidos y especializados.
Просмотров 1,7 тыс.7 месяцев назад
OLLAMA embedding : Modelos de embedding más rápidos y especializados.
Prompt Engineering : Cómo Pedir a los LLMs que Deduzcan o Analicen Sentimientos.
Просмотров 2707 месяцев назад
Prompt Engineering : Cómo Pedir a los LLMs que Deduzcan o Analicen Sentimientos.
Prompt Engineering : Desarrollo por Iteración - ¡ Iterar para ganar !
Просмотров 1447 месяцев назад
Prompt Engineering : Desarrollo por Iteración - ¡ Iterar para ganar !
Hola, da igual el embeding que usemos para usar con modelos LLM, o cada modelo LLM tiene su definicion de embedding que soporta? cualquier tipo lo puedo usar en gpt o llama? gracias
Excelente tus vídeos, muchas gracias, Felicitaciones!!
Te he conocido con 741 subscriptores en un tiempo recordare esto cuando seas Trend desde hoy ya te estoy follow!!!
Echaba de menos tus clases magistrales.
Hola. Muchas gracias por tu excelente trabajo.
Y esto funciona también con el embedding de Google ? El Gecko003?
En un faceswap genero un video pero cuando quiero descargarlo el botòn de descarga ya no està. Còmo puedo acceder al archivo creado? Gracias.
Excelente explicación.. gracias por el aporte
Muchas gracias por compartir tu conocimiento, grande !
Faltaría filtrar modelos desde SD 1.5 hasta FLUX. se entiende.
Muy buenos tus videos, felicitaciones !!!!. habrá la posibilidad de poder bajar los archivos de Jupyter para Probar. muchas gracias !!!!!
Muchas gracias por tu video. Una cuestión. Que diferencia hay entre T4GPU, y T4 TPU?
No se entiende ni mierda
Dale zoom tío
Muchas gracias por tu trabajo.
Muy bueno. Me quede con ganas de más.
Estimado, esta generación de embbedings, sirven para crear de forma más eficiente datasets ?, me refiero a que es posible crear un dataset de embeddings, tokenizar y entrenar o fine-tunear una IA ?
¡Qué buen análisis! Aun no entro a estudiar enteramente Machine Learning, vengo de análisis de datos (pandas, numpy y matplotlib) pero ya tengo una idea general de cómo se trabaja en ML. Saludos desde Perú.
bueniiisiiimo muchisimas gracias!
Gracias por el video, ¿Estos modelos de embedding pueden ser utilizados para textos en español? ¿Cuáles serían los mejores para este caso?
Al tratar de ejecutar LLMs como los de 8B parámetros(8,000,000,000), tanto el CPU como la GPU pueden ser útiles, pero de manera diferente. CPU: Ventajas: - Puede ser suficiente para modelos más pequeños o tareas específicas como tokenización, por ejemplo. - No requiere hardware adicional. Desventajas: - Probablemente será mucho más lento que una tarjeta gráfica dedicada para cálculos a gran escala. - Puede consumir más memoria e impactar en el rendimiento. GPU: Ventajas: - Puede acelerar significativamente los cálculos para modelos grandes como LLMs, gracias al procesamiento paralelo de los GPUs. - Puede liberar recursos del CPU para otras tareas o mejorar el rendimiento general de tu ordenador. Desventajas: - Requiere una tarjeta gráfica compatible (e. g., NVIDIA, AMD) con suficiente VRAM(Video Random Access Memory) y soporte para CUDA/OpenCL. - Es posible que requiera configuración adicional y ajustes. Para ejecutar LLMs con 8B de parámetros, usa una GPU si es posible. Algunas razones: - Escalabilidad: Las GPUs están diseñadas para manejar cálculos paralelos masivos, lo que las hace ideales para modelos a gran escala como LLMs. - Rapidez: Una tarjeta gráfica dedicada puede acelerar significativamente los tiempos de cálculo en comparación con el uso solo del CPU. - Memoria: Si tu modelo requiere cantidades significativas de memoria, una GPU con suficiente VRAM (e. g., 12 GB o más) puede ser beneficiosa. Si no tienes una GPU compatible, aún podrías ejecutar modelos más pequeños o tareas específicas en tu CPU. Sin embargo, para modelos más grandes como los que tienen 8B parámetros, una GPU podría ser necesaria para alcanzar tiempos de cálculo razonables y un rendimiento adecuado. Incluso con una GPU, debes considerar otros factores: - Tamaño del modelo: Los modelos más grandes requieren más memoria y recursos computacionales. - Tamaño de lote: Lotes más pequeños pueden llevar a tiempos de entrenamiento más lentos, mientras que lotes más grandes pueden no caber en memoria. - Optimizer: La elección del optimizer (e. g., Adam,...) puede afectar el rendimiento. Al trabajar con grandes LLMs, es fundamental equilibrar los trade-offs entre el uso de CPU y GPU, el tamaño del modelo y otros factores para alcanzar tiempos de entrenamiento eficientes.
Hola, gracias por el contenido. ¿Que tarjeta de video recomiendara crear API de solo inferencia para una emrpesa pequeña ?
Una pregunta. Que Ordenador tienes? He instalado ollama en mi máquina y va muy muy lento. Mi intención es ejecutar LLMs de 8B de parámetros, que es más importante tener CPU o GPU?
Para ejecutar LLMs con 8B de parámetros, usa una GPU si es posible. Algunas razones: - Escalabilidad: Las GPUs están diseñadas para manejar cálculos paralelos masivos, lo que las hace ideales para modelos a gran escala como LLMs. - Rapidez: Una tarjeta gráfica dedicada puede acelerar significativamente los tiempos de cálculo en comparación con el uso solo del CPU. - Memoria: Si tu modelo requiere cantidades significativas de memoria, una GPU con suficiente VRAM (e. g., 12 GB o más) puede ser beneficiosa. Si no tienes una GPU compatible, aún podrías ejecutar modelos más pequeños o tareas específicas en tu CPU. Sin embargo, para modelos más grandes como los que tienen 8B parámetros, una GPU podría ser necesaria para alcanzar tiempos de cálculo razonables y un rendimiento adecuado. Nota : Podemos usar Colab para ejecutar los modelos usando GPU. Lo vamos a ver en uno de los videos que van a salir en las proóximas semanas. Pondré aquí el link/enlace cuando esté disponible. :)
Llegué hasta el 1:54 y me fui a vomitar.
Interesantes capítulos a la espera del siguiente para ver como nos conectamos vía python. Gracias.
Que buen y maravilloso aporte, gracias. en realidad es de gran ayuda. Sin embargo, los documentos (NO el notebook: Web, PDF, CSV, TXT) serían de gran utilidad para replicar lo que enseñas, gracias 👍.
Muchas gracias por seguir compartiendo tu conocimiento. Saludos.
Ollama es machista. Hace micromaschismos. Debería deconstruirse... Jajaja
Excellent information. Muchas gracias.
Muy buen video, útil para diferentes propósitos. El último ejemplo donde se verifica si hay un tema en la oración, se puede hacer en español o hay que hacer algo adicional ? gracias
El inglés ha sido el idioma usado en los LLMs para ser entrenados. A medida que vayan saliendo nuevos modelos, el uso de otros idiomas empezará quizá a ser más corriente y entonces los resultados obtenidos con las instrucciones en esos idiomas serán mejores. Lo mejor es que pruebes y lo hagas en español para ver los resultados...
Excelente video ! gracias
Excelente video, gracias. Que debe hacerse para trabajar en español desde el texto (mensaje), pregunta (summary) y respuesta del modelo?
Gracias por el video 👍, claro y preciso. Con respecto al texto que utilizas, se puede utilizar en español ?
Puedes usar el español, pero los resultados que obtienes suelen ser peores. Una de las razones fundamentales está en los tokens. En los videos sobre los tokens en el canal explico un poco la razón por la que los LLM funcionan mejor en inglés. Dicho esto, lo mejor que puedes hacer es probar por ti mismo y ver si los resultados obtenidos son suficientes para tu caso particular.
Hola, gracias por tu video, muy interesante. Sería de gran apoyo que hagas un fine-tuning al llama3👍
Muy bueno. Podrias hablar de GraphRag?
Está en camino... Dicho esto GraphRag es un proyecto reciente(en realidad como todos en esto...) y que en el momento de este comentario no se puede 'oficialmente' usar con modelos open-source sin usar 'trucos' para acceder a ellos. Además de que sus resultados son mucho mejores con modelos más grandes de los que hemos usado en el canal. En el canal usamos versiones de LLMs open-source para poder ejecutarlos localmente usando Ollama (de manera que cualquier persona que tenga un ordenador reciente pueda por lo menos usarlos y practicar con ellos localmente) Pero es evidente que GraphRag está tratando de solucionar uno de los problemas fundamentales de los RAG(básicos o naives) que es el de ser capaz de 'atar cabos', es decir, ser capaces de a partir de datos fragmentados encontrar relaciones entre ellos. A seguir de cerca... En el propio repositorio de Github del projecto nos indican: "Warning: GraphRAG indexing can be an expensive operation, please read all of the documentation to understand the process and costs involved, and start small." La indexación en GraphRAG es una operación costosa, ir a la documentación para entender los procesos y los costes que implican...
Excelente, tengo la duda si es necesario usar Langchain o no. ¿En qué casos es recomendable usarlo?
Amigo, veo que usas MAC... yo también tengo, peroesta muy lento y parece que ya me quede atrás... puedes ayudarme a compartir tu configuración de hardware?
En mi caso uso un Mac última generación. En otras versiones más antiguas el proceso puede ser más lento. Cuando se use intentar parar otros procesos en el ordenador que no se estén usando para mejorar el rendimiento...
Excelente, muchas gracias.
github code please?
muy interesante ,gracias por compartir
muy interesante gracias
gracias por el video
Estaría bien un video con representaciones de embeddings!
Hola, muy bueno y original tu contenido. Podras hacer algun video sobre ABM en Chromadb sin eliminar toda la BBDD? Gracias y sigue así.
muy buen video. gracias
10/10, justo lo que estaba buscando
¡Excelente explicación¡
muy útil
Hola, genial. ¿piensas ver temas de machine learning?
Normalmente sí ...
Buenos videos, me gustaron porque explicas bastante bien y sobre todo porque muestras soluciones altamente personalizables , vía código, y que tienen en cuenta la privacidad de los datos.
Me alegra que pueda serte útil