Nechu
Nechu
  • Видео 163
  • Просмотров 249 556
18 - Codificador posicional | Transformer
🔮 Descubre el intrigante misterio de cómo el Transformer comprende la posición de las palabras en una secuencia.
⛓️ Mientras las Redes Neuronales Recurrentes manejan las palabras una a una en un orden específico, el Transformer, al realizar el cálculo de autoatención con Query, Key y Value, no considera el orden de las palabras, obteniendo resultados idénticos independientemente de su disposición en la secuencia. Es en este momento que nos percatamos de que el modelo ignora la posición.
Aquí entra en acción el héroe subestimado: el codificador posicional.
🧭 En este video, exploraremos las diversas opciones de codificador posicional y nos sumergiremos en los detalles de la fórmula propuesta p...
Просмотров: 439

Видео

17 - Linear y Softmax | Transformer
Просмотров 2838 месяцев назад
¿Cómo transformamos un simple vector en palabras? 🧙 Como exploramos en videos anteriores, al principio convertimos palabras en vectores mediante la mágica técnica de embedding, ya que los modelos de Machine Learning solo entienden números, no letras. 🎱 Pero, aquí está el giro: cuando el modelo nos devuelve números al final, ¿cómo los convertimos de nuevo en palabras? En este breve pero fascinan...
16 - Add & Norm | Conexión residual y Normalización
Просмотров 3398 месяцев назад
Llegados a este punto hemos conquistado la compleja arquitectura del Transformer, compuesta por el poderoso codificador-decodificador. 🧭 Sin embargo, al comparar nuestro conocimiento con el documento de investigación 'Attention is all you need', descubrimos que aún quedan varios conceptos sin explorar. En este video, nos enfocaremos en dos componentes cruciales que completarán nuestra comprens...
15 - Decodificador | Transformer
Просмотров 4318 месяцев назад
En este video llegamos al segundo componente principal del Transfomer, el decodificador ¿Por qué desempeña un papel tan crucial en esta arquitectura revolucionaria? 📚 Mientras que el codificador se enfoca en extraer el significado de la frase, el decodificador se encarga de realizar la traducción, en nuestro caso al inglés. Analizamos los pasos de la decodificación que son: • Auto atención (se...
14 - Atención Multicabezal | Transformer Multi-Head Attention
Просмотров 4638 месяцев назад
✨ En este vídeo, desglosaremos el mecanismo de atención de múltiples cabezas y descubriremos cómo mejora el rendimiento del Transformer en el procesamiento de secuencias. ¿Qué hace que esta técnica sea tan especial? 👀 Veremos cómo el mecanismo de atención se divide en múltiples cabezas para permitir que la red se focalice en diferentes partes de la información de entrada simultáneamente. Esto p...
13 - Auto Atención, Codificador | Transformer
Просмотров 7189 месяцев назад
Avanzamos en nuestro conocimiento de la arquitectura de Transformer y nos sumergimos en un análisis detallado del codificador. Dejamos atrás las explicaciones a alto nivel y nos adentramos en los detalles concretos. El objetivo del codificador en el Transformer es extraer la mejor representación de la frase de entrada. Está compuesto por dos etapas: • Feed forward • Self-attention 👀 Le prestam...
12 - Transformer | Introducción
Просмотров 7989 месяцев назад
En este video, introduciremos la revolucionaria arquitectura del Transformer, una innovación que ha sacudido el mundo de la inteligencia artificial. ¿Qué hace al Transformer tan poderoso? 💍 El Transformer es un modelo tan versátil hasta el punto de que unifica los diferentes campos de la inteligencia artificial (NLP, CV, STT, RL …), en un único camino de investigación. El Transformer también e...
11 - Problemas con la Red Neuronal Recurrente (RNR)
Просмотров 4089 месяцев назад
⛓️ La red neuronal recurrente es un tipo de red neuronal que permite trabajar con secuencias. ¿Y que es una secuencia? Un conjunto de palabras en una frase. ⚠️ Las redes neuronales recurrentes han sido fundamentales para el procesamiento de lenguaje natural, sin embargo, a lo largo de los años, han surgido problemas difíciles de resolver: • Requiere mucha computación • Falta de paralelización •...
10 - Puntuación de Alineación y Vector de Contexto | Mecanismo de Atención
Просмотров 3389 месяцев назад
🔍 El mecanismo de atención es una técnica muy compleja y merece la pena que prestemos especial atención a dos etapas: • Puntuación de alineación: exploramos diferentes fórmulas para calcular la alineación entre el estado del codificador y el estado del decodificador • Vector de contexto: descubrimos las variantes de cómo transmitir el vector de contexto al decodificador. Índice 00:00 Introducc...
9 - Mecanismo de Atención en Profundidad | Codificador-Decodificador RNR
Просмотров 4719 месяцев назад
👀 Sumérgete en el fascinante mundo del mecanismo de atención, inspirado en la capacidad humana de enfocarse en lo importante. A medida que exploramos el funcionamiento del codificador-decodificador, descubriremos cómo la atención se convierte en un componente fundamental para potenciar su rendimiento. En este video, desglosaremos el mecanismo de atención en tres etapas cruciales: • Puntuación d...
8 - Aclaraciones Sobre Redes Neuronales Recurrentes
Просмотров 4159 месяцев назад
🗺️ Después de un apasionante recorrido de 30 años de innovación en IA, donde hemos explorado la arquitectura de codificador-decodificador y el fascinante mecanismo de atención, es momento de detenernos y dedicar unos minutos a profundizar en algunos aspectos clave antes de seguir con nuestra lección. En este vídeo, nos sumergimos en conceptos esenciales que no podemos pasar por alto: • Tokens e...
7 - Red Neuronal Recurrente | Breve historia de Secuencia a Secuencia
Просмотров 5239 месяцев назад
🌊 Los modelos de secuencia a secuencia son los que han liderado la ola de innovación de IA que nos ha llevado a modelos como GPT y BERT. En este video, repasamos los últimos 30 años de desarrollo de este paradigma, que incluyen los siguientes aspectos: • Embeddings • Problemas con una red neuronal clásica • Red neuronal recurrente • Arquitectura codificador-decodificador • Mecanismo de atención...
6 - Mecanismo de Atención | Introducción
Просмотров 5999 месяцев назад
🍾 El problema de cuello de botella es un gran limitante para la arquitectura codificador-decodificador, lo que limita de gran manera su rendimiento. ¿Se te ocurre alguna forma de resolver este problema? 👀 Cuando traducimos un texto, ¿lo leemos una sola vez y ya lo traducimos? La realidad es que, a medida que avanzamos en la traducción, volvemos al texto original y prestamos "atención" a las pal...
5 - Codificador Decodificador | Red Neuronal Recurrente
Просмотров 64510 месяцев назад
🌐 ¡Descubre el intrigante mundo de las redes neuronales recurrentes (RNNs), diseñadas con precisión para dominar secuencias, como conjuntos de palabras en una frase! Esta habilidad innovadora nos ofrece un salto cuántico en el manejo de secuencias, permitiéndonos conquistar desafíos que anteriormente parecían insuperables. Pero, como buenos detectives, nos sumergimos en la pregunta: ¿Es todo ta...
4 - Red Neuronal Recurrente | Introducción Modelos Secuencia a Secuencia
Просмотров 83310 месяцев назад
🌐 Bienvenido al fascinante mundo de las redes neuronales recurrentes (RNNs), diseñadas específicamente para enfrentarse a secuencias, por ejemplo un conjunto de palabras en una frase, las RNNs representan un hito en la evolución de la inteligencia artificial. 🏗️ En este vídeo, llevamos a cabo una comparativa entre la arquitectura de una red neuronal clásica y la potencia de una red neuronal rec...
3 - Word2Vec | ¿Qué es un embedding?
Просмотров 1,1 тыс.10 месяцев назад
3 - Word2Vec | ¿Qué es un embedding?
2 - ¿Qué es un embedding? | De palabras a vectores
Просмотров 1,3 тыс.10 месяцев назад
2 - ¿Qué es un embedding? | De palabras a vectores
1 - Desvelando GPT | Introducción al curso de Transformer
Просмотров 4,3 тыс.10 месяцев назад
1 - Desvelando GPT | Introducción al curso de Transformer
ChromaDB en la nube | Despliega con AWS + ChromaDB + EC2
Просмотров 1,4 тыс.Год назад
ChromaDB en la nube | Despliega con AWS ChromaDB EC2
ChromaDB y ChatGPT | Primeros Pasos y Despliegue en Local con Docker
Просмотров 13 тыс.Год назад
ChromaDB y ChatGPT | Primeros Pasos y Despliegue en Local con Docker
Pinecone y ChatGPT | Tutorial Base de Datos Vectorial desde 0, PreguntaPDF Parte 2
Просмотров 10 тыс.Год назад
Pinecone y ChatGPT | Tutorial Base de Datos Vectorial desde 0, PreguntaPDF Parte 2
13 - SageMaker y MLOps | Capítulo Final
Просмотров 179Год назад
13 - SageMaker y MLOps | Capítulo Final
12 - Limpieza del Entorno de Trabajo en SageMaker
Просмотров 252Год назад
12 - Limpieza del Entorno de Trabajo en SageMaker
11 - Despliegue Avanzado de Modelos | Modelo en la Sombra y Modelos Paralelos
Просмотров 212Год назад
11 - Despliegue Avanzado de Modelos | Modelo en la Sombra y Modelos Paralelos
10 - Dominando la Optimización de Hiperparámetros con SageMaker | Búsqueda en Cuadrícula en Detalle
Просмотров 258Год назад
10 - Dominando la Optimización de Hiperparámetros con SageMaker | Búsqueda en Cuadrícula en Detalle
9 - Inferencia con SageMaker | Aprendizaje Automático en la Nube
Просмотров 279Год назад
9 - Inferencia con SageMaker | Aprendizaje Automático en la Nube
8 - Despliega con Sagemaker | Lleva tus Modelos a Producción
Просмотров 400Год назад
8 - Despliega con Sagemaker | Lleva tus Modelos a Producción
7 - Cómo Entrenar un Modelo de Aprendizaje Automático | SageMaker en Acción
Просмотров 596Год назад
7 - Cómo Entrenar un Modelo de Aprendizaje Automático | SageMaker en Acción
6 - Recolección de Datos en SageMaker | Estrategias y Herramientas
Просмотров 534Год назад
6 - Recolección de Datos en SageMaker | Estrategias y Herramientas
5 - Domina SageMaker | Configura tu Notebook Instance Paso a Paso
Просмотров 697Год назад
5 - Domina SageMaker | Configura tu Notebook Instance Paso a Paso