- Видео 113
- Просмотров 456 334
Pepe Cantoral, Ph.D.
Мексика
Добавлен 24 июл 2020
ruclips.net/user/pepecantoralphd
El objetivo de este canal es ayudar a todo aquél que quiera entender mejor temas relevantes de ciencias computacionales mediante tutoriales acerca de Deep Learning, Matemáticas, Python, Linux, y cualquier tema relacionado con computación y tecnología.
Pepe Cantoral siguió una formación estricta en electrónica y sistemas embebidos (incluyendo un doctorado) hasta que en el 2015 empezó a trabajar en aplicaciones de Deep Learning, Ciencia de Datos y programación en Python. Su impacto fue tal, que desde ese momento decidió cambiarse al lado oscuro de la fuerza y seguir una carrera en Ciencias Computacionales, combinando aplicaciones de Deep Learning en la solución de problemas de Procesamiento Digital de Señales. Actualmente, es Profesor Universitario e Investigador en el departamento de Sistemas Computacionales, en materias relacionadas con Algoritmos, Matemáticas Computacionales, DSP, y Sistemas Embebidos.
El objetivo de este canal es ayudar a todo aquél que quiera entender mejor temas relevantes de ciencias computacionales mediante tutoriales acerca de Deep Learning, Matemáticas, Python, Linux, y cualquier tema relacionado con computación y tecnología.
Pepe Cantoral siguió una formación estricta en electrónica y sistemas embebidos (incluyendo un doctorado) hasta que en el 2015 empezó a trabajar en aplicaciones de Deep Learning, Ciencia de Datos y programación en Python. Su impacto fue tal, que desde ese momento decidió cambiarse al lado oscuro de la fuerza y seguir una carrera en Ciencias Computacionales, combinando aplicaciones de Deep Learning en la solución de problemas de Procesamiento Digital de Señales. Actualmente, es Profesor Universitario e Investigador en el departamento de Sistemas Computacionales, en materias relacionadas con Algoritmos, Matemáticas Computacionales, DSP, y Sistemas Embebidos.
¡TRADUCTOR INGLÉS a ESPAÑOL desde CERO con PyTorch!
Traductor Inglés-Español con un Transformer desde Cero
Video previo implementación de transfomer:
ruclips.net/video/XefFj4rLHgU/видео.html
Videos previos acerca de teoría de Transformers
Parte 1 - ruclips.net/video/Bh22yyEJFak/видео.html
Parte 2 - ruclips.net/video/Nj5DVykeFhM/видео.html
Parte 3 - ruclips.net/video/AFcqsswq3C8/видео.html
En este video, explico cómo implementar un traductor de inglés a español utilizando nuestro modelo de Transformer construido desde cero con PyTorch. A pesar de que el rendimiento del traductor es limitado, este tutorial permite muy buen entendimiento de los pasos fundamentales de la implementación del Transformer, siguiendo el enfoque del artículo "Attention is ...
Video previo implementación de transfomer:
ruclips.net/video/XefFj4rLHgU/видео.html
Videos previos acerca de teoría de Transformers
Parte 1 - ruclips.net/video/Bh22yyEJFak/видео.html
Parte 2 - ruclips.net/video/Nj5DVykeFhM/видео.html
Parte 3 - ruclips.net/video/AFcqsswq3C8/видео.html
En este video, explico cómo implementar un traductor de inglés a español utilizando nuestro modelo de Transformer construido desde cero con PyTorch. A pesar de que el rendimiento del traductor es limitado, este tutorial permite muy buen entendimiento de los pasos fundamentales de la implementación del Transformer, siguiendo el enfoque del artículo "Attention is ...
Просмотров: 1 253
Видео
¡Cómo programar un Transformer desde CERO! (From Scratch!)
Просмотров 1,9 тыс.5 месяцев назад
Código del video: github.com/JACantoral/DL_fundamentals/blob/main/DL_fundamentals_transformer_model.ipynb Videos previos acerca de Transformers Parte 1 - ruclips.net/video/Bh22yyEJFak/видео.html Parte 2 - ruclips.net/video/Nj5DVykeFhM/видео.html Parte 3 - ruclips.net/video/AFcqsswq3C8/видео.html Embeddings Desde cero - ruclips.net/video/8f9H-7i2RAw/видео.html Teoria - ruclips.net/video/LagcbjDk...
Transformers - ¡Attention is all you need! Parte 3
Просмотров 9225 месяцев назад
Video Previo - Explicación detallada de attention: ruclips.net/video/Nj5DVykeFhM/видео.html Primer video de la serie de transformers - Attention is all you need: ruclips.net/video/Bh22yyEJFak/видео.html Code: github.com/JACantoral/DL_fundamentals/blob/main/Simple_Attention_Numpy.ipynb En este video, explico el mecanismo de atención, un componente esencial en el modelo de transformer, utilizando...
Transformers - ¡Attention is all you need! Parte 2
Просмотров 1,5 тыс.5 месяцев назад
Transformers Parte 1 ruclips.net/video/Bh22yyEJFak/видео.html Embeddings: ruclips.net/video/LagcbjDkqJE/видео.html Embeddings desde cero: ruclips.net/video/8f9H-7i2RAw/видео.html En esta segunda parte de la serie de Transformers, explico con mucho detalle en el mecanismo de self attention, el mecanismo fundamental en Transformers. Además también explico positional encoding.
Transformers - Attention is all you need - Parte 1
Просмотров 2,4 тыс.6 месяцев назад
Playlist NLP ruclips.net/p/PLWzLQn_hxe6Ym2y17FreTcn6robjZ9LMk Modelo de Lenguage ruclips.net/video/myKMg2aqOho/видео.html Sequence to Sequence ruclips.net/video/iKgAGnMUsHk/видео.html Attention en modelos redes neuronales recurrentes ruclips.net/video/pyshwfclcPM/видео.html En este video, explico el paper "Attention Is All You Need" que introdujo el modelo Transformer, una arquitectura que ha t...
¿Cómo entrenar embeddings desde cero?
Просмотров 2 тыс.7 месяцев назад
Video previo embeddings: ruclips.net/video/LagcbjDkqJE/видео.html En un video anterior, expliqué qué son los embeddings y su relevancia en el procesamiento de lenguaje natural. En este video, damos un paso más allá: explico cómo programar nuestros propios embeddings desde cero utilizando PyTorch. Comprender a fondo los embeddings no solo es interesante como ejercicio académico, sino también cru...
¡Python DECORATORS! ¡Cómo funcionan los decoradores de Python!
Просмотров 5868 месяцев назад
En este video explico el concepto de los @decoradores@ en Python (Decorators), los cuales permiten escribir código más limpio y modular. Los decoradores son funciones que reciben otra función, le agregan funcionalidad, y devuelven otra función sin modificar la función original. Video previo: ruclips.net/video/xmMAeOrlZWE/видео.html
¡Las funciones de Python son OBJETOS!
Просмотров 4788 месяцев назад
En esta guía, presento cinco funcionalidades que demuestran cómo las funciones, al ser tratadas como objetos, pueden transformar tu manera de programar en Python. 1. Pasar Funciones como Argumentos: Descubre la elegancia de la programación funcional pasando funciones a otras funciones. 2. Almacenar Funciones en Estructuras de Datos: Cómo organizar y gestionar tus funciones en estructuras de dat...
ChatGPT y Gemini: ¡Conversación con los modelos más avanzados de IA!
Просмотров 4469 месяцев назад
En este video tengo una conversación con ChatGPT (GPT 4) y Gemini Advanced acerca de su rol en el desarrollo de la humanidad: ChatGPT: "Como modelo de inteligencia artificial, no soy parte de la humanidad en el sentido tradicional. No tengo emociones, conciencia o experiencias de vida propias. Mi existencia y mis respuestas se basan en datos, algoritmos y patrones de lenguaje derivados de la in...
¡Atención! (Sequence to sequence with attention): ¡Traductor Inglés a Español! (Parte 2)
Просмотров 6299 месяцев назад
Video previo modelos Secuencia a Secuencia: ruclips.net/video/iKgAGnMUsHk/видео.html Este video se centra en uno de los avances más fascinantes en el campo del Procesamiento del Lenguaje Natural (PLN): el modelo Secuencia a Secuencia (Seq2Seq) con mecanismo de Atención, utilizando como ejemplo un traductor de inglés a español. - Introducción al mecanismo de Atención: qué es, cómo funciona, y po...
Sequence to Sequence (Seq2Seq): ¡Traductor Inglés a Español! (Parte 1)
Просмотров 7309 месяцев назад
En este video, nos sumergiremos en los fundamentos teóricos detrás del modelo Sequence to Sequence (Secuencia a Secuencia), una arquitectura revolucionaria en el campo del Procesamiento del Lenguaje Natural (PLN). En este video cubriremos: - Los principios básicos de los modelos Seq2Seq y cómo funcionan. - La estructura y componentes de los modelos Seq2Seq, incluyendo los codificadores y decodi...
Modelo de Lenguage: Generador de texto con Red Neuronal Recurrente.
Просмотров 96010 месяцев назад
En este video explico de forma breve qué es un modelo de Lenguage y como podemos crear uno usando una Red Neuronal Recurrente. Un modelo de lenguage es un modelo que obtiene la distribución de probabilidad del sigueinte toke (p.e. una palabra) dada una secuencia de tokens previos. El modelo de lenguage más famoso es probablemente ChatGPT.
!Tres personas que conocí en persona en 2023!
Просмотров 32010 месяцев назад
En este video comparto la experiencia de conocer en persona a tres individuos a los cuales admiro mucho. - Andrew Ng Deep Learning Coursera (www.coursera.org/specializations/deep-learning) Machine Learning 2008 (ruclips.net/video/UzxYlbK2c7E/видео.htmlfeature=shared) - Jeremy Howard RUclips channel (www.youtube.com/@howardjeremyp) FastAI (www.fast.ai/) - Sean Walker RUclips Channel (www.youtube...
¡LSTM: Todo lo que necesitas saber!
Просмотров 5 тыс.Год назад
En este video nos adentraremos en las redes neuronales Long Short-Term Memory (LSTM). Si te has preguntado alguna vez cómo las LSTMs superan los desafíos de las RNNs tradicionales, estás en el lugar correcto. contenido: Introducción a las LSTMs y su importancia en el manejo de datos secuenciales. Explicación detallada de la arquitectura LSTM, acompañada de diagramas y ecuaciones. Demostración p...
¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!
Просмотров 4,6 тыс.Год назад
Bienvenidos a este nuevo video en el que vamos a explorar el emocionante mundo de los "Word Embeddings" o incrustaciones de palabras. Pero no nos detendremos en la teoría; ¡Vamos a llevarlo a la práctica utilizando GloVe! Puntos Clave: Introducción a los "Word Embeddings" y su importancia en el Procesamiento del Lenguaje Natural (PLN) O Natural Language Processing. Implementación de funciones P...
Modelos secuenciales y REDES NEURONALES RECURRENTES
Просмотров 4,2 тыс.Год назад
Modelos secuenciales y REDES NEURONALES RECURRENTES
BATCH NORMALIZATION en Redes Convolucionales: Python y PyTorch
Просмотров 562Год назад
BATCH NORMALIZATION en Redes Convolucionales: Python y PyTorch
¡BATCH NORMALIZATION! - Python vs. PyTorch
Просмотров 568Год назад
¡BATCH NORMALIZATION! - Python vs. PyTorch
BATCH NORMALIZATION: ¿Qué es y para qué sirve?
Просмотров 2,4 тыс.Год назад
BATCH NORMALIZATION: ¿Qué es y para qué sirve?
ImageNet: El Proyecto que Cambió la Inteligencia Artificial | Pláticas Plug & Play # 5
Просмотров 675Год назад
ImageNet: El Proyecto que Cambió la Inteligencia Artificial | Pláticas Plug & Play # 5
¡La forma más FÁCIL de instalar drivers de NVIDIA, TensorFlow y PyTorch en Ubuntu 22.04 LTS!
Просмотров 6 тыс.Год назад
¡La forma más FÁCIL de instalar drivers de NVIDIA, TensorFlow y PyTorch en Ubuntu 22.04 LTS!
Dr. Carlos Alberto Escobar Díaz: Going the Distance! | Pláticas Plug & Play # 4
Просмотров 449Год назад
Dr. Carlos Alberto Escobar Díaz: Going the Distance! | Pláticas Plug & Play # 4
5 cosas que tienes que saber de los diccionarios de Python | Python is Cool!
Просмотров 282Год назад
5 cosas que tienes que saber de los diccionarios de Python | Python is Cool!
Ing. Sandra Román: Pasantías/Ing. de Software/Consejos para Entrevistas | Pláticas Plug & Play # 3
Просмотров 550Год назад
Ing. Sandra Román: Pasantías/Ing. de Software/Consejos para Entrevistas | Pláticas Plug & Play # 3
5 cosas que tienes que saber de las listas de Python | Python is Coll!
Просмотров 426Год назад
5 cosas que tienes que saber de las listas de Python | Python is Coll!
MSc. Rafael Espinosa: Las matemáticas en la era de IA | Pláticas Plug & Play # 2
Просмотров 683Год назад
MSc. Rafael Espinosa: Las matemáticas en la era de IA | Pláticas Plug & Play # 2
Dr. Rick Swenson: El rol de IA en la Ingeniería y Educación | Pláticas Plug & Play #1
Просмотров 747Год назад
Dr. Rick Swenson: El rol de IA en la Ingeniería y Educación | Pláticas Plug & Play #1
En 2024 aún tus video sigue siendo uno de los mejores y que mejor explica las redes neuronales. Gracias, porque no solo enseñar sino que insertas el gusto por este tema en cada lección.
como puedo evitar el sobre ajuste del modelo?
Todo pa el cv.
2024 y tu video sigue motivando a personas adentrarse al mundo de las redes neuronales. Gracias
Muchas gracias por el vídeo. Se nota preocupación por tu parte por entender todo y transmitirlo. Buen profe, seguro.
Muy bueno!!
Muy facil de entender! muchas gracias!
Me encantan... mil gracias!
Gracias!! sumamente util y claro :)
Loco, te amo <3
Por casualidad encontré este canal y me ha sido de mucha utilidad para entender desde los fundamentos las redes neuronales. Has hecho un gran trabajo en este canal es de los mas completos y que abordan los temas con mayor profundidad. Muchas gracias por compartir
explicas de la mierda
Sos un crack, muy buena explicación. Gracias.
Profe, es que no hace falta pedir que nos suscribamos a su canal cuando la calidad de los videos es tan buena como los suyos. Excelente edición, dicción, gráficos, pizarrón digital, etc. Mil gracias de verdad por tanta dedicación y cuidados en el material. Estoy muy contento con su materia!
Gokú, eres tu?
Cracks, alguien presta servicios en el desarrollo de modelo LTSM, como detección de personas peleando....
Gracias, estaba buscando algo como esto, gracias Ídolo
Hola Pepe, esto lo subes algun githup o control de versiones o para seguirlo debo hacerlo desde cero? slds.
Me da un error en el final por la función def build_graph
Hola Pepe, excelente video y explicación!. Gracias! Tengo una pregunta : Cuando programas una capa de una RNN o LSTM usando Keras, tienes que especificar el número de elementos, que no necesariamente tienen que tener el mismo tamaño que los datos de entrada. Si yo quiero aprender seis secuencias en paralelo para las cuáles tengo digamos 30 instantes de tiempo anteriores, tengo como entrada una matriz de 30*6, como es posible entonces crear una red en la que mi primera capa RNN tiene por ejemplo 50 elementos? No sé si me explico bien ...😅. O dicho de otra manera, si tengo una secuencia de por ejemplo 30 instantes temporales, mi primera capa de de RNN no debería de ser de 30 elementos? Muchas gracias!
Buen video, pero es importante puntualizar que la mayoría de los algoritmos de word embeddings son probabilísticos y, por lo tanto, inherentemente incapaces de producir los mismos resultados en experimentos repetidos, a menos que sus procesos aleatorios se hagan deterministas, lo cual, sin embargo, puede distorsionar los resultados experimentales .
Excelente Pepe, gracias por ilustrarnos.
¡Gracias por el video sobre la búsqueda A*! Siempre me ha fascinado cómo los algoritmos optimizan procesos complejos. Por cierto, me he metido en programación y encontré cursos en CodigoHeroe, todo en español, ¡genial!
Muy buenos los 3 videos de la serie
mucho tiempo tipeando y poco explicando 😮💨
La verdad que no es muy didáctico el video.
Hola, correr bien si monto linux ubuntu 24.04 en vez de tener qindows11 en una laptop gamer hp victus R7 con NVIDIA GeForce RTX 3050 ¿?
Hola Pepe !! Muchas gracias por tus vídeos, la verdad es que son una joya. Tengo una pregunta.. cuando en Keras por ejemplo creo una RNN o una LSTM y establezco el número de neuronas en esa capa, ¿Lo que realmente estoy estableciendo es el número de timesteps hacia atrás con los que actualizar los pesos W con el gradiente ?
Gracias por compartir este video! Este canal se merece tener muchas más visitas, el contenido es de muy buena calidad y tus explicaciones son muy claras y didácticas!
Que increible persona eres! Gracias por tanta inspiracion!
Cómo eliges el bias?
Gracias Pepe por estos videos
si ya se sabia que SD tenia costo de 8 porque retrocer a explorar SC con 9 ? no se supone que siempre se elije el mejor f (menor costo)? me mareó esa parte, ya que incluso luego de explorar SC, regresas a SDE
Esta super chido que de manera más didactica a través de ejemplos visuales complementes los conceptos Doc.., como siempre super bien explicado e interesante ... ¡thanks for the effort in explaining! ✌🏻
Gracias por su trabajo profesor Cantoral Alumno MNA
Excelente explicación profesor. Saludos.
Muchas gracias! Saludos
Muy buena explicación, gracias por compartir.
Muchas gracias por tu comentario! Hasta pronto
Super bien explicado Master!!! 🫡
Muchas gracias! Saludos
Grande crack
Muchas gracias! Agradezco mucho tu comentario! Muchos saludos
Después de varios intentos fallidos, instale Ubuntu en la primera opción, con los drivers nvidia, en la instalación lo conecte a la Red para que hiciera la instalación con las actualizaciones, después actualice Ubuntu, soluciones el problema de snap store con la actualización, y cuando estaba todo actualizado, instale lambdalabs, y se instalo sin problemas, desactive las actualizaciones automáticas, y a esperar que se mantenga, si alguien a instalado nvidia flux con lambdalabs, se agradecería me dijera como, por cierto, gracias por el video, fue de mucha ayuda, llevaba meses con esta tarea, 😂
Profesor, una pregunta, como se inicializan (o con qué valores) se inicializa el vector de bias (b)? Son random al igual que W? y en el layer 2... los b2 cómo son calculados? son diferentes del b1?
Soy estudiante de IA me recomiendas instalar aun: Install Lambda Stack ? para mis practicas de la escuela? justo a Ubuntu 22.04? me refiero mas que nada para no tener problemas de que no agarra algo o hay que instalar tal cosa o asi
10/10 estos videos
Muchas gracias por tu comentario! Me motiva mucho!
un heroe
Muchas gracias!
Buen video pero no entendí. Tendré que volverlo a ver.
vengo tarde
Excelente video, pero seria suoer excelente si nos compartieras ese código!
gracias por este video estoy leyendo(siguiendo) el libro Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow y me imaginaba algo así pero nada como que alguien que sabe te lo destripe y mejor aun en tu idioma, de verdad que buen video ya me quedo muy claro.
Muchas gracias por tu comentario! Muchos saludos!
Excelente video profe!
Muchas gracias! Muchos saludos y nos vemos en NLP!
Muchas gracias, este fue el video con el que me quedo claro el lema del bombeo}
Wow! De verdad aprecio mucho tu comentario, saludos!