Me parece genial la manera en la que explica Doctor, actualmente estoy leyendo en un libro el tema de RNN y entendí que en cada capa oculta (o de activación) se multiplica por el vector del t-1; pero no habia comprendido que en general el hecho de tener Wh @ h en la notación implica tener una red neuronal tambien con pesos Wh ademas del vector de tiempo pasado h; me parece genial como democratizas este tipo de detalles que son intuitivos pero no siempre triviales de entender cuando es la primera vez que ves el concepto en un libro especializado Muchas gracias!
Gracias por este video, justo estoy tomando un curso de Andrew Ng de RNN y modelos secuenciales a la par de este video. Este video me ayuda bastante a entender los conceptos. Un saludo.
Gracias por compartir este video! Este canal se merece tener muchas más visitas, el contenido es de muy buena calidad y tus explicaciones son muy claras y didácticas!
Llevaba mucho tiempo esperando este video, al final con los anteriores tutoriales y otros videos pude resolver mi problema pero aún así quise verlo por dos razones, por que me agrada cómo explicas las cosas y para que sigas creando este contenido en español. Debo admitir que aunque ya estoy implementado este tipo de modelos, con tu explicación me aclaró muchas cosas. Gracias por tu contenido.
Gracias a tí Leonardo, definitivamente un modelo muy interesante, aún con muchas aplicaciones en datos secuenciales. Pronto estaré cubriendo transformers, que son un modelo increíble. Muchos saludos!
Hola Pepe !! Muchas gracias por tus vídeos, la verdad es que son una joya. Tengo una pregunta.. cuando en Keras por ejemplo creo una RNN o una LSTM y establezco el número de neuronas en esa capa, ¿Lo que realmente estoy estableciendo es el número de timesteps hacia atrás con los que actualizar los pesos W con el gradiente ?
Hola Pepe, excelente video y explicación!. Gracias! Tengo una pregunta : Cuando programas una capa de una RNN o LSTM usando Keras, tienes que especificar el número de elementos, que no necesariamente tienen que tener el mismo tamaño que los datos de entrada. Si yo quiero aprender seis secuencias en paralelo para las cuáles tengo digamos 30 instantes de tiempo anteriores, tengo como entrada una matriz de 30*6, como es posible entonces crear una red en la que mi primera capa RNN tiene por ejemplo 50 elementos? No sé si me explico bien ...😅. O dicho de otra manera, si tengo una secuencia de por ejemplo 30 instantes temporales, mi primera capa de de RNN no debería de ser de 30 elementos? Muchas gracias!
Me parece genial la manera en la que explica Doctor, actualmente estoy leyendo en un libro el tema de RNN y entendí que en cada capa oculta (o de activación) se multiplica por el vector del t-1; pero no habia comprendido que en general el hecho de tener Wh @ h en la notación implica tener una red neuronal tambien con pesos Wh ademas del vector de tiempo pasado h; me parece genial como democratizas este tipo de detalles que son intuitivos pero no siempre triviales de entender cuando es la primera vez que ves el concepto en un libro especializado
Muchas gracias!
Excelente detalle en el video. Gracias por el contenido profe.
Muchas gracias! Muchos saludos!
Muchas gracias por el vídeo. Se nota preocupación por tu parte por entender todo y transmitirlo. Buen profe, seguro.
Gracias por este video, justo estoy tomando un curso de Andrew Ng de RNN y modelos secuenciales a la par de este video. Este video me ayuda bastante a entender los conceptos.
Un saludo.
Gracias por compartir este video! Este canal se merece tener muchas más visitas, el contenido es de muy buena calidad y tus explicaciones son muy claras y didácticas!
Llevaba mucho tiempo esperando este video, al final con los anteriores tutoriales y otros videos pude resolver mi problema pero aún así quise verlo por dos razones, por que me agrada cómo explicas las cosas y para que sigas creando este contenido en español. Debo admitir que aunque ya estoy implementado este tipo de modelos, con tu explicación me aclaró muchas cosas. Gracias por tu contenido.
¡Excelente explicación! Me gustan mucho sus vídeos. Muchas gracias, Profe.
Muchas gracias Pepe un excelente video!! y que interesante la redes neuronales recurrentes!!
Gracias a tí Leonardo, definitivamente un modelo muy interesante, aún con muchas aplicaciones en datos secuenciales. Pronto estaré cubriendo transformers, que son un modelo increíble. Muchos saludos!
Excelente vídeo muy bien explicado y con una secuencia muy detallada
Gracias y muchos saludos!
Uffffff no entiendo por qué tus videos no son muy conocidos!!, son muy buenos ❤
Muchas gracias por tu comentario y tu apoyo al canal!! Muchos saludos!
Muchas gracias. Excelente trabajo.
Muchas gracias por este video...ansioso por los proximos!!
Muchas gracias!!
Excelente contenido
Muchas gracias!!!
Hola Pepe !! Muchas gracias por tus vídeos, la verdad es que son una joya. Tengo una pregunta.. cuando en Keras por ejemplo creo una RNN o una LSTM y establezco el número de neuronas en esa capa, ¿Lo que realmente estoy estableciendo es el número de timesteps hacia atrás con los que actualizar los pesos W con el gradiente ?
Genial contenido!
Muchas gracias! Saludos
Hola Pepe, excelente video y explicación!. Gracias! Tengo una pregunta : Cuando programas una capa de una RNN o LSTM usando Keras, tienes que especificar el número de elementos, que no necesariamente tienen que tener el mismo tamaño que los datos de entrada. Si yo quiero aprender seis secuencias en paralelo para las cuáles tengo digamos 30 instantes de tiempo anteriores, tengo como entrada una matriz de 30*6, como es posible entonces crear una red en la que mi primera capa RNN tiene por ejemplo 50 elementos? No sé si me explico bien ...😅.
O dicho de otra manera, si tengo una secuencia de por ejemplo 30 instantes temporales, mi primera capa de de RNN no debería de ser de 30 elementos?
Muchas gracias!
Que IDE es ese que usas?
No vas al grano% no entiendes facilmente- Se nota