Modelos secuenciales y REDES NEURONALES RECURRENTES

Поделиться
HTML-код
  • Опубликовано: 18 дек 2024

Комментарии • 26

  • @DragonBZeta
    @DragonBZeta Год назад +2

    Me parece genial la manera en la que explica Doctor, actualmente estoy leyendo en un libro el tema de RNN y entendí que en cada capa oculta (o de activación) se multiplica por el vector del t-1; pero no habia comprendido que en general el hecho de tener Wh @ h en la notación implica tener una red neuronal tambien con pesos Wh ademas del vector de tiempo pasado h; me parece genial como democratizas este tipo de detalles que son intuitivos pero no siempre triviales de entender cuando es la primera vez que ves el concepto en un libro especializado
    Muchas gracias!

  • @victoralejandroregueirarom2051
    @victoralejandroregueirarom2051 Год назад +5

    Excelente detalle en el video. Gracias por el contenido profe.

  • @joseluissanchogomez4729
    @joseluissanchogomez4729 16 дней назад

    Muchas gracias por el vídeo. Se nota preocupación por tu parte por entender todo y transmitirlo. Buen profe, seguro.

  • @IsraelMolina1997
    @IsraelMolina1997 Год назад +1

    Gracias por este video, justo estoy tomando un curso de Andrew Ng de RNN y modelos secuenciales a la par de este video. Este video me ayuda bastante a entender los conceptos.
    Un saludo.

  • @elielberra2867
    @elielberra2867 2 месяца назад

    Gracias por compartir este video! Este canal se merece tener muchas más visitas, el contenido es de muy buena calidad y tus explicaciones son muy claras y didácticas!

  • @Neo_SF
    @Neo_SF Год назад

    Llevaba mucho tiempo esperando este video, al final con los anteriores tutoriales y otros videos pude resolver mi problema pero aún así quise verlo por dos razones, por que me agrada cómo explicas las cosas y para que sigas creando este contenido en español. Debo admitir que aunque ya estoy implementado este tipo de modelos, con tu explicación me aclaró muchas cosas. Gracias por tu contenido.

  • @laurairangonzalezojeda9825
    @laurairangonzalezojeda9825 Год назад

    ¡Excelente explicación! Me gustan mucho sus vídeos. Muchas gracias, Profe.

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores Год назад +1

    Muchas gracias Pepe un excelente video!! y que interesante la redes neuronales recurrentes!!

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад

      Gracias a tí Leonardo, definitivamente un modelo muy interesante, aún con muchas aplicaciones en datos secuenciales. Pronto estaré cubriendo transformers, que son un modelo increíble. Muchos saludos!

  • @mauriciolugo6239
    @mauriciolugo6239 Год назад +1

    Excelente vídeo muy bien explicado y con una secuencia muy detallada

  • @Zack5051Q
    @Zack5051Q 9 месяцев назад +2

    Uffffff no entiendo por qué tus videos no son muy conocidos!!, son muy buenos ❤

    • @PepeCantoralPhD
      @PepeCantoralPhD  8 месяцев назад

      Muchas gracias por tu comentario y tu apoyo al canal!! Muchos saludos!

  • @reinerromero7265
    @reinerromero7265 Год назад

    Muchas gracias. Excelente trabajo.

  • @jprindusrosa3906
    @jprindusrosa3906 Год назад +1

    Muchas gracias por este video...ansioso por los proximos!!

  • @elgazeta
    @elgazeta Год назад +1

    Excelente contenido

  • @albertot.3556
    @albertot.3556 2 месяца назад

    Hola Pepe !! Muchas gracias por tus vídeos, la verdad es que son una joya. Tengo una pregunta.. cuando en Keras por ejemplo creo una RNN o una LSTM y establezco el número de neuronas en esa capa, ¿Lo que realmente estoy estableciendo es el número de timesteps hacia atrás con los que actualizar los pesos W con el gradiente ?

  • @juanescobar9095
    @juanescobar9095 7 месяцев назад +1

    Genial contenido!

  • @albertot.3556
    @albertot.3556 Месяц назад

    Hola Pepe, excelente video y explicación!. Gracias! Tengo una pregunta : Cuando programas una capa de una RNN o LSTM usando Keras, tienes que especificar el número de elementos, que no necesariamente tienen que tener el mismo tamaño que los datos de entrada. Si yo quiero aprender seis secuencias en paralelo para las cuáles tengo digamos 30 instantes de tiempo anteriores, tengo como entrada una matriz de 30*6, como es posible entonces crear una red en la que mi primera capa RNN tiene por ejemplo 50 elementos? No sé si me explico bien ...😅.
    O dicho de otra manera, si tengo una secuencia de por ejemplo 30 instantes temporales, mi primera capa de de RNN no debería de ser de 30 elementos?
    Muchas gracias!

  • @moranlopezluiseduardo6433
    @moranlopezluiseduardo6433 6 месяцев назад

    Que IDE es ese que usas?

  • @shandercage
    @shandercage 7 месяцев назад

    No vas al grano% no entiendes facilmente- Se nota