“Backpropagation” - Fundamentos de Deep Learning - (Parte 7)

Поделиться
HTML-код
  • Опубликовано: 8 ноя 2024

Комментарии • 21

  • @SRV900
    @SRV900 7 месяцев назад +1

    Sigo con esta maratón de 53 videos!
    9/53 vistos. Muchas gracias Pepe! Volví recargado luego de 4 meses, a seguir con esta maratón. Clarísimo todo, lo hacés taaan fácil!

    • @PepeCantoralPhD
      @PepeCantoralPhD  7 месяцев назад

      @SRV900, de verdad muchas gracias por tu comentario y por el apoyo al canal! Muchos saludos!

  • @walterrodriguez2696
    @walterrodriguez2696 Год назад +1

    Excelente explicación! Debería tener 137k likes

  • @PituPonsone
    @PituPonsone Год назад +1

    Pepe, buen día desde Argentina. Soy Ingeniero Electrónico y me estoy metiendo de a poco en este mundo. Muchas gracias por tus aportes, hay muchos videos o recursos que se limitan a aplicar funciones y modelos sin explicar realmente que está pasando o cuales son los fundamentos detrás de cada concepto.
    Te agradezco nuevamente, saludos!

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад +2

      Muchísimas gracias por tu comentario y apoyo al canal! Yo también soy de formación Ing. Electrónica, pero llevo muchos años trabajando en Ciencias computacionales. Pienso que tener conocimientos de programación a bajo nivel por ejemplo C para embebidos, o VHDL/Verilog te permite implementar código en lenguajes de alto nivel como Python de forma mucho más eficiente. Muchos saludos y de nuevo muchas gracias por tu comentario. Muchos saludos!

  • @galoomarvera1719
    @galoomarvera1719 7 месяцев назад +2

    Eres lo máximo

    • @PepeCantoralPhD
      @PepeCantoralPhD  6 месяцев назад

      De verdad, muchísimas gracias por tu apoyo al canal y tu comentario! Muchos saludos!

  • @gabopython
    @gabopython 2 года назад +1

    gracias profe

    • @PepeCantoralPhD
      @PepeCantoralPhD  2 года назад

      Muchas gracias por tu comentario y apoyo al canal! Muchos saludos!

  • @cristhianipanaquesanchez4679
    @cristhianipanaquesanchez4679 2 года назад +1

    gracias!

  • @untalbj
    @untalbj 3 года назад +3

    Hola, una pregunta, para el algoritmo, según la red neuronal que utiliza, no está aplicando la función de activación a la suma ponderada de cada neurona (que sería Z--fn-->A) y según he visto en otros videos, aplicar la función de activación implica otro gradiente de J respecto a A y ya no sería de J respecto a Z ?

    • @PepeCantoralPhD
      @PepeCantoralPhD  3 года назад +2

      Hola Brandon! Muchas gracias por tu pregunta. Tienes toda la razón, se debe aplicar una función de activación no lineal (ReLU, leaky ReLU, sigmoid, por ejemplo) después de la transformación lineal (por cada capa).
      Sin embargo, en este video aún no presento funciones de activación y mi intención es explicar qué es "backpropagation" sin necesidad de saber qué son las funciones de activación.
      Esta liga ruclips.net/video/ftlqZwb33SE/видео.html debe llevarte a la lista completa de videos de la serie, este video es el video 9 de la serie, en el video 12 presento el tema de funciones de activación (ruclips.net/video/IdlYuBKeFXo/видео.html) donde explico la necesidad de utilizar esta funciones no lineales,
      En particular te invito a ver el video 13 (ruclips.net/video/Xc2Gsx2DkJA/видео.html) donde presento como crear una red neuronal multicapa ya considerando funciones de activación, incluyendo el gradiente con respecto a las mismas como tu comentas (dJ/dA). Asimismo, en los videos de programación, muestro como programar desde cero (sólo Python) los gradientes de la función de Costo con respecto a todas los puntos requeridos, incluyendo funciones de activación. A partir del video 14 son videos de código, y en la siguiente liga está el primer video de una red neuronal completa de dos capas ruclips.net/video/W5HJKWL2i08/видео.html. También tengo un video donde explico cómo inicializar los parámetros de la red (ruclips.net/video/hFa6sYJnTfs/видео.html), y cómo crear una red neuronal multicapa creado tus propios objetos de capas sin utilizar frameworks ruclips.net/video/_shpKyA89QQ/видео.html
      Con estos fundamentos, en mi siguiente video, empezaré a utilizar PyTorch para crear arquitecturas más complejas.
      Muchas gracias por tu comentario, espero haber contestado tu pregunta.

    • @untalbj
      @untalbj 3 года назад +1

      @@PepeCantoralPhD Muchísimas gracias !

  • @angellaguna5374
    @angellaguna5374 Год назад

    muy bien explicado !

  • @SwirlTornadoJuega
    @SwirlTornadoJuega Год назад

    Hola... Quisiera saber si me compartirias algún artículo relacionado a Descenso del gradiente.

  • @chriss6114
    @chriss6114 Год назад +1

    arriba MNA ITESM

  • @JoelPasapera
    @JoelPasapera Год назад

    aqui 15:19 , ¿porque usas la notación tradicional y no la de derivada parcial ? veo que se trata de una función con varias variables. Es decir el nodo es igual al producto entre w y z + b. Aqui hay mas de una variable. ¿en este caso no seria mejor usar la notación de derivada parcial porque se trata de varias variables? ¿porque decias que se trata de una sola variable? ¿que sucede con b y w, son 2 variables?

  • @luismiguelpatinobuendia5141
    @luismiguelpatinobuendia5141 Год назад

    Se nota mucho la diferencia entre la organización y precisión del contenido de éste vídeo en comparación con la parte 6.