Función de Costo - Cross Entropy - REDES NEURONALES - (Parte 4)

Поделиться
HTML-код
  • Опубликовано: 18 сен 2024
  • En este video, continúo con la introducción a Deep Learning y presento la función de pérdida utilizada en combinación con Softmax. Esta función permite medir cuantitativamente qué tan adecuados son nuestros parámetros actuales W y b. Mientras más se aleje nuestra predicción del valor correspondiente a la clase correcta para un ejemplo particular, mayor será dicha pérdida. Al promedio de los valores de pérdida para cada ejemplo o muestra en nuestro set de datos, se le llama función de Costo, y estrictamente, esta función de costo es la que tratamos de minimizar. En el siguiente video, mostraré cómo utilizar cálculo para minimizar el valor actual de la función de costo.
    Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
    En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).
    About the video series:
    In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.

Комментарии • 44

  • @victoralejandroregueirarom2051
    @victoralejandroregueirarom2051 Год назад +8

    Apenas llevaré con usted la materia de Deep Learning, me he puesto a ver su lista sobre este tema y vaya que es increíble. Realmente es de las mejores formas que he encontrado la explicación y funcionamiento de redes neuronales. Agradezco mucho que haga este contenido, me ha ayudado a entender varios conceptos clave que antes consideraba complicados de entender.😎🤖

  • @josecastaneda9259
    @josecastaneda9259 Год назад +1

    Qué crack! Se nota que eres un capo! Gracias por compartir vuestros conocimientos. Sigue así!

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад

      De verdad muchísimas gracias!!! Espero muy pronto estar generando nuevo contenido, hay muchísimos temas que cubrir!!!! Muchos saludos!

    • @josecastaneda9259
      @josecastaneda9259 Год назад

      @@PepeCantoralPhDestamos, desde ya, esperando sus contenidos.

  • @NPRojas
    @NPRojas 3 месяца назад +1

    Excelente explicación.
    Todo quedó muy claro.
    🫶🏽

    • @PepeCantoralPhD
      @PepeCantoralPhD  3 месяца назад

      Muchas gracias por tu comentario! Saludos!

  • @dagcomunica5921
    @dagcomunica5921 8 месяцев назад +1

    Excelente video muy bien explicado. Gracias Pepe

  • @AlejandraRamirezRomano
    @AlejandraRamirezRomano Год назад

    ¡Me encanto la simplicidad del ejemplo! ¡Eres genial! Has ganado una nueva fan 🙂

    • @AlejandraRamirezRomano
      @AlejandraRamirezRomano Год назад +1

      ¿Puedes hacer un video sobre ARIMA Vs LSTM para series de tiempo? Por fis!!!

  • @josejavierminanoramos2185
    @josejavierminanoramos2185 Год назад +9

    Esta es la mejor lista de vídeos que he encontrado en youtube sobre deep learning. Gracias por tu trabajo amigo, un abrazo desde España .

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад

      Muchas gracias por tu comentario, de verdad me motiva muchísimo! Saludos y hasta pronto!

  • @programator5269
    @programator5269 Год назад +2

    llevo 4 videos... Y lo que me parecia que seria muy compliado, lo haces muy entendible. Sabes por que, por que se siente la PASION que tienes por las matematicas y la neurociencia. De verdad Sr. Cantoral, me quito el sombrero y como todos en este canal te doy las GRACIAS!

  • @luispalma4530
    @luispalma4530 Год назад +2

    esta es la mejor explicación que he encontrado sobre deep Learning

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад +1

      Muchísimas gracias por tu comentario! Me motiva mucho para seguir. Espero pronto estar publicando nuevo contenido! Muchos saludos!

  • @cristino7196
    @cristino7196 Год назад +1

    Grandes explicaciones!!!

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад +1

      Muchas gracias por tu comentario! Te mando muchos saludos y te deseo muy felices fiestas! Hasta pronto!

  • @SRV900
    @SRV900 10 месяцев назад +2

    Sigo con esta maratón de 53 videos!
    5/53 vistos. Tema difícil este, pero muy claro!!
    Gracias infinitas.

    • @PepeCantoralPhD
      @PepeCantoralPhD  10 месяцев назад

      Muchas gracias por tu apoyo al canal! Lo aprecio muchísimo! Saludos

  • @manolo3368
    @manolo3368 Год назад +1

    Excelentes videos Pepe, los mejores que he podido ver. Sigue adelante.

  • @danieltejada1696
    @danieltejada1696 Год назад +1

    Esta lista es videos es increíble, espero seguir viendo más contenido.

  • @davidsy8270
    @davidsy8270 Год назад +1

    me encanto! sigue adelante!

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад

      Muchas gracias! Espero pronto estar publicando nuevo contenido!

  • @fellass88
    @fellass88 Год назад +2

    Que buenos videos ahora entiendo mejor las cosas muchas gracias por el contenido

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад

      Muchas gracias! Espero pronto estar publicando nuevo contenido! Muchos saludos

  • @duiliosotelo1005
    @duiliosotelo1005 Год назад

    Súper bien explicado,gracias por el aporte que estás realizando a la comunidad, saludos desde GDL

  • @yordansmithtorrestrujillo5320
    @yordansmithtorrestrujillo5320 3 года назад +2

    Buenisimo!! estoy aprendiendo mucho con tus videos; más que en la universidad. Saludos desde Lima, Perú.

    • @PepeCantoralPhD
      @PepeCantoralPhD  3 года назад

      Yordan, muchas gracias por tu comentario y el apoyo al canal. Me motiva mucho a continuar publicando contenido relacionado a estos temas tan apasionantes. Muchos saludos y hasta pronto!

  • @chronos700
    @chronos700 Год назад +2

    Hola, la mejor explicación que hé visto , de lejos !!! ............. ¿Das cursos en alguna plataforma? o talvez clases personales? Además, nos podrías compartir alguna referencia de donde sacaste las formulas? estaría genial !! , muchas gracias :)

    • @PepeCantoralPhD
      @PepeCantoralPhD  Год назад +3

      De verdad muchas gracias por tu comentario! Soy Profesor-investigador en México, de ahí mi intención es hacer todo de acceso libre, por lo que no tengo cursos en otra plataforma. Estoy haciendo tiempo para preparar mi curso en NLP, que espero empezar a publicar pronto en este canal. Muchas gracias y muchos saludos

    • @chronos700
      @chronos700 Год назад

      @@PepeCantoralPhD Muchas gracias!! De verdad tus videos son un recurso valiosísimo, gracias por compartirlo con nosotros, en lo personal me han ayudado muchísimo. Mil gracias!!!

  • @grjesus9979
    @grjesus9979 Год назад +2

    Me gustaría aclarar una cosa que no se menciona en el vídeo: esta función de pérdidas no es mas que un caso específico de aplicar la divergencia de kullback-leibler sobre el vector de salida de la red (una vez aplicado softmax) y conocida la verdadera distribución de los datos, que como solo pueden pertenecer a una única clase se presenta en la forma de hot-vector.

  • @albertog2196
    @albertog2196 3 года назад +1

    Por fin entendí cross entropy loss. Gracias.

    • @PepeCantoralPhD
      @PepeCantoralPhD  3 года назад

      Muchas gracias por tu comentario, me da mucho gusto que te haya sido útil. Saludos y hasta pronto!

  • @davjmz5847
    @davjmz5847 3 года назад +1

    De los mejores videos que he visto, muchas gracias ;)

    • @PepeCantoralPhD
      @PepeCantoralPhD  3 года назад

      Muchas gracias! Tu comentario me motiva mucho para continuar publicando. Saludos!

  • @acosta500
    @acosta500 3 года назад +1

    Fantastico video,gracias.

    • @PepeCantoralPhD
      @PepeCantoralPhD  3 года назад

      Muchas gracias por tu comentario y apoyo! Espero continuar publicando videos que sean de interés. Saludos!

  • @pinmons
    @pinmons 2 года назад +1

    grande

  • @joseluisdiaz233
    @joseluisdiaz233 2 года назад +1

    Sos un crack

    • @PepeCantoralPhD
      @PepeCantoralPhD  2 года назад

      Muchas gracias José Luis, de verdad me motiva muchísimo tu comentario. Muchos saludos!!

  • @GabrielSugia
    @GabrielSugia Год назад

    Hola, una pregunta: ¿Qué curso o línea de las matemáticas me recomiendas aprender para entender mejor esto?

    • @camigenius
      @camigenius 8 месяцев назад

      Hola debes estudiar Algebra Lineal!