2.- Redes Neuronales: Fácil y desde cero

Поделиться
HTML-код
  • Опубликовано: 6 сен 2024
  • Minicurso de redes neuronales que explica paso a paso la construcción de un perceptrón multicapa.
    Los perceptrones se usan frecuentemente en el ámbito de la inteligencia artifical para predecir o agrupar datos que no son fáciles de tratar con los algoritmos tradicionales.
    Libro que resume el curso:
    openlibra.com/...
    Escrito por Rafael Alberto Moreno Parra

Комментарии • 104

  • @fisicalove
    @fisicalove Год назад +3

    tuve un primer acercamiento formal a la IA gracias a tus videos del perceptron multicapa, hoy en dia soy data scientist senior y solo paso para agradecerte por tu gran labor, espero poder seguir viendo mas de estos temas por tu canal que hoy en dia son un boom y existe toda una parte academica en desarrollo que estaria increible que alguien explicara la teoria y el tecnisismo, espero que seas tu javier, muchas gracias por estos videos.

    • @Javier_Garcia
      @Javier_Garcia  Год назад +2

      Qué grata noticia! Me alegro muchísimo! Muchas gracias por pasarte y comentarlo. Me ha hecho mucha ilusión!

  • @linea_de_tres
    @linea_de_tres 5 лет назад +36

    Muchas gracias por tu vídeo bien explicado, me dedicare a la cocina. Abrazos

  • @Magistrado1914
    @Magistrado1914 3 года назад +1

    Excelente curso
    Visto en 16/11/2020

  • @sandrasilvestre6337
    @sandrasilvestre6337 4 года назад +5

    Hola javier. Se que estás full con tus cursos de relatividad, mecánicas teórica, cuántica y el de campos. Hay muchos que nos hemos quedado con ganas de ver más temas como estos : machine learning , deep learning etc porque hay mucha matemática detrás de esto que seguro puedes dominar. Esperamos la continuación de estos temas. Saludos.

  • @DoctorMexico
    @DoctorMexico 8 лет назад +45

    Estoy haciendo actualmente mi tesis de grado sobre redes neuronales aplicadas a finanzas y tus videos me han sido de muchísima ayuda. Gracias de corazón, la matemática sin abstracción no sirve. Te felicito por mantener el rigor.

    • @Javier_Garcia
      @Javier_Garcia  8 лет назад +8

      Muchísimas gracias y mucho ánimo con tu tesis!

    • @cpainec
      @cpainec 7 лет назад +1

      DoctorMexico, estoy interesado en tu tesis, cómo te puedo contactar? Saludos

    • @hugosadyayalaayala3470
      @hugosadyayalaayala3470 2 года назад

      la matemática sin abstracción NO EXISTE. De hecho, son una abstracción. no poder abstraerse a ellas es el Magno problema del 99.9 de los seres humanos.

  • @MrCigarro50
    @MrCigarro50 Год назад +1

    Javier, Gracias por este video. Excelente.

  • @josealfonsogarcia1200
    @josealfonsogarcia1200 3 года назад +1

    eres un master hermano espero tengas muchos proyectos hermano

  • @DrMiguelSanchez
    @DrMiguelSanchez 8 лет назад +4

    me encantan tus videos son geniales, soy medico fisiologo y gracias a ti he podido entender muchas cosas

  • @pacosiete2765
    @pacosiete2765 5 лет назад +2

    Hola Javier García!!!.
    Me encantó el tema y la verdad estaba muy decepcionado por mi carrera que estoy cursando actualmente, ya que no sabía que enfoque debía ponerle pero gracias a tu explicación me doy cuenta que mi universidad IPN ESFM con la carrera de ingeniería.matemática en México me está abriendo más los ojos y las ganas de dar un enfoque a una maestría en redes neuronales o inteligencia artificial.
    Muchas gracias maestro @Javier García

  • @elimelethlopez6859
    @elimelethlopez6859 2 года назад +1

    Al fin entendí lo que era una caja negra para mi ❤️❤️

  • @alexdaudeinv5270
    @alexdaudeinv5270 3 года назад +1

    Explicación perfecta y detallada, muchas gracias!

  • @hernandogarcia3942
    @hernandogarcia3942 2 года назад

    Ando asesorando una tesis para la aplicacion de las redes Neuronales en calculos de la industria petrolera. tus videos me han servido .. pero el primero , fue muy superficial

  • @pacoiniesta5639
    @pacoiniesta5639 4 года назад +1

    Muy buen canal sobre redes neuronales, enhorabuena y gracias.

  • @lolabenavidesibanez3223
    @lolabenavidesibanez3223 4 года назад +2

    Muchísimas gracias por tu explicación. Has conseguido que algo que podría ser muy complicado parezca sencillo. Sigue así.

  • @chdfnh
    @chdfnh 6 лет назад +2

    Gracias Javier ayer empecé con tus videos de Grupo Lie, y hoy con esta lista y la verdad me siento muy feliz porque nos compartes estos temas maravillosos, hace meses vi tu charla de relatividad y no pude entenderla completamente por mi math background pero ahora que ha crecido veo con claridad la belleza de estos temas

  • @julioss3891
    @julioss3891 6 лет назад +2

    Hola gracias, muy bacana y clara las explicaciones sobre redes neuronales

  • @sega17
    @sega17 6 лет назад +1

    Felicitaciones por la explicación! los videos están geniales y son de mucha ayuda. Muchas gracias.

  • @dagcomunica5921
    @dagcomunica5921 8 месяцев назад +1

    Gracias por el video

  • @danielRasta100
    @danielRasta100 7 лет назад +1

    Gracias, estoy programando en cuda y realmente quisiera hacer analisis de datos con redes neuronales. Gracias por esta serie de videos.

  • @rad8329
    @rad8329 6 лет назад +1

    Felicitaciones Javier, una explicación excelente

  • @flipfliper3321
    @flipfliper3321 8 лет назад +2

    Fantástica explicación!!!MUY BUENOS TUS VIDEOS

  • @ramaluciano
    @ramaluciano 5 лет назад +1

    Excelente explicación

  • @antoniodesousabarroso7945
    @antoniodesousabarroso7945 3 года назад

    Gracias por tu vídeo. Por favor, evita utilizar el color rojo, que tiene poco contraste sobre el negro.

  • @gxsoft
    @gxsoft 5 лет назад +1

    Muy Bien!

  • @ericknandayapacastaneda4253
    @ericknandayapacastaneda4253 7 лет назад +1

    Gracias por el aporte

  • @diegotentor8444
    @diegotentor8444 4 года назад +1

    Muy claro, gracias.

  • @Alexis-sg3hz
    @Alexis-sg3hz 7 лет назад +1

    Muchas gracias por tus explicaciones!!

  • @josbex1684
    @josbex1684 7 лет назад +3

    Muy didáctico... gracias

  • @adrianrevolotaipe3855
    @adrianrevolotaipe3855 6 лет назад +1

    Excelente

  • @marcosalonsoibanezalcas7112
    @marcosalonsoibanezalcas7112 5 лет назад +1

    la pantalla es negra en el dia no puedo se ve bien

  • @igddrr
    @igddrr 5 лет назад +1

    Hola, qué programa utilizas para escribir la explicación que haces? gracias

  • @elcocinerofly
    @elcocinerofly 6 лет назад +1

    Hola,
    Entonces las derivadas de las omegas las tienes que calcular igualmente . Lo que te ahorras con el "descenso al gradiente" es solucionar la ecuación igualando a zero?.
    Saludos,
    TLOV

  • @samucop.d.9880
    @samucop.d.9880 7 лет назад +1

    genial excelente videos muy explicativo

  • @Daftiel
    @Daftiel 7 лет назад

    Muy interesante tema ,, pregunta si yo aplico una función [n] con respecto a la derivada de X en función para determinar la mejor manera de propagación en datos seria valido afirmar que f [n]= [n-1], [n...] .. estoy apenas tratando de hacer cosas ,, gracias por esos vídeos super!

  • @carloschess2010
    @carloschess2010 5 лет назад +2

    Lo único malo es que casi nose ve. Muy buena clase!!!

  • @miguelrocha7580
    @miguelrocha7580 7 лет назад +1

    Hola, ¿Qué software usas para dibujar y escribir en este vídeo?

  • @luisviteri8564
    @luisviteri8564 7 лет назад +3

    Javier Garcia muy buen video. Q programa utilizas para darla explicación del video.Gracias.

  • @Draculinio
    @Draculinio 8 лет назад +1

    Muy bueno man.

  • @sarahicamacho6262
    @sarahicamacho6262 6 лет назад +1

    Excelente video, tengo que hacer reconocimiento de vocales (por formantes) con redes neuronales en MatLab, me podría auxiliar a la realización de este proyecto es de fin universitario. gracias!

  • @-Zapphire-
    @-Zapphire- 7 лет назад +1

    Cool y esto recién empieza..

  • @alfafc
    @alfafc 7 лет назад +1

    excelente!

  • @CarlosJimenez-co9kr
    @CarlosJimenez-co9kr 6 лет назад +1

    enorme explicación, sigue así :P

  • @carlosmasseratti4952
    @carlosmasseratti4952 9 лет назад +4

    Cual es la diferencia entre el descenso de gradiente y el meto de newton? por que los eh confundido

    • @andrechi73
      @andrechi73 7 лет назад

      El método de newton es para obtener los ceros de una función. Este es para obtener el valor minimo.

    • @davidsaez3799
      @davidsaez3799 7 лет назад +1

      En un espacio euclídeo no hay diferencia. math.stackexchange.com/questions/1659452/difference-between-gradient-descent-method-and-steepest-descent

  • @Agustin-ev2qo
    @Agustin-ev2qo 7 лет назад

    (sobre el anterior video) cómo es posible que no se explique la fórmula que determina si una pareja se va a divorciar? debe haber una manera

  • @forexfetforexfet6675
    @forexfetforexfet6675 8 лет назад +1

    perfecto!!!

  • @nyrbano
    @nyrbano 9 лет назад +53

    hola
    no entiendo nada

    • @IgnacioAguilarToledo
      @IgnacioAguilarToledo 7 лет назад +3

      nyrbano Pues yo sí.

    • @omarfuentesramos1748
      @omarfuentesramos1748 7 лет назад

      nyrbano i

    • @sokushageta
      @sokushageta 7 лет назад +2

      Por cada neurona se hace una derivada con un valor aleatorio para acercarse más al mínimo, creo.

    • @danielRasta100
      @danielRasta100 7 лет назад +4

      Estudie calculo

    • @hansktube
      @hansktube 6 лет назад

      No es un curso para todos, necesitas de los primeros años de ingenieria algo de calculo vectorial y diferencial.

  • @eduugr
    @eduugr 8 лет назад

    Gracias ante todo por estos videos !!!!
    Queria saber si alguien me puede recomendar un link para aprender bien a realizar calculos de derivadas que me sirvan para comprender la logica matematica de este ejemplo puntual. Es una derivada simple, verdad?
    Gracias!

  • @rmlumsa
    @rmlumsa 3 года назад

    Y respecto al sesgo?

  • @davidmata3104
    @davidmata3104 7 лет назад +1

    Una excelente explicacion. Lo explicas de tal manera que podamos entenderlo. Si teneis tiempo te agradeceria si pudieras explicar de igual forma los diferentes tipos de gradiente descendente y como optimizarlos. Saludos
    sebastianruder.com/optimizing-gradient-descent/

  • @JosueA_455
    @JosueA_455 8 лет назад +1

    Buenos dias, quisiera saber porque seleccionas la funcion f(w) = (w-1)^2. si tu explicacion es que fue al azar, quisier entonces saber que funcion deberia yo seleccionar para mi tesis, ya que la idea es sar redes neuronales en macizos rocosos, esta bien que los datos de entrada, son buscados en la literatura, y los de salida me dicen el estado de este, pero los W, que son funciones que varian el error, quisiera saber que funcion puede seleccionar aca, o como lo puedo hacer, te agradezco mucho, feliz dia y excelentes videos

    • @economista2379
      @economista2379 7 лет назад

      fedilberto gonzalez arias Sólo se se utiliza esa función de forma hipotética, pudo ser cualquier otra, para el caso de tu tesis tendrías que tener tu propio modelo o uno ad hoc y aplicar el algoritmo de redes.

  • @AbelTarazona
    @AbelTarazona 8 лет назад +1

    En el colegio llevan calculo?

  • @STEVENopticus
    @STEVENopticus 8 лет назад

    se supone que el valor de las omegas la tenemos que modificar nosotros? no se supone que una red neuronal se mejora a si misma?

    • @oscarmtzdev
      @oscarmtzdev 7 лет назад +1

      La omega representa el indice de aprendizaje, y efectivamente tú tienes que modificarlo, dependiendo del indice de aprendizaje son la interacciones que hará para para llegar al punto que se desea, por ejemplo si t indice de aprendizaje es de .000003 no tendrá mucho sentido ya que tardara mucho tiempo en llegar al punto, se tiene que buscar un indice de aprendizaje adecuado para que no haga muchas interaciones y que no se pase del punto deseado.
      i.ytimg.com/vi/SD5568NXr78/maxresdefault.jpg

    • @tavocholo18
      @tavocholo18 7 лет назад +1

      Lo que se modifica es alfa

  • @augustonapuri3152
    @augustonapuri3152 8 лет назад

    Hola, me podes recomendar un libro ?

  • @gustavovelazquez8272
    @gustavovelazquez8272 6 лет назад

    che, pero (w-1) " 2 .... no se resuelve como cuadrado de un binonio? de donde sacaste 2(w-1)?

  • @crismaldypenapolanco2728
    @crismaldypenapolanco2728 6 лет назад +5

    Me acabo de dar cuenta que me queme en el examen final de cálculo 😭

  • @MultiPabloTube
    @MultiPabloTube 7 лет назад

    los videos estan muy bien...pero se ven muy mal :(

  • @joelcoll4034
    @joelcoll4034 6 лет назад +2

    Igual deberia esperarme a hacer derivadas e batchillerato para entender el video... una pena

    • @oscaroccastro
      @oscaroccastro 5 лет назад

      Y por que no desde ahora? No son dificiles.

  • @diegoj4382
    @diegoj4382 Год назад

    Genial explicación, pero mi pupila se tuvo que dilatar por fuera del ojo para ver este video. Tal vez le puedas subir el contraste y blanquear mucho muchisimo ?

    • @Javier_Garcia
      @Javier_Garcia  Год назад +1

      Toda la razón Diego. Este fue uno de los primeros vídeos que hice allá por el 2015 y aun no controlaba estas cosas. A ver si un día me animo y lo vuelvo a subir ajustando un poco el color y el audio.

  • @fancudschye9120
    @fancudschye9120 5 лет назад

    No se ve bien :'T

  • @gemunet
    @gemunet 7 лет назад +4

    no entendí para que me sirve esto ni como se aplica al perceptron, como que me quedo la sensación que falto la introducción practica de para que vamos a hacer estos calculos :-/ (vengo desde el video anterior por si acaso xD)

  • @jorgeenriqueroldanmunoz369
    @jorgeenriqueroldanmunoz369 4 года назад

    Disculpa pero no se le entiende nada

  • @marcoantoniodefuentes1638
    @marcoantoniodefuentes1638 4 года назад

    No se ve nada y es muy lento.

    • @Javier_Garcia
      @Javier_Garcia  4 года назад

      Cierto! Hace 5 años que hice este vídeo y se nota que era novato haciendo este tipo de cosas. Tendré que hacer una versión mejorada más adelante. Lo siento mucho

  • @electronoscar7277
    @electronoscar7277 5 лет назад

    no es la respuesta. es el resultado

  • @GRIDSLER
    @GRIDSLER 6 лет назад

    ¡Qué curioso! Entonces el cerebro de una hormiga o de un caracol sabe hacer derivadas. Ahora me entero.

    • @Javier_Garcia
      @Javier_Garcia  6 лет назад

      jajajja :)

    • @jhonjairor.1644
      @jhonjairor.1644 4 месяца назад +1

      Nuestro propio cerebro calcula un montón de derivadas en cada momento aunque tú no sepas ni dividir, jeje. (No digo tú, hablo retóricamente, por si acaso)

    • @GRIDSLER
      @GRIDSLER 4 месяца назад

      @@jhonjairor.1644 Mhhhh, eso de que los organismos hagan derivadas, va a ser que no. Eso es una interpretación en base a unos aprendizajes.

  • @yeagerdd
    @yeagerdd 4 года назад

    Vine por curioso a aprender algo y quedé pasmado porque al escucharlo con audífonos suena como si hubiera gente respirando mientras él habla :c

  • @WendyObregoning
    @WendyObregoning 8 лет назад +1

    la verdad que mejor deberías hacer con valores y desarrollar en cuanto a los valores... me confundes

    • @Javier_Garcia
      @Javier_Garcia  8 лет назад +8

      Si te confundes sin valores, mejor dedicarse a otra cosa porque la informática está basada en los lenguajes de programación que son en esencia variables (no valores) :)

    • @alfredor.7950
      @alfredor.7950 8 лет назад +3

      Parece que estas muy confundido, para empezar la informática no se basa en los lenguajes, no espero tener que explicarte algo tan básico, ahora si crees que no es necesario o esta mal que alguien entienda mejor con un ejemplo dado con valores, uno ,es por que no tienes didáctica y dos, no entiendes que mucho conocimiento se aprende mediante las pruebas y replicación, si solo te basas en algoritmos que alguien invento y te limitas a seguirlos jamas podrás hacer cosas como ingeniería inversa o resolución de problemas en programación, tal vez deberías considerar seguir otro tipo de carrera o esta bien que te dediques a la educación pero no confundas a la gente.

    • @albererre9212
      @albererre9212 8 лет назад +1

      Alfredo y Wendy, os esperan en el McDonalds, mucha suerte a los dos. Javier estos videos son de lejos los mejores que he visto en castellano. Estoy haciendo el master en Data Science y me han venido de lujo. Sigue así! un abrazo.

    • @x4evn9rs
      @x4evn9rs 8 лет назад +1

      Alfredo R. Porque no nos deslumbras y nos enseñas con "valores" para supuestamente el mejor entendimiento. BlaBlaBla nos gusta criticar pero sin dar ejemplo PAYASO

    • @Javier_Garcia
      @Javier_Garcia  8 лет назад +8

      Alfredo, que haya paz. Es cierto que igual me he pasado un poco con la respuesta que le di a Wendy. En realidad suelo utilizar muchos valores y ejemplos en clase. Después de revisar la conversación me doy cuenta de que lo que realmente me dolió del comentario de Wendy es la frase: "me confundes". Mucha gente pone "me confundes". Pero a veces debería ser "estoy confundida" porque la responsabilidad de aprender algo es compartida: tanto del profesor como del alumno.
      Así que por ese lado me disculpo por haber respondido algo visceral.
      Por otro lado decirte que yo no soy informático Alfredo. Supongo que por eso quizá tengas razón. Yo soy físico. Un día me interesó mucho saber cómo funcionaban las redes neuronales y me puse a investigar.
      Después decidí hacer este tutorial para compartir con los demás todo lo que aprendí. Espero que esto disculpe mi falta de conocimiento en informática :)