tuve un primer acercamiento formal a la IA gracias a tus videos del perceptron multicapa, hoy en dia soy data scientist senior y solo paso para agradecerte por tu gran labor, espero poder seguir viendo mas de estos temas por tu canal que hoy en dia son un boom y existe toda una parte academica en desarrollo que estaria increible que alguien explicara la teoria y el tecnisismo, espero que seas tu javier, muchas gracias por estos videos.
Estoy haciendo actualmente mi tesis de grado sobre redes neuronales aplicadas a finanzas y tus videos me han sido de muchísima ayuda. Gracias de corazón, la matemática sin abstracción no sirve. Te felicito por mantener el rigor.
la matemática sin abstracción NO EXISTE. De hecho, son una abstracción. no poder abstraerse a ellas es el Magno problema del 99.9 de los seres humanos.
Hola javier. Se que estás full con tus cursos de relatividad, mecánicas teórica, cuántica y el de campos. Hay muchos que nos hemos quedado con ganas de ver más temas como estos : machine learning , deep learning etc porque hay mucha matemática detrás de esto que seguro puedes dominar. Esperamos la continuación de estos temas. Saludos.
Hola Javier García!!!. Me encantó el tema y la verdad estaba muy decepcionado por mi carrera que estoy cursando actualmente, ya que no sabía que enfoque debía ponerle pero gracias a tu explicación me doy cuenta que mi universidad IPN ESFM con la carrera de ingeniería.matemática en México me está abriendo más los ojos y las ganas de dar un enfoque a una maestría en redes neuronales o inteligencia artificial. Muchas gracias maestro @Javier García
Gracias Javier ayer empecé con tus videos de Grupo Lie, y hoy con esta lista y la verdad me siento muy feliz porque nos compartes estos temas maravillosos, hace meses vi tu charla de relatividad y no pude entenderla completamente por mi math background pero ahora que ha crecido veo con claridad la belleza de estos temas
Como siempre excepcional javi. Queria proponerte un video muy relacionado con esto. Calcular la complejidad algoritmica (cota O) de una red neuronal profunda de N capas y N neuronas por capa tanto en la fase de inferencia como en entrenamiento de 1 vector de entrada sumando la fase hacia delante y hacia atras.
Ando asesorando una tesis para la aplicacion de las redes Neuronales en calculos de la industria petrolera. tus videos me han servido .. pero el primero , fue muy superficial
Hola, Entonces las derivadas de las omegas las tienes que calcular igualmente . Lo que te ahorras con el "descenso al gradiente" es solucionar la ecuación igualando a zero?. Saludos, TLOV
Muy interesante tema ,, pregunta si yo aplico una función [n] con respecto a la derivada de X en función para determinar la mejor manera de propagación en datos seria valido afirmar que f [n]= [n-1], [n...] .. estoy apenas tratando de hacer cosas ,, gracias por esos vídeos super!
Excelente video, tengo que hacer reconocimiento de vocales (por formantes) con redes neuronales en MatLab, me podría auxiliar a la realización de este proyecto es de fin universitario. gracias!
Gracias ante todo por estos videos !!!! Queria saber si alguien me puede recomendar un link para aprender bien a realizar calculos de derivadas que me sirvan para comprender la logica matematica de este ejemplo puntual. Es una derivada simple, verdad? Gracias!
La omega representa el indice de aprendizaje, y efectivamente tú tienes que modificarlo, dependiendo del indice de aprendizaje son la interacciones que hará para para llegar al punto que se desea, por ejemplo si t indice de aprendizaje es de .000003 no tendrá mucho sentido ya que tardara mucho tiempo en llegar al punto, se tiene que buscar un indice de aprendizaje adecuado para que no haga muchas interaciones y que no se pase del punto deseado. i.ytimg.com/vi/SD5568NXr78/maxresdefault.jpg
Buenos dias, quisiera saber porque seleccionas la funcion f(w) = (w-1)^2. si tu explicacion es que fue al azar, quisier entonces saber que funcion deberia yo seleccionar para mi tesis, ya que la idea es sar redes neuronales en macizos rocosos, esta bien que los datos de entrada, son buscados en la literatura, y los de salida me dicen el estado de este, pero los W, que son funciones que varian el error, quisiera saber que funcion puede seleccionar aca, o como lo puedo hacer, te agradezco mucho, feliz dia y excelentes videos
fedilberto gonzalez arias Sólo se se utiliza esa función de forma hipotética, pudo ser cualquier otra, para el caso de tu tesis tendrías que tener tu propio modelo o uno ad hoc y aplicar el algoritmo de redes.
Una excelente explicacion. Lo explicas de tal manera que podamos entenderlo. Si teneis tiempo te agradeceria si pudieras explicar de igual forma los diferentes tipos de gradiente descendente y como optimizarlos. Saludos sebastianruder.com/optimizing-gradient-descent/
no entendí para que me sirve esto ni como se aplica al perceptron, como que me quedo la sensación que falto la introducción practica de para que vamos a hacer estos calculos :-/ (vengo desde el video anterior por si acaso xD)
Genial explicación, pero mi pupila se tuvo que dilatar por fuera del ojo para ver este video. Tal vez le puedas subir el contraste y blanquear mucho muchisimo ?
Toda la razón Diego. Este fue uno de los primeros vídeos que hice allá por el 2015 y aun no controlaba estas cosas. A ver si un día me animo y lo vuelvo a subir ajustando un poco el color y el audio.
Nuestro propio cerebro calcula un montón de derivadas en cada momento aunque tú no sepas ni dividir, jeje. (No digo tú, hablo retóricamente, por si acaso)
Cierto! Hace 5 años que hice este vídeo y se nota que era novato haciendo este tipo de cosas. Tendré que hacer una versión mejorada más adelante. Lo siento mucho
Si te confundes sin valores, mejor dedicarse a otra cosa porque la informática está basada en los lenguajes de programación que son en esencia variables (no valores) :)
Parece que estas muy confundido, para empezar la informática no se basa en los lenguajes, no espero tener que explicarte algo tan básico, ahora si crees que no es necesario o esta mal que alguien entienda mejor con un ejemplo dado con valores, uno ,es por que no tienes didáctica y dos, no entiendes que mucho conocimiento se aprende mediante las pruebas y replicación, si solo te basas en algoritmos que alguien invento y te limitas a seguirlos jamas podrás hacer cosas como ingeniería inversa o resolución de problemas en programación, tal vez deberías considerar seguir otro tipo de carrera o esta bien que te dediques a la educación pero no confundas a la gente.
Alfredo y Wendy, os esperan en el McDonalds, mucha suerte a los dos. Javier estos videos son de lejos los mejores que he visto en castellano. Estoy haciendo el master en Data Science y me han venido de lujo. Sigue así! un abrazo.
Alfredo R. Porque no nos deslumbras y nos enseñas con "valores" para supuestamente el mejor entendimiento. BlaBlaBla nos gusta criticar pero sin dar ejemplo PAYASO
Alfredo, que haya paz. Es cierto que igual me he pasado un poco con la respuesta que le di a Wendy. En realidad suelo utilizar muchos valores y ejemplos en clase. Después de revisar la conversación me doy cuenta de que lo que realmente me dolió del comentario de Wendy es la frase: "me confundes". Mucha gente pone "me confundes". Pero a veces debería ser "estoy confundida" porque la responsabilidad de aprender algo es compartida: tanto del profesor como del alumno. Así que por ese lado me disculpo por haber respondido algo visceral. Por otro lado decirte que yo no soy informático Alfredo. Supongo que por eso quizá tengas razón. Yo soy físico. Un día me interesó mucho saber cómo funcionaban las redes neuronales y me puse a investigar. Después decidí hacer este tutorial para compartir con los demás todo lo que aprendí. Espero que esto disculpe mi falta de conocimiento en informática :)
tuve un primer acercamiento formal a la IA gracias a tus videos del perceptron multicapa, hoy en dia soy data scientist senior y solo paso para agradecerte por tu gran labor, espero poder seguir viendo mas de estos temas por tu canal que hoy en dia son un boom y existe toda una parte academica en desarrollo que estaria increible que alguien explicara la teoria y el tecnisismo, espero que seas tu javier, muchas gracias por estos videos.
Qué grata noticia! Me alegro muchísimo! Muchas gracias por pasarte y comentarlo. Me ha hecho mucha ilusión!
Muchas gracias por tu vídeo bien explicado, me dedicare a la cocina. Abrazos
Excelente curso
Visto en 16/11/2020
Javier, Gracias por este video. Excelente.
Estoy haciendo actualmente mi tesis de grado sobre redes neuronales aplicadas a finanzas y tus videos me han sido de muchísima ayuda. Gracias de corazón, la matemática sin abstracción no sirve. Te felicito por mantener el rigor.
Muchísimas gracias y mucho ánimo con tu tesis!
DoctorMexico, estoy interesado en tu tesis, cómo te puedo contactar? Saludos
la matemática sin abstracción NO EXISTE. De hecho, son una abstracción. no poder abstraerse a ellas es el Magno problema del 99.9 de los seres humanos.
Muy buen canal sobre redes neuronales, enhorabuena y gracias.
Hola javier. Se que estás full con tus cursos de relatividad, mecánicas teórica, cuántica y el de campos. Hay muchos que nos hemos quedado con ganas de ver más temas como estos : machine learning , deep learning etc porque hay mucha matemática detrás de esto que seguro puedes dominar. Esperamos la continuación de estos temas. Saludos.
Explicación perfecta y detallada, muchas gracias!
Hola Javier García!!!.
Me encantó el tema y la verdad estaba muy decepcionado por mi carrera que estoy cursando actualmente, ya que no sabía que enfoque debía ponerle pero gracias a tu explicación me doy cuenta que mi universidad IPN ESFM con la carrera de ingeniería.matemática en México me está abriendo más los ojos y las ganas de dar un enfoque a una maestría en redes neuronales o inteligencia artificial.
Muchas gracias maestro @Javier García
Muchísimas gracias por tu explicación. Has conseguido que algo que podría ser muy complicado parezca sencillo. Sigue así.
me encantan tus videos son geniales, soy medico fisiologo y gracias a ti he podido entender muchas cosas
eres un master hermano espero tengas muchos proyectos hermano
Felicitaciones por la explicación! los videos están geniales y son de mucha ayuda. Muchas gracias.
Gracias Javier ayer empecé con tus videos de Grupo Lie, y hoy con esta lista y la verdad me siento muy feliz porque nos compartes estos temas maravillosos, hace meses vi tu charla de relatividad y no pude entenderla completamente por mi math background pero ahora que ha crecido veo con claridad la belleza de estos temas
Felicitaciones Javier, una explicación excelente
Hola gracias, muy bacana y clara las explicaciones sobre redes neuronales
Fantástica explicación!!!MUY BUENOS TUS VIDEOS
Al fin entendí lo que era una caja negra para mi ❤️❤️
Como siempre excepcional javi. Queria proponerte un video muy relacionado con esto. Calcular la complejidad algoritmica (cota O) de una red neuronal profunda de N capas y N neuronas por capa tanto en la fase de inferencia como en entrenamiento de 1 vector de entrada sumando la fase hacia delante y hacia atras.
Gracias por el video
Gracias, estoy programando en cuda y realmente quisiera hacer analisis de datos con redes neuronales. Gracias por esta serie de videos.
Muchas gracias por tus explicaciones!!
Excelente explicación
Gracias por el aporte
Ando asesorando una tesis para la aplicacion de las redes Neuronales en calculos de la industria petrolera. tus videos me han servido .. pero el primero , fue muy superficial
Muy didáctico... gracias
Muy claro, gracias.
genial excelente videos muy explicativo
Hola, qué programa utilizas para escribir la explicación que haces? gracias
enorme explicación, sigue así :P
Javier Garcia muy buen video. Q programa utilizas para darla explicación del video.Gracias.
Muy Bien!
Muy bueno man.
Hola, ¿Qué software usas para dibujar y escribir en este vídeo?
Hola,
Entonces las derivadas de las omegas las tienes que calcular igualmente . Lo que te ahorras con el "descenso al gradiente" es solucionar la ecuación igualando a zero?.
Saludos,
TLOV
Excelente
excelente!
perfecto!!!
Cool y esto recién empieza..
Cual es la diferencia entre el descenso de gradiente y el meto de newton? por que los eh confundido
El método de newton es para obtener los ceros de una función. Este es para obtener el valor minimo.
En un espacio euclídeo no hay diferencia. math.stackexchange.com/questions/1659452/difference-between-gradient-descent-method-and-steepest-descent
Gracias por tu vídeo. Por favor, evita utilizar el color rojo, que tiene poco contraste sobre el negro.
Muy interesante tema ,, pregunta si yo aplico una función [n] con respecto a la derivada de X en función para determinar la mejor manera de propagación en datos seria valido afirmar que f [n]= [n-1], [n...] .. estoy apenas tratando de hacer cosas ,, gracias por esos vídeos super!
Lo único malo es que casi nose ve. Muy buena clase!!!
En el colegio llevan calculo?
Y respecto al sesgo?
Excelente video, tengo que hacer reconocimiento de vocales (por formantes) con redes neuronales en MatLab, me podría auxiliar a la realización de este proyecto es de fin universitario. gracias!
Qué interesante!!!
la pantalla es negra en el dia no puedo se ve bien
(sobre el anterior video) cómo es posible que no se explique la fórmula que determina si una pareja se va a divorciar? debe haber una manera
Gracias ante todo por estos videos !!!!
Queria saber si alguien me puede recomendar un link para aprender bien a realizar calculos de derivadas que me sirvan para comprender la logica matematica de este ejemplo puntual. Es una derivada simple, verdad?
Gracias!
se supone que el valor de las omegas la tenemos que modificar nosotros? no se supone que una red neuronal se mejora a si misma?
La omega representa el indice de aprendizaje, y efectivamente tú tienes que modificarlo, dependiendo del indice de aprendizaje son la interacciones que hará para para llegar al punto que se desea, por ejemplo si t indice de aprendizaje es de .000003 no tendrá mucho sentido ya que tardara mucho tiempo en llegar al punto, se tiene que buscar un indice de aprendizaje adecuado para que no haga muchas interaciones y que no se pase del punto deseado.
i.ytimg.com/vi/SD5568NXr78/maxresdefault.jpg
Lo que se modifica es alfa
hola
no entiendo nada
nyrbano Pues yo sí.
nyrbano i
Por cada neurona se hace una derivada con un valor aleatorio para acercarse más al mínimo, creo.
Estudie calculo
No es un curso para todos, necesitas de los primeros años de ingenieria algo de calculo vectorial y diferencial.
Buenos dias, quisiera saber porque seleccionas la funcion f(w) = (w-1)^2. si tu explicacion es que fue al azar, quisier entonces saber que funcion deberia yo seleccionar para mi tesis, ya que la idea es sar redes neuronales en macizos rocosos, esta bien que los datos de entrada, son buscados en la literatura, y los de salida me dicen el estado de este, pero los W, que son funciones que varian el error, quisiera saber que funcion puede seleccionar aca, o como lo puedo hacer, te agradezco mucho, feliz dia y excelentes videos
fedilberto gonzalez arias Sólo se se utiliza esa función de forma hipotética, pudo ser cualquier otra, para el caso de tu tesis tendrías que tener tu propio modelo o uno ad hoc y aplicar el algoritmo de redes.
Me acabo de dar cuenta que me queme en el examen final de cálculo 😭
Hola, me podes recomendar un libro ?
50 sombras de grey
Una excelente explicacion. Lo explicas de tal manera que podamos entenderlo. Si teneis tiempo te agradeceria si pudieras explicar de igual forma los diferentes tipos de gradiente descendente y como optimizarlos. Saludos
sebastianruder.com/optimizing-gradient-descent/
che, pero (w-1) " 2 .... no se resuelve como cuadrado de un binonio? de donde sacaste 2(w-1)?
Derivada de una función cuadrática
los videos estan muy bien...pero se ven muy mal :(
Igual deberia esperarme a hacer derivadas e batchillerato para entender el video... una pena
Y por que no desde ahora? No son dificiles.
no entendí para que me sirve esto ni como se aplica al perceptron, como que me quedo la sensación que falto la introducción practica de para que vamos a hacer estos calculos :-/ (vengo desde el video anterior por si acaso xD)
Tienes otros 5 más (capaz te ayudan a entender)
No se ve bien :'T
Genial explicación, pero mi pupila se tuvo que dilatar por fuera del ojo para ver este video. Tal vez le puedas subir el contraste y blanquear mucho muchisimo ?
Toda la razón Diego. Este fue uno de los primeros vídeos que hice allá por el 2015 y aun no controlaba estas cosas. A ver si un día me animo y lo vuelvo a subir ajustando un poco el color y el audio.
no es la respuesta. es el resultado
¡Qué curioso! Entonces el cerebro de una hormiga o de un caracol sabe hacer derivadas. Ahora me entero.
jajajja :)
Nuestro propio cerebro calcula un montón de derivadas en cada momento aunque tú no sepas ni dividir, jeje. (No digo tú, hablo retóricamente, por si acaso)
@@jhonjairor.1644 Mhhhh, eso de que los organismos hagan derivadas, va a ser que no. Eso es una interpretación en base a unos aprendizajes.
Disculpa pero no se le entiende nada
No se ve nada y es muy lento.
Cierto! Hace 5 años que hice este vídeo y se nota que era novato haciendo este tipo de cosas. Tendré que hacer una versión mejorada más adelante. Lo siento mucho
Vine por curioso a aprender algo y quedé pasmado porque al escucharlo con audífonos suena como si hubiera gente respirando mientras él habla :c
la verdad que mejor deberías hacer con valores y desarrollar en cuanto a los valores... me confundes
Si te confundes sin valores, mejor dedicarse a otra cosa porque la informática está basada en los lenguajes de programación que son en esencia variables (no valores) :)
Parece que estas muy confundido, para empezar la informática no se basa en los lenguajes, no espero tener que explicarte algo tan básico, ahora si crees que no es necesario o esta mal que alguien entienda mejor con un ejemplo dado con valores, uno ,es por que no tienes didáctica y dos, no entiendes que mucho conocimiento se aprende mediante las pruebas y replicación, si solo te basas en algoritmos que alguien invento y te limitas a seguirlos jamas podrás hacer cosas como ingeniería inversa o resolución de problemas en programación, tal vez deberías considerar seguir otro tipo de carrera o esta bien que te dediques a la educación pero no confundas a la gente.
Alfredo y Wendy, os esperan en el McDonalds, mucha suerte a los dos. Javier estos videos son de lejos los mejores que he visto en castellano. Estoy haciendo el master en Data Science y me han venido de lujo. Sigue así! un abrazo.
Alfredo R. Porque no nos deslumbras y nos enseñas con "valores" para supuestamente el mejor entendimiento. BlaBlaBla nos gusta criticar pero sin dar ejemplo PAYASO
Alfredo, que haya paz. Es cierto que igual me he pasado un poco con la respuesta que le di a Wendy. En realidad suelo utilizar muchos valores y ejemplos en clase. Después de revisar la conversación me doy cuenta de que lo que realmente me dolió del comentario de Wendy es la frase: "me confundes". Mucha gente pone "me confundes". Pero a veces debería ser "estoy confundida" porque la responsabilidad de aprender algo es compartida: tanto del profesor como del alumno.
Así que por ese lado me disculpo por haber respondido algo visceral.
Por otro lado decirte que yo no soy informático Alfredo. Supongo que por eso quizá tengas razón. Yo soy físico. Un día me interesó mucho saber cómo funcionaban las redes neuronales y me puse a investigar.
Después decidí hacer este tutorial para compartir con los demás todo lo que aprendí. Espero que esto disculpe mi falta de conocimiento en informática :)