Profe, es que no hace falta pedir que nos suscribamos a su canal cuando la calidad de los videos es tan buena como los suyos. Excelente edición, dicción, gráficos, pizarrón digital, etc. Mil gracias de verdad por tanta dedicación y cuidados en el material. Estoy muy contento con su materia!
Pepe. Quiero que siempre recomiendo tu canal. Sobre todo los chicos que entran en la carrera de Ingeniería Informática y que sienten interés por Deep Learning o Inteligencia Artificial en general. Muy buenos vídeos, me estas inspirando mucho a hacer algo parecido en un futuro.
Hola @matiasasses9841 , muchas gracias por tu comentario! Mi intención es en la próximas semanas, precisamente llegar a cubrir e implementar en código al menos versiones miniatura de transformers. Un abrazo!
Muy buen video. Entender qué es un embeddings fue algo que me costó algo de trabajo asimilar, pero tu explicación me parece muy clara. Sigue así profe.
Una pregunta la unidad de medida que representa la cercanía de una palabra hacia otra está dado por el universo de los datos o por otra cosa?, que hace que una palabra esté más cerca de la otra? en el fondo como se construye esta unidad de medida de la distancia?
Buen video, pero es importante puntualizar que la mayoría de los algoritmos de word embeddings son probabilísticos y, por lo tanto, inherentemente incapaces de producir los mismos resultados en experimentos repetidos, a menos que sus procesos aleatorios se hagan deterministas, lo cual, sin embargo, puede distorsionar los resultados experimentales .
Hicieron el paper Meta Learning for Compositionally,MLC en Nature,básicamente dicen que han encontrado una forma de modificar un Seq2Seq y crear un modelo que supera incluso a los humanos(25 que hicieron el experimento) en generalizar predicciones....Si puede explicarlo mejor aquí....😂
Gracias profe!! No desistas nunca de realizar estas explicaciones de manera tan sencilla y práctica y en español. Siempre muy agradecida.
Profe, es que no hace falta pedir que nos suscribamos a su canal cuando la calidad de los videos es tan buena como los suyos. Excelente edición, dicción, gráficos, pizarrón digital, etc. Mil gracias de verdad por tanta dedicación y cuidados en el material. Estoy muy contento con su materia!
Pepe. Quiero que siempre recomiendo tu canal. Sobre todo los chicos que entran en la carrera de Ingeniería Informática y que sienten interés por Deep Learning o Inteligencia Artificial en general. Muy buenos vídeos, me estas inspirando mucho a hacer algo parecido en un futuro.
Que impresionante! Muchas gracias Pepe.
Como siempre Leonardo, agradezco enormemente tu apoyo al canal desde su inicio! Muchos saludos!
Excelente como siempre Pepe! Ojalá continúes con esta serie de NLP hasta llegar a los grandes modelos de lenguaje!! Muchas gracias!! Abrazo
Hola @matiasasses9841 , muchas gracias por tu comentario! Mi intención es en la próximas semanas, precisamente llegar a cubrir e implementar en código al menos versiones miniatura de transformers. Un abrazo!
Muy buen video. Entender qué es un embeddings fue algo que me costó algo de trabajo asimilar, pero tu explicación me parece muy clara. Sigue así profe.
muy claro, gracias
hay pocas explicaciones tan sencillas de entender
Excelente el video pepe, muy buena la explicación.
Super bien explicado Master!!! 🫡
Muchas gracias! Saludos
Genial!
Muchas gracias!
Hola Pepe una consulta en la función los más similares estoy utilizando para la distancia del coseno un valor mayor 0.5 cuál sería el valor apropiado?
Gracias
Muchas gracias por tu comentario!
Una pregunta la unidad de medida que representa la cercanía de una palabra hacia otra está dado por el universo de los datos o por otra cosa?, que hace que una palabra esté más cerca de la otra? en el fondo como se construye esta unidad de medida de la distancia?
representar 200 dimensiones en SOLO dos dimensiones parece muy realista
arriba MNA!!
Buen video, pero es importante puntualizar que la mayoría de los algoritmos de word embeddings son probabilísticos y, por lo tanto, inherentemente incapaces de producir los mismos resultados en experimentos repetidos, a menos que sus procesos aleatorios se hagan deterministas, lo cual, sin embargo, puede distorsionar los resultados experimentales .
Hicieron el paper Meta Learning for Compositionally,MLC en Nature,básicamente dicen que han encontrado una forma de modificar un Seq2Seq y crear un modelo que supera incluso a los humanos(25 que hicieron el experimento) en generalizar predicciones....Si puede explicarlo mejor aquí....😂