¿Por qué estas REDES NEURONALES son tan POTENTES? 🤔 | TRANSFORMERS Parte 2

Поделиться
HTML-код
  • Опубликовано: 24 ноя 2024

Комментарии • 295

  • @DotCSV
    @DotCSV  3 года назад +85

    ► Serie Introducción al NLP y Transformers (DotCSV)
    ⭐Parte 1 - ruclips.net/video/Tg1MjMIVArc/видео.html - Introducción a Tokens.
    ⭐Parte 2 - ruclips.net/video/RkYuH_K7Fx4/видео.html - Introducción a Embeddings.
    ⭐Parte 3 - ruclips.net/video/aL-EmKuB078/видео.html - Introducción a Mec. Atención

    • @MarioAlbertoRomeroSandoval
      @MarioAlbertoRomeroSandoval 3 года назад +2

      Justo estaba esperando la segunda parte 😎

    • @josecudris5078
      @josecudris5078 3 года назад +2

      Genial ésta serie dotcsv, sinceramente sería muy complicado entender este tipo de arquitectura sin una buena explicación detallada como lo son todos los videos de este canal. Épico

    • @drios200
      @drios200 3 года назад

      Ahora el universo tiene sentido :p

    • @drios200
      @drios200 3 года назад

      Me solté riendo con lo de discreto xD

    • @patojp3363
      @patojp3363 3 года назад

      El mejor!!! Gracias

  • @eduforero
    @eduforero 3 года назад +278

    Porque tienen un gran líder. ⚡Optimus Prime. ⚡

    • @cheernesto85
      @cheernesto85 3 года назад +5

      Vine por este comentario

    • @RominaSosaSchnoerr
      @RominaSosaSchnoerr 3 года назад +2

      Jajajajaja

    • @wilmerh.munoz.2303
      @wilmerh.munoz.2303 3 года назад +3

      Jajajaja, no mames wey esto es ciencia 😊🤣🤣😹🤭

    • @Rusenshi
      @Rusenshi 3 года назад +12

      Y el nuevo modelo de NVIDIA se llama Megatron, un digno rival

    • @jfbaezv
      @jfbaezv 3 года назад +1

      Jajajajajajajajaja

  • @charly9544
    @charly9544 3 года назад +195

    "Detrás de estas tecnologías hay un transformer"
    Yo imaginándome a Bumblebee generando palabras

    • @asusasd2557
      @asusasd2557 3 года назад +2

      yo tambien

    • @zzzz5517
      @zzzz5517 Год назад +1

      Si existe una tecnologia llamada bumblebee xd

    • @Darkbotsz5
      @Darkbotsz5 9 месяцев назад +1

      Es un Camaro.

  • @urielgarcia3888
    @urielgarcia3888 3 года назад +17

    WOW...
    Me he queda sin palabra JAMAS me hubiera imaginado el uso de formulas sinusoidales para calcular posiciones.

  • @zure2874
    @zure2874 3 года назад +64

    "Sigamos con los transformers"
    Yo: Bien... sigue optimus prime

  • @Cuperino
    @Cuperino 3 года назад +55

    ¡Sigue profundizando Dot! ¡El tema es fascinante y tu explicación e excelente! ¿Cómo se hace uso de esta descomposición temporal y qué otras implicaciones tiene?

  • @1061exclavo
    @1061exclavo 3 года назад +11

    Sería realmente increíble ver un ejemplo práctico. He escuchado de estás redes pero para un novato como yo sería valioso ver un código que te ayude a encaminar lo practico. Gracias por el video.

  • @AntonioGallardoCabrillana
    @AntonioGallardoCabrillana 3 года назад +10

    Este tipo de videos deberían ponerle a los chavales antes de clases de matemáticas para animar a aprenderlas viendo la gran utilidad que tienen. Gran video como siempre.

  • @juanete69
    @juanete69 2 года назад +1

    Me alegra encontrar en español estos tutoriales de tan buena calidad, tanto por el contenido didáctico como por tu forma de hablar como por los gráficos.

  • @vegamuni
    @vegamuni 3 года назад +23

    Me costó entender cómo funcionan los Transformers. Tuve que relacionar cada palabra de lo que estaba leyendo con cada una de las demás palabras y luego leerlas ya relacionadas de forma simultánea y paralela, pero teniendo en cuenta el orden.
    Estoy ironizando.
    Lo que hice fue leer la explicación por partes, entender un trozo, luego el siguiente y luego volver a leerlo todo.
    A mi entender, lo que hacemos para entender un texto largo o complicado, se parece más a una convolución que a un transformer.

    • @wb4529
      @wb4529 3 года назад

      12:22

    • @CristianGarcia
      @CristianGarcia 3 года назад +3

      Una convolucion implicaria que somos capaces de procesar todos los posibles n-gramas de una frase en paralelo. Lo mas parecido para los humanos en una red recurrente.

    • @vegamuni
      @vegamuni 3 года назад

      @@CristianGarcia "Se parece más"

  • @IvanLopezioloo
    @IvanLopezioloo 3 года назад +3

    Es impresionante el trabajo didáctico que hacéis. Ésto no podría hacerse en televisión.

  • @juansiveriorojas967
    @juansiveriorojas967 3 года назад +9

    Hola Carlos, tus explicaciones son impresionantemente clarificadoras, acompañadas siempre de una infografía espectacular, lo que demuestra todo el trabajo que hay detrás de cada video. Enhorabuena.

  • @lisandrocesaratto3012
    @lisandrocesaratto3012 2 года назад +2

    Excelente! La forma como explicas Positional Encoding no la vi en ningun otro video, y ahora logre entenderlo al 100%. Gracias!

  • @AlvaroALorite
    @AlvaroALorite 3 года назад +24

    🎉🎉🎉 **Felicidades por el 1/2 millón de subs!** 🎉🎉🎉

  • @jeannsyo
    @jeannsyo 3 года назад +7

    13:28 dot realmente eres un crack, saludos desde America Latina

  • @EmaSuriano
    @EmaSuriano Месяц назад

    Quizás el mejor video de tu canal, sin duda lo has explicado de manera excepcional! Sin duda me voy a hacer a Patreon

  • @mvargas34
    @mvargas34 2 года назад +1

    Que genial la forma creativa de explicar el positional encoding! Sos un grande Dot CSV!

  • @lopez-rober
    @lopez-rober 3 года назад +10

    Wow, Super Gran trabajo. Videos que valen oro, por favor nunca dejes de hacerlos, siempre los espero por lo interesantes que son.

  • @wilfredomartel7781
    @wilfredomartel7781 6 месяцев назад +1

    Vaya que video y qué manera la tuya de explicar! Necesitamos profundizar y llevar a codigo la siguiente parte.

  • @francoferrante6723
    @francoferrante6723 2 года назад +1

    Excelente videoooo!!! Muchas gracias por la dedicación! Por favor, seguí esta serie que está genial!

  • @matiasrodrigotorresrivera4941
    @matiasrodrigotorresrivera4941 3 года назад +4

    A Fourier le encantó este video

  • @andrewturtle2610
    @andrewturtle2610 3 года назад +1

    Genial! Me vuela la cabeza este tipo de resultados que están sacando las IA

  • @Inzurrekto1
    @Inzurrekto1 Год назад

    Agradezco que esta información esté bien explicada y en español. Para estudiar este tema de forma rápida viene bastante bien.

  • @yorius96
    @yorius96 11 месяцев назад

    Excelente video, incluso al día de hoy, es realmente interesante entender cómo pasamos de las antiguaras redes tradicionales a los grandes modelos de lenguaje que ocupamos al día de hoy (nunca había entendido bien qué era el Positional Encoding, genial explicación)

  • @osip_1984
    @osip_1984 3 года назад +2

    Otra de las razones por las que utilizar una codificación posicional basada en ondas matemáticas multidimensionales es porque le permite al modelo adquirir información posicional relativa respecto a las otras palabras, permitiéndole aprender con menos ejemplos y más rápidamente.

  • @lenninrestrepo8556
    @lenninrestrepo8556 3 года назад +2

    Explicas demasiado bien!! buen video... jaja tener este conocimiento hace una década nos hubiese asegurado una beca en el MIT

  • @maruscheffer5202
    @maruscheffer5202 3 месяца назад

    Claude Shannon... Todo se reduce a la teoría de la información... Que genio fué... Gran video ❤

  • @javieraguilar9957
    @javieraguilar9957 3 года назад +2

    Tío Dot, nunca había visto un video tan bien explicado del Positional Encoding

  • @diegotarrio2905
    @diegotarrio2905 2 месяца назад

    ufff, muchísimas gracias por compartir con semejante claridad y calidad de exposición! Muy clarificador!. 🙌

  • @juandiegoorozco5531
    @juandiegoorozco5531 11 месяцев назад

    Tenés una forma de explicar magistral!, capturaste mi atención por completo, super interesante

  • @lucasgomez9373
    @lucasgomez9373 2 года назад +1

    Sos un Genio Carlos! Te consulto si sabes si hay desarrollos para optimizar esta codificacion utilizando por ejemplo modulaciones en cuadratura comunes en telecomunicaciones. Me interesa saber como se encara el incremento en throughput de datos!
    Saludos!

  • @mbunooo
    @mbunooo 3 года назад +2

    nunca vi una explicación tan intuitiva de los embeddings posicionales. felicidades por el video!

  • @MILENIOZERO
    @MILENIOZERO Год назад

    Yo quiero hablar con un personaje asi en español y dentro del metaverso o con la realidad mixta. Tiene que ser una pasada!

  •  Год назад

    Excelente explicación!!! Muchas gracias por compartir tus conocimientos.

  • @andresunknow8917
    @andresunknow8917 4 месяца назад +1

    Brillante video! Muchísimas gracias!!

  • @jovenalpay
    @jovenalpay 9 месяцев назад

    Que magnifica explicación!!! Y que genialidad la de los transformers. Y de ahi que utilicen tantas GPUs para procesamiento paralelo de enormes cantidades de datos. GRACIAS DOT.CSV

  • @davidpratr
    @davidpratr 2 года назад

    Gran vídeo con el que he comprendido el positional encoding. Si hicieras un vídeo explicando la capa densa final de BERT y el funcionamiento de la arquitectura entendiendo cómo funciona para un ejemplo de problema sería brutal ya :)

  • @victormanuelsanchezmorales4261
    @victormanuelsanchezmorales4261 2 года назад

    Carlos, haz un vídeo sobre como funcionan los "encajes", considero que son fundamentales para abordar temas como VQA (que estaría fenomenal que hicieras una serie!).
    Gran trabajo.
    Saludos

  • @JuanJoseCinalli
    @JuanJoseCinalli 2 года назад

    Solo se que en lugar de simplificar, se está complicando todo exponencialmente.
    Un ejemplo...
    Es como cuando generamos rampas en decodificadores A/D...en lugar de solo usar un equipo analógico.
    Nuestro cerebro es extremadamente simple en ese mecanismo de aprendizaje o incluso inteligencia.
    Si bien existen multiple tipos de neuronas, hay zonas y sectores específicos.
    Nuestras limitaciones principales son la velocidad de propagación electroquímica , la densidad de almacenamiento dentro de todo es aceptable , aún así ampliable electrónicamente.
    Muy buenos tus vídeos, aprendo mucho en verdad !
    Saludos desde Rosario Argentina

    • @JuanJoseCinalli
      @JuanJoseCinalli 2 года назад

      Hugo Zucarelli, ing acústico famoso por su invención (1980) llamada Holofonic....este ideo una técnica de cambios de fase en sonido...como realmente es capturada por el oído humano, intentaron recrear algoritmos así manejar esta información espacial 3D sin resultados muy superiores..
      El ser humano es 100% analógico...no veo razón (hoy en dia) cambiar estos principios hasta no superarlos y así emplear técnicas digitales.
      Espero se comprenda la comparativa.
      Saludos

  • @fosters.4558
    @fosters.4558 3 года назад +3

    Cualquiera q sabe de Sonido mira esas ondas y es inevitable relacionarlo con las ondas armónicas que al final se traducen en frecuencia.. bien lo decía Tesla.. todo es frecuencia todo !! U.u

  • @rodmallen9041
    @rodmallen9041 3 года назад

    Qu'e maravilla de v'ideo! mil gracias por semejante explicaci'on!

  • @casipof
    @casipof 3 года назад +1

    Espectacular!!! Una explicación excelente. Gracias!!

  • @victormendezvasquez722
    @victormendezvasquez722 3 года назад +4

    Wow wow wow, full nice la explicación!!! Gracias Carlos, eres el mejor!!!!

  • @korason3235
    @korason3235 3 года назад

    Bro, tu canal ya es genial, no creo que necesites poner bromas entre medio

  • @denisvillanueva9588
    @denisvillanueva9588 Год назад

    excelente Videos, tienes un manera de explicar temas dificiles de explicar, de una manera muy "sencilla", podrias realizar algun video acerca de los usos de IA en la medicina hoy

  • @brianfuentes2923
    @brianfuentes2923 Год назад +1

    QUIERO MAS!

  • @ManuelGomezRicoUbeda1
    @ManuelGomezRicoUbeda1 Год назад +1

    Me ha encantado! Muchas gracias

  • @manuelcobo8879
    @manuelcobo8879 3 года назад

    Estas hablando de reconocimiento de voz o colores formas etc de cualquier manera todo es frecuencia 😎👍🎼

  • @nachofloresblanco3208
    @nachofloresblanco3208 3 года назад +2

    Gracias Carlos. Mira que he leído sobre los Transformers pero no conocía este tema del Position Encoding

    • @Darkbotsz5
      @Darkbotsz5 9 месяцев назад +1

      De los decepticons

  • @dcardenasp
    @dcardenasp 3 года назад +1

    Hola Carlos. Que buen video! Estás amarrando muchísimos conceptos en una sola aplicación. Genial! Me gustaría usar tu video para el capítulo de series de Fourier en un curso que imparto para estudiantes de ingeniería. Me autorizas? Salu2!

  • @JuniorH
    @JuniorH Год назад

    Muchas gacias Dot! por toda la explicacion.

  • @javiertorcal5053
    @javiertorcal5053 Год назад +1

    He utilizado los Visual Transformers en mi TFM y su performance es mayor a la de las CNNs. Podrías hacer un vídeo sobre ellos por su gran potencial y futuro

    • @Darkbotsz5
      @Darkbotsz5 4 месяца назад +1

      Los decepticons y Los Autobots.

  • @jesusrojas7534
    @jesusrojas7534 11 месяцев назад

    Si todos los vídeos fueran así, aprendería todo más rápido

  • @fisicaparalavida108
    @fisicaparalavida108 7 месяцев назад

    Densooooo! mucha y muy valiosa informaciòn. Gracias!

  • @sararosagonzalez1074
    @sararosagonzalez1074 10 месяцев назад +1

    Muy didáctico. Gracias 😊

  • @jeisoncgalindo
    @jeisoncgalindo 3 года назад +1

    una barbaridad, te deja sin palabras

  • @haroldt.c.477
    @haroldt.c.477 2 года назад

    En determinado momento, con el conocimiento con las que las propias personas alimentan a las inteligencias artificiales, serán estás las que se ocupen de generar y distribuir la tecnología, y según parece esto avanza rápidamente.

  • @lMiguelPalafox
    @lMiguelPalafox 6 месяцев назад

    🎯 Key Takeaways for quick navigation:
    00:23 *🪐 Finding Exoplanets by Transit Method*
    - Exoplanets are mostly discovered using the transit method
    - Transit method involves a planet passing in front of its star
    - Light blockage helps determine the planet's size, and transit duration reveals its orbital period.
    06:46 *🛰️ Challenges in Astronomical Technology*
    - A problem with technology in astronomical research can hinder discoveries and data analysis.
    14:58 *🎵 Miscellaneous Information*
    - No specific valuable information discernible from this part of the transcript.
    Made with HARPA AInec

  • @emezac
    @emezac 3 года назад +1

    Felicidades Carlos, este es uno de los mejores videos de tu canal, es formidable no encuentro palabras para agradecer tu tiempo y esfuerzo, gracias!

  • @felosrg1266
    @felosrg1266 3 года назад +11

    El Megatron se parece a la computadora que le está dando definiciones al capitán del axioma en WALL-E

    • @DanielGustavoBottin
      @DanielGustavoBottin 3 года назад +1

      Yo también esperaba a #WALL-E o a #OptimusPrime !?!?!?!!!!

  • @alanjosuefaustosoto7764
    @alanjosuefaustosoto7764 Год назад

    Excelente serie de videos sigue asi

  • @luisefe387
    @luisefe387 2 года назад

    Carlos excelente video, explicas demasiado bien, muchas gracias!

  • @manuelc2201
    @manuelc2201 Год назад

    Muchas gracias por tus videos, me ayudan bastante.

  • @santiagogaleanocadavid8237
    @santiagogaleanocadavid8237 3 года назад +2

    Excelente explicación... Gracias Carlos! Ya con ganas de ver los siguientes vídeos de esta serie sobre los transformers 👏🏼👏🏼

    • @Darkbotsz5
      @Darkbotsz5 9 месяцев назад +1

      De esos robots transformable

  • @adrianvelez9449
    @adrianvelez9449 3 года назад +1

    Muchas gracias por tus vídeos. Te sigo hace poco tiempo y me parece que están muy bien. Me surge una duda respecto a la paralelización que comentabas. ¿Dices que con las redes neuronales recurrentes no se puede paralizar los cálculos por GPU? Pero realmente si se puede, ¿no? Puedes explicar a qué te refieres con eso. Digo que se puede paralelizar por qué los datos con los que óperas son una matriz bidimensional donde por una dimensión son los parámetros del algoritmo y por otro lado el número de ejemplos del batch de entrenamiento. Corrígeme si me equivoco o si se me escapa algo. Gracias.

  • @AstronautaCrypto
    @AstronautaCrypto 2 года назад

    Me dejas loco por querer aprender más!

  • @tarabonet267
    @tarabonet267 10 месяцев назад

    ¡Gracias!

  • @albertrg9166
    @albertrg9166 2 года назад

    Hola, podrías explicar el concepto de los ViT? Eres un grande

  • @Martin171199
    @Martin171199 3 года назад +1

    Muy bueno como siempre, sigue haciendo estos videos de calidad y muchas gracias.

  • @elvisleon9695
    @elvisleon9695 2 года назад

    Si pudieras hacer un video implementando transformers desde 0 sin librerias aunque con pocos datos de entrenamiento seria genial.

  • @kingkonglibre8275
    @kingkonglibre8275 2 года назад

    Oye al principio te juzgue mal, no entiendo mucho del tecnisismo de tú canal pero me agrada, para mí los más sorprendente de la informática es la conversión, la conversión de pulsos eléctricos en información

  • @NomadeArgentino
    @NomadeArgentino 2 года назад

    Maravillosa jugada la de trigonometría..
    Y vos que pensabas en el colegio: para que carajos voy a usar esto yo?
    Gracias por la cátedra Carlos.

  • @dionislopez4111
    @dionislopez4111 3 года назад +2

    Una explicación de los Trasformer sencillamente Genial. Mil gracias desdes Santiago de Cuba

    • @Darkbotsz5
      @Darkbotsz5 3 месяца назад +1

      La guerra por cybertron.

  • @luiscarlosrodriguezpascual7629
    @luiscarlosrodriguezpascual7629 2 года назад

    Es lectura rápida, y sí, hay que parar y meditar de cuándo en cuándo...gracias.

  • @findemor
    @findemor 3 года назад

    Buenísimo

  • @javiernelon1577
    @javiernelon1577 Год назад

    Brutal como explicas, cásate conmigo porfavor jaja

  • @algaida94
    @algaida94 3 года назад +2

    Wow, un video realmente muy interesante, ¡qué mind blower el tema de los senos y cosenos!, la verdad que da que pensar. Gracias por el currazo de los videos!

  • @Runciter
    @Runciter 3 месяца назад

    Necesito una parte V de NLP!

  • @user1200006354654
    @user1200006354654 3 года назад +1

    Nos hacía mucha falta los videos profe, muchas gracias.

  • @wilfredmedina6401
    @wilfredmedina6401 3 года назад +1

    Excelente video!

  • @mikilmku1554
    @mikilmku1554 3 года назад +1

    Me encanta, súper bien explicado, muchas gracias por tu vídeo.

  • @RupertoCoronado
    @RupertoCoronado 2 года назад

    Entiendo prácticamente el 10% de lo que dices, pero no puedo dejar de ver

  • @SimuFilmmaker
    @SimuFilmmaker 3 года назад +2

    4:01 se mató

  • @bocatadenata
    @bocatadenata 3 года назад

    Magnífico trabajo como siempre. Me parece interesantísimo todo lo que explicas, aunque no tengo el nivel necesario para entenderlo todo.
    Una pregunta:
    10:33: Fila inferior: ¿seno(1/3 * pos)? ¿Por qué no sería seno(1/4 * pos)? No pillo el significado del 1/3

  • @AlexPalmaTV
    @AlexPalmaTV Год назад

    Me gustan mucho todos tus videos son muy buenos

  • @dacastror
    @dacastror 3 года назад +2

    Me gusta que vuelvan los videos educativos!! gracias por el video!

  • @emgicraft2504
    @emgicraft2504 3 года назад +1

    Yei! Nuevo video! 😎

  • @gilberto_xyz
    @gilberto_xyz 3 года назад +1

    Bro, eres la onda!

  • @elpreciso
    @elpreciso 2 года назад

    excelentes videos!!!

  • @korason3235
    @korason3235 3 года назад +1

    Y así, poco a poco, es como Megatron sube al poder antes de que sean creados y luego revolucionando a otro planeta con humanos.

    • @Darkbotsz5
      @Darkbotsz5 4 месяца назад +1

      Del planeta cybertron.

  • @ninogarcia5243
    @ninogarcia5243 3 года назад

    Que buen video, ¿cual es la música de fondo?. Gracias por el contenido!

  • @silviabregar4263
    @silviabregar4263 Год назад

    Hola es muy aclaratoria tu explicación. Soy escritora, se podrá usar como corrector de estilo y ortotipográfico?

  • @javi4246
    @javi4246 3 месяца назад

    MUY BUEN VIDEO

  • @jmlv4351
    @jmlv4351 Год назад

    Excelentisimo contenido

  • @Musica-kb3po
    @Musica-kb3po 3 года назад

    Hola, puedes hablar sobre las "Real Doll"

  • @DanielGutierrez-xj6vz
    @DanielGutierrez-xj6vz 3 года назад

    muy bien explicado

  • @JaviBt4
    @JaviBt4 3 года назад +1

    Increíble vídeo! Gracias Dot :)

  • @micheldomenino6367
    @micheldomenino6367 3 года назад

    A ver!

  • @glockenspiel_
    @glockenspiel_ 3 года назад +1

    Espectacular video, gracias por hacernos entender lo difícil de una forma tan amena y didáctica. Y las flechas madre mía, vaya flechas hay en este video, la hostia.

  • @albertogc1
    @albertogc1 3 года назад +1

    Muuuchas gracias por esto. Cuando te lo pedi no sabia si resultaría ♥