Лекция. Трансформеры. Self-Attention

Поделиться
HTML-код
  • Опубликовано: 1 авг 2024
  • Занятие ведёт Антон Астахов.
    Ссылка на вторую часть: • Лекция. Трансформеры. ...
    ---
    Deep Learning School при ФПМИ МФТИ
    Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
    За нашими новостями можно следить здесь:
    Наш канал в TG: t.me/deep_learning_school_news
    Официальный сайт: dls.samcs.ru/ru/
    Официальная группа ВК: dlschool_mipt
    Github-репозиторий: github.com/DLSchool/dlschool
    Поддержать канал можно на Boosty: boosty.to/deeplearningschool
    ФПМИ МФТИ
    Официальный сайт: mipt.ru/education/departments...
    Магистратура: mipt.ru/education/departments...
    Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
    Онлайн-магистратура "Цифровая экономика": digec.online/
    Лаборатории ФПМИ: mipt.ru/education/departments...
    ---
    Навигация:
    0:00​ Вступление
    5:31 Encoder Side
    15:27​ Self-Attention
    48:30 Multi-Head
    ---

Комментарии • 16

  • @Dronzord
    @Dronzord 11 месяцев назад

    Спасибо большое за разъяснение механизма самовнимания в подробностях!
    Не знаю, что другим не понравилось, но мне показалось очень полезным и понятным объяснение.

  • @shandi1241
    @shandi1241 Год назад +2

    накнец у Антона получилось хорошо рассказать, держу пари ему нравится эта тема

    • @user---------
      @user--------- Год назад

      Я нихрена не понял.

    • @shandi1241
      @shandi1241 Год назад

      ​@@user--------- ничем не могу помочь, как говорится "виноваты обои"

    • @user---------
      @user--------- Год назад

      @@shandi1241 да не обои виноваты, они то причём здесь? Обои и обои, висят себе, глаз радуют. А вот мальчик, который зачем-то решил преподавать, не умеет этого делать.

  • @uolkopalko
    @uolkopalko 2 года назад +3

    Побудем душными типами) Позабавило

  • @DmitryMikutsky
    @DmitryMikutsky 7 месяцев назад

    ❤❤❤❤❤
    Дивлюсь тебе! Пиши відоси й надалі! Дякую!

  • @serjmollecule
    @serjmollecule Год назад

    Вай баля хорошо сделал

  • @user-qo3uy5zp2r
    @user-qo3uy5zp2r 3 года назад

    прикольно блин

  • @Martin-tu4er
    @Martin-tu4er 3 года назад

    а ссылку на презентацию можно?

  • @im_buddha
    @im_buddha Год назад +1

    Антон, не надо заниматься тем, что не нравиться. Берегите уважение к себе. Вам не нравится учить людей, но вероятно нравятся нейронные сети. надо найти своем место в этой области

    • @user---------
      @user--------- Год назад

      Тип того, зачем учить если не можешь? Если хочешь, научись это делать, а самое главное - разберись сам в предмете.

  • @Dronzord
    @Dronzord 11 месяцев назад

    На моменте 43:20 у А с крышкой размерность (3, L), а не (L, L)

  • @dimitriifromomsk
    @dimitriifromomsk 2 года назад +2

    Угм? - Слово паразит

  • @IExSet
    @IExSet Год назад +1

    Чё блин за А итое, откуда оно взялось ???? Ещё и А-итое с крышкой !!! Всё через задницу 🙂 Совершенно не понятно как это работает целиком, и смысл этих вычислений в плане абстракции, что делает Трансформер ???? Даже размерность не уменьшается, а если несколько энкодеров, то как они работают? Куча лекторов, но таланта к объяснениям нет ни у одного, друг у друга списывают одни и те же тупые слайды показывающие мелкие части пазла максимально бессвязно между собой :-(

  • @vladislavstankov1796
    @vladislavstankov1796 2 года назад +6

    душный