Deep Learning на пальцах 12 - Attention

Поделиться
HTML-код
  • Опубликовано: 8 ноя 2024

Комментарии • 16

  • @sacramentofwilderness6656
    @sacramentofwilderness6656 4 года назад +5

    Спасибо! Наконец-то стало понятно про трансформер и attention, пока обращался к оригиналам, казалось все какой-то магией, а теперь вполне интуитивна архитектура

  • @TouchToDream
    @TouchToDream 4 года назад +1

    Здорово, что есть очень классные гифки с понятным объяснением. Спасибо!

  • @marky200024
    @marky200024 Год назад

    Отлично обьсяняешь! Ждем продолжения с обзором более актуальных технологий

  • @hissie3190
    @hissie3190 15 дней назад

    в эпоху чат гпт o1 необычно смотреть видео в котором появился только gpt2

  • @art-brawlstars7771
    @art-brawlstars7771 Год назад

    Прекрасное объяснение, спасибо!

  • @alexkazimir3835
    @alexkazimir3835 3 года назад

    Отличное объяснение, крутая работа

  • @leowhynot
    @leowhynot 2 года назад

    офигенная лекция. все понял!

  • @zeio-nara
    @zeio-nara 5 лет назад +1

    Отлично объяснено, все понятно, спасибо

  • @aidenstill7179
    @aidenstill7179 5 лет назад +2

    Top. Thanks

  • @zzzCyberzzz
    @zzzCyberzzz 2 года назад +1

    Прикладных примеров не хватает. Голая теория не очень интересна. Нужно прям в коде показать как делается и как работает. Что есть в библиотеках и как пользоваться. Про self-attention хотелось бы подробнее как делать.

  • @alexanderskusnov5119
    @alexanderskusnov5119 3 года назад

    Раньше же было по-другому: любой язык переводился на некий промежуточный (типа эсперанто?), а потом с него на конечный язык?

  • @aidenstill7179
    @aidenstill7179 5 лет назад +2

    Можете посоветовать где почитать про реализацию rnn используя только python and numpy?

    • @nikitakoss3645
      @nikitakoss3645 Год назад

      книга "создаем нейронную сеть " Тарик Рашид