Есть новый курс "AI: от основ до трансформеров": ruclips.net/p/PL6-BrcpR2C5Q1ivGTQcglILJG6odT2oCY И курс "Modern Deep Learning", полностью посвященный трансформерам: ruclips.net/p/PL6-BrcpR2C5Rc1RI7Z9LHOu-lz6yNml2A
27:35 Если вычисляется софтмакс, который все приведет к единичной сумме, то делить на корень из dk нет никакого смысла, также как и умножать на любую константу.
Есть новый курс "AI: от основ до трансформеров": ruclips.net/p/PL6-BrcpR2C5Q1ivGTQcglILJG6odT2oCY
И курс "Modern Deep Learning", полностью посвященный трансформерам: ruclips.net/p/PL6-BrcpR2C5Rc1RI7Z9LHOu-lz6yNml2A
Очень долго искал лекцию по трансформерам в CV. Огромное спасибо за такую подробную лекцию!
Рад, что лекция оказалась полезной!
Сколько я материалов посмотрел про трансформер и нифига не было понятно, что происходит, а тут лектор просто волшебник, спасибо!
Спасибо за комплимент, очень приятно)
Блоки ViT:
• Layer Normalization 9:44
• Scaled Dot-Product Attention (SDPA) 16:21
• Multi-Head Attention (MHA) 56:23
• Feed-Forward Layer 1:14:55
Спасибо!
Большое спасибо за лекцию, очень понятная, а главное ценная информация для рускоязычного ютуба!
Спасибо, что смотрите!
Отлично объяснено, Спасибо!
Спасибо, что смотрите :)
27:35 Если вычисляется софтмакс, который все приведет к единичной сумме, то делить на корень из dk нет никакого смысла, также как и умножать на любую константу.
Нет, это не так) Сумма не изменится (останется 1), а вот баланс между компонентами изменится
@@razinkov а как может измениться баланс если все компоненты делятся на одно и то же число? Возможно я что то упустил..
@@ЕвгенийВеснин-и1ц Они же делятся до возведения экспоненты в эту степень) А показательная функция - нелинейная)
Можно ли использовать ViT для задач Super Resolution?
Лучшая лекция, которую прослушал про Трансформеры после лекций в Иерусалимском, Тель-Авивском университетах.
Спасибо за лестный отзыв!
можно ссылку на курсы в Иерусалимском, Тель-Авивском университетах?
К сожалению нету ссылки на топовую архитектуру свёрток
Спасибо, что сообщили!
Вот и ссылка: arxiv.org/pdf/2201.03545.pdf
12.01 - произведение Тамары????
Произведение Адамара)