Лекция. Детали Word2Vec. FastText, GloVe. Применения эмбеддингов
HTML-код
- Опубликовано: 29 сен 2024
- Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_lear...
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschoo...
Github-репозиторий: github.com/DLS...
Поддержать канал можно на Boosty: boosty.to/deep...
ФПМИ МФТИ
Официальный сайт: mipt.ru/educat...
Магистратура: mipt.ru/educat...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/educat...
Очень доходчиво, но не могу сосредоточиться из-за этой невероятно красивой девушки! 😍
Почему сравнение через косинусное расстояние работает с эмбеддингами картинок из VGG16? С Word2Vec это работало, тк мы обучали на скалярное произведение, тк не вставляли нелинейность между слоями MLP, насколько я понял по предыдущему видео о word2vec
Странно что нет комментов, спасибо за материал, хорошая подача!
Эмбединги слов получаются с точностью до поворота . Поэтому странно при трансляции в другой язык использовать только вектор и параллельный перенос , надо бы еще и сам поворот как-то выучить
Спасибо! Хорошая подача материала, но очень поверхностно, хотелось бы поподробнее.
Супер материал, и очень понятная подача, спасибо