Лекция. Детали Word2Vec. FastText, GloVe. Применения эмбеддингов

Поделиться
HTML-код
  • Опубликовано: 29 сен 2024
  • Deep Learning School при ФПМИ МФТИ
    Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
    За нашими новостями можно следить здесь:
    Наш канал в TG: t.me/deep_lear...
    Официальный сайт: dls.samcs.ru/ru/
    Официальная группа ВК: dlschoo...
    Github-репозиторий: github.com/DLS...
    Поддержать канал можно на Boosty: boosty.to/deep...
    ФПМИ МФТИ
    Официальный сайт: mipt.ru/educat...
    Магистратура: mipt.ru/educat...
    Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
    Онлайн-магистратура "Цифровая экономика": digec.online/
    Лаборатории ФПМИ: mipt.ru/educat...

Комментарии • 6

  • @乇乇尺卂乇几尺乇尺
    @乇乇尺卂乇几尺乇尺 7 месяцев назад +11

    Очень доходчиво, но не могу сосредоточиться из-за этой невероятно красивой девушки! 😍

  • @pristukes
    @pristukes Месяц назад

    Почему сравнение через косинусное расстояние работает с эмбеддингами картинок из VGG16? С Word2Vec это работало, тк мы обучали на скалярное произведение, тк не вставляли нелинейность между слоями MLP, насколько я понял по предыдущему видео о word2vec

  • @eugaleksandr
    @eugaleksandr 9 месяцев назад +5

    Странно что нет комментов, спасибо за материал, хорошая подача!

  • @Enerdzizer
    @Enerdzizer 2 месяца назад

    Эмбединги слов получаются с точностью до поворота . Поэтому странно при трансляции в другой язык использовать только вектор и параллельный перенос , надо бы еще и сам поворот как-то выучить

  • @АндрейКениг-б6д
    @АндрейКениг-б6д 3 месяца назад

    Спасибо! Хорошая подача материала, но очень поверхностно, хотелось бы поподробнее.

  • @whiteraidr
    @whiteraidr 4 месяца назад

    Супер материал, и очень понятная подача, спасибо