DL2022: Трансформер (часть 2)

Поделиться
HTML-код
  • Опубликовано: 9 фев 2025
  • Курс "Глубокое обучение (Deep Learning)"
    страница курса: github.com/Dya...
    автор курса: Александр Дьяконов (dyakonov.org/)
    В этой лекции...
    BERT = Bidirectional Encoder Representations from Transformers.
    RoBERTa: A Robustly Optimized BERT Pretraining Approach.
    SpanBERT.
    ALBERT = A Lite BERT. T5: Text-To-Text Transfer Transformer.
    ELECTRA = Efficiently Learning an Encoder that Classifies Token Re-placements Accurately.

Комментарии • 1