DL2022: Трансформер (часть 2)
HTML-код
- Опубликовано: 9 фев 2025
- Курс "Глубокое обучение (Deep Learning)"
страница курса: github.com/Dya...
автор курса: Александр Дьяконов (dyakonov.org/)
В этой лекции...
BERT = Bidirectional Encoder Representations from Transformers.
RoBERTa: A Robustly Optimized BERT Pretraining Approach.
SpanBERT.
ALBERT = A Lite BERT. T5: Text-To-Text Transfer Transformer.
ELECTRA = Efficiently Learning an Encoder that Classifies Token Re-placements Accurately.