[토크ON세미나] 자연어 언어모델 ‘BERT’ 2강 - 언어 모델 (Language Model) | T아카데미

Поделиться
HTML-код
  • Опубликовано: 12 ноя 2024

Комментарии • 6

  • @김아무개-f9v
    @김아무개-f9v 3 года назад +5

    어렵게 생각했던 구조였는데 설명들으니 별거 없는 구조였군요... 허탈.....
    설명 너무 잘해주셔서 이해가 쉽게 됐습니다.!

  • @kimalpha8259
    @kimalpha8259 3 года назад +2

    정말 감사합니다. 자연어 처리 과정에서 TF-IDF, FastText, Glove, LSTM 결합, OOV Token 결합, 1d CNN, BERT + XLNet + GPT2 까지 점차 발전하는 모습을 캐글에서 확인하여 BERT 에 대해 궁금했었는데, 설명을 듣고 큰 도움이 되었습니다.

  • @눈오리-n2o
    @눈오리-n2o 4 года назад +2

    감사합니다!

  • @김진한-g3k
    @김진한-g3k 4 года назад +2

    bert의 multi-head self attention을 사용하면 word2vec이나 glove 또는 fasttext와 같은 다른 임베딩을 사용할필요없는건가요?

  • @nick6267
    @nick6267 3 года назад +1

    Ppt는 어디서 받을 수 있나요?

  • @jackjack-xz7dz
    @jackjack-xz7dz 5 лет назад +2

    12:58