자연어 처리 트랜스포머 2강(Attention, Self-Attention, Multi-Head Attention)

Поделиться
HTML-код
  • Опубликовано: 20 сен 2024
  • 현재 Chatgpt와 같은 전세계 자연어처리 모델(LLM)들을 이루는 가장 핵심 아키텍처인 트랜스포머(Transformer)에 대해 자세히 알아봅시다. 이번 영상에서는 트랜스포머의 핵심 개념인 Attention에 대해 알아보겠습니다.
    트랜스포머에 대한 더 많은 내용은 아래 제 블로그에 있으니 꼭 한번 들려주세요.
    추가적으로 AI 및 인공지능에 관심있는 여러분들을 위해 현재 오픈 카카오톡방을 운영하고 있습니다. 들어오셔서 AI관련 다양한 정보 공유하시고 가세요.
    그럼 공부한 번 해볼까요?
    1. Attention
    codingopera.ti...
    2. Multi-Head Attention
    codingopera.ti...
    AI 오픈카카오톡방
    open.kakao.com...

Комментарии • 12