자연어 처리 트랜스포머 2강(Attention, Self-Attention, Multi-Head Attention)
HTML-код
- Опубликовано: 20 сен 2024
- 현재 Chatgpt와 같은 전세계 자연어처리 모델(LLM)들을 이루는 가장 핵심 아키텍처인 트랜스포머(Transformer)에 대해 자세히 알아봅시다. 이번 영상에서는 트랜스포머의 핵심 개념인 Attention에 대해 알아보겠습니다.
트랜스포머에 대한 더 많은 내용은 아래 제 블로그에 있으니 꼭 한번 들려주세요.
추가적으로 AI 및 인공지능에 관심있는 여러분들을 위해 현재 오픈 카카오톡방을 운영하고 있습니다. 들어오셔서 AI관련 다양한 정보 공유하시고 가세요.
그럼 공부한 번 해볼까요?
1. Attention
codingopera.ti...
2. Multi-Head Attention
codingopera.ti...
AI 오픈카카오톡방
open.kakao.com...