자연어 처리 트랜스포머 3강(Residual Connection, Layer Normalization)

Поделиться
HTML-код
  • Опубликовано: 20 сен 2024
  • 현재 Chatgpt와 같은 전세계 자연어처리 모델(LLM)들을 이루는 가장 핵심 아키텍처인 트랜스포머(Transformer)에 대해 자세히 알아봅시다. 이번 영상에서는 트랜스포머 구조 중 Residual Connection과 Layer Normalization에 대해 알아보겠습니다.
    트랜스포머에 대한 더 많은 내용은 아래 제 블로그에 있으니 꼭 한번 들려주세요.
    추가적으로 AI 및 인공지능에 관심있는 여러분들을 위해 현재 오픈 카카오톡방을 운영하고 있습니다. 들어오셔서 AI관련 다양한 정보 공유하시고 가세요.
    그럼 공부한 번 해볼까요?
    1. Attention
    codingopera.ti...
    2. Self-Attention
    codingopera.ti...
    3. Multi-Head Attention
    codingopera.ti...
    4. Positional Encoding
    codingopera.ti...
    AI 오픈카카오톡방
    open.kakao.com...

Комментарии • 6

  • @woo_chem9462
    @woo_chem9462 Месяц назад +1

    저같은 초보자도 이해하기 쉽게 설명해주셔서 감사합니다! 앞으로도 잘 부탁드려요~~

    • @codingopera9945
      @codingopera9945  Месяц назад

      @@woo_chem9462 제가 도움이 되었다니 정말 감동입니다 😀. 앞으로도 좋은 영상으로 찾아뵐께요!!

  • @user-jd5sg6uq5g
    @user-jd5sg6uq5g 2 месяца назад +2

    현기증 난단 말이에요 빨리 다음 강의 내주세요..

    • @codingopera9945
      @codingopera9945  2 месяца назад +1

      현기증날 정도로 도움이되었다니 정말 감사합니다. 최대한 빨리 준비해서 다음 강의 업로드 할께요 😀

  • @vw7781
    @vw7781 2 месяца назад +1

    감사합니다. 최고의 강의네요.. 다음 강의를 달라!

    • @codingopera9945
      @codingopera9945  2 месяца назад

      @@vw7781 최고의 강의라고 생각해주셔서 감사합니다! 다음 강의도 기대해 주세요!!