PR-281: An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

Поделиться
HTML-код
  • Опубликовано: 20 дек 2024

Комментарии • 9

  • @kayoungban9872
    @kayoungban9872 3 года назад

    갓윤성좌... 페이퍼읽다가 여기까지 자연스럽게 흘러들어왔습니다..

    • @maangeek
      @maangeek  3 года назад

      헉 누추한 곳에 귀한 분이 어쩐일로...ㅎㅎ 감사합니다.

  • @인나-h2f
    @인나-h2f 3 года назад

    좋은 강의 올려주셔서 감사합니다! 혹시 linear projection을 해서 패치 P*P*C에 D를 곱한 이유가 있을까요?...

    • @maangeek
      @maangeek  3 года назад

      D는 Transformer layer를 거친 후의 latent vector 의 dimension 입니다 :)

  • @juns6454
    @juns6454 3 года назад

    정보 공유해주셔서 정말 감사합니다.

    • @maangeek
      @maangeek  3 года назад +1

      관심 감사합니다:)

  • @fguubbvcfgh
    @fguubbvcfgh 3 года назад +4

    설명 감사합니다.
    포인터만 적당히 움직여 주셨으면 합니다.

    • @maangeek
      @maangeek  3 года назад +1

      엇ㅋㅋㅋㅋㅋ 저도 다시보니 굉장히 요란하게 움직이네요ㅎㅎ.. 제가 원래 말할때 제스처가 많은편인데, 포인터를 그 용도로 사용했나봐요ㅋ큐큐ㅠㅠ 피드백 감사합니다.

    • @fguubbvcfgh
      @fguubbvcfgh 3 года назад

      @@maangeek 설명 정말 최고였습니다 ^^ 수고하세요