01-4: Dimensionality Reduction - PCA

Поделиться
HTML-код
  • Опубликовано: 13 дек 2024

Комментарии • 7

  • @cache-re8if
    @cache-re8if 8 месяцев назад

    PCA에 관해 제가 본 모든 자료들 중에 가장 명쾌했습니다. 감사합니다.

  • @maktube_220
    @maktube_220 2 месяца назад

    설명해주신 수많은 내용이 PCA 되어서 제 뇌에 들어오긴 했지만 잘 알려주셔서 분산은 꽤나 보존되었습니다. 감사합니다.

  • @Aksidnenjicssd
    @Aksidnenjicssd 3 года назад +2

    정말 흠잡을 수 없는 최고의 강의군... 어떤 강의를 찾아봐도 이와 같이 원리를 어느정도 수학적 지식만 있으면 이해가도록 하는 강의는 찾을 수 없음. 대부분 다른 교수가 올린 영상들은 대충 읽는 수준에 학점때문인지 강요받은 듯한 댓글들이 주류이던데
    근데 21:21 에 X가 dxd 차원이 아니라 dxn 이라고 해야 맞을 것 같은데..

  • @haneulkim4902
    @haneulkim4902 3 года назад +1

    PCA 절차중 1번쨰인 data centering 하는 이유가 단지 @21:05 에 나오는 (X-X_mean)(X-X_mean)^T 를 XX^T 로 만들어 계산을 편리하게 하려는 용도인가요?

  • @hongkyulee9724
    @hongkyulee9724 3 года назад

    왜 공분산행렬의 고유벡터로 사영시키는가에 대해서 ㅋㅋ 드디어 이해했습니다... !! 여전히 개운치 못한 부분들이 많지만... 많이 편안해졌습니다

  • @brossdeca
    @brossdeca 4 года назад

    18:30 pca 절차

  • @haneulkim4902
    @haneulkim4902 3 года назад

    좋은강의 감사합니다 :)