Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
PCA에 관해 제가 본 모든 자료들 중에 가장 명쾌했습니다. 감사합니다.
설명해주신 수많은 내용이 PCA 되어서 제 뇌에 들어오긴 했지만 잘 알려주셔서 분산은 꽤나 보존되었습니다. 감사합니다.
정말 흠잡을 수 없는 최고의 강의군... 어떤 강의를 찾아봐도 이와 같이 원리를 어느정도 수학적 지식만 있으면 이해가도록 하는 강의는 찾을 수 없음. 대부분 다른 교수가 올린 영상들은 대충 읽는 수준에 학점때문인지 강요받은 듯한 댓글들이 주류이던데근데 21:21 에 X가 dxd 차원이 아니라 dxn 이라고 해야 맞을 것 같은데..
PCA 절차중 1번쨰인 data centering 하는 이유가 단지 @21:05 에 나오는 (X-X_mean)(X-X_mean)^T 를 XX^T 로 만들어 계산을 편리하게 하려는 용도인가요?
왜 공분산행렬의 고유벡터로 사영시키는가에 대해서 ㅋㅋ 드디어 이해했습니다... !! 여전히 개운치 못한 부분들이 많지만... 많이 편안해졌습니다
18:30 pca 절차
좋은강의 감사합니다 :)
PCA에 관해 제가 본 모든 자료들 중에 가장 명쾌했습니다. 감사합니다.
설명해주신 수많은 내용이 PCA 되어서 제 뇌에 들어오긴 했지만 잘 알려주셔서 분산은 꽤나 보존되었습니다. 감사합니다.
정말 흠잡을 수 없는 최고의 강의군... 어떤 강의를 찾아봐도 이와 같이 원리를 어느정도 수학적 지식만 있으면 이해가도록 하는 강의는 찾을 수 없음. 대부분 다른 교수가 올린 영상들은 대충 읽는 수준에 학점때문인지 강요받은 듯한 댓글들이 주류이던데
근데 21:21 에 X가 dxd 차원이 아니라 dxn 이라고 해야 맞을 것 같은데..
PCA 절차중 1번쨰인 data centering 하는 이유가 단지 @21:05 에 나오는 (X-X_mean)(X-X_mean)^T 를 XX^T 로 만들어 계산을 편리하게 하려는 용도인가요?
왜 공분산행렬의 고유벡터로 사영시키는가에 대해서 ㅋㅋ 드디어 이해했습니다... !! 여전히 개운치 못한 부분들이 많지만... 많이 편안해졌습니다
18:30 pca 절차
좋은강의 감사합니다 :)