Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
이런 강의를 무료로 볼 수 있는 세상이라는게, 놀라울 따름입니다. 좋은 강의 감사합니다.
여전히 이 강의는 오토인코더의 시작과 끝이네요. 감사합니다.
처음의 1.Revisit Deep Neural Networks만 띄어서 별개로 개제했으면 좋겠습니다. 기초를 잡는데 굉장히 좋은 내용입니다.
2년 전 자료이지만 여전히 훌륭하네요
감동의 도가니탕입니다 감사합니다 이활석님!
감사히 보고 있습니다. 전체를 다 꿰고 계신 분의 강의라는 생각이 듭니다.질문이 하나 생겼습닏.41:48 에서 MLE 부분을 듣고 있습니다.가우시안 분포 또는 베르누이 분포를 따를거다라는 식으로 가정을 한다는 부분이었는데 (물론 완벽한 전체 y는 모르겠지만) 우리는 y 레이블 값들을 왕창 가지고 있는데 이것의 실제 분포를 그려보고 가장 유사한 분포로 가정을 할 수는 없는 것일까요?
실제 가지고 있는 empirical data에 기반하여 분포를 그려볼 수는 있습니다만 그럴 경우 generalization에는 불리할 수 있습니다. 내가 가진 데이터셋에 최적화된 결과니까요.
전문가의 질 높은 강의 공유에 큰 감사를 표합니다 :D
반복해서 보고있습니다. 감사합니다 .
5년이 지난 영상임에도 배울게 아직 많은 영상입니다!!
레전드입니다 감사합니다
좋은 강의 공유해주셔서 감사합니다! 많이 배우고 갑니다!
정말 좋은 강의 고맙습니다
좋은 강의 감사합니다
활석님 강의 믿고 들었습니다~ 따봉!!
Thank you for your kind presentation!
오토인코더 설명해주실때 RBM을 요즘 안쓴다는게 왜 그런건지 알 수 있을까요?
좋은 강의 감사합니다.
정말 명쾌한 강의 감사드립니다.
최고의강의, 감사합니다.
감사합니다.
좋은 강의 공유해주셔서 감사합니다!
좋은 강의 감사드립니다 ㅠㅠ 더 많은 강의를 보고싶네용..
감사합니다!!
섬세한 설명 감사드립니다!!!
너무 좋네요 강의
좋은 강의 감사합니다^^
와우... 좋은강의 감사합니다
개꿀개꿀 개꿀띠에요
금과옥조..... 갓강의입니다
와우 감사합니다.
좋은 강의를 올려주셔서 감사합니다. 질문이 있어 댓글을 남깁니다. 21:04 에서 왜 gradient of L의 제곱이 L2 norm이 되는 거죠?
29:00 Backprop
11page에서 ML설명할때 (x,y,f)가 확률 events의 random 변수라는 것을 정의하여야 한다. 또한 system identification관점에서 ML을 생각해야죠
이야 감사합니다!
1:13:15
안녕하세요! 좋은 강의 감사합니다! 혹시 깃허브 계정 남겨주실 수 있을까요??
혹시 backpropagation의 두 가정에 대해서 조금 더 수학적으로 설명한 논문이나 참고할만한 자료가 있나요?
Ian Goodfellow의 deep learning book 이요
17:33
17page p(x:x)와 p(x)에 대하여 정의가 불분명하네요
25:21
s.o.t.a
52:40~1:11
감사합니다!
1:03:15
19:50
49:30
1:07:32
1:30:00
1:13:52
1:19:00
이런 강의를 무료로 볼 수 있는 세상이라는게, 놀라울 따름입니다. 좋은 강의 감사합니다.
여전히 이 강의는 오토인코더의 시작과 끝이네요. 감사합니다.
처음의 1.Revisit Deep Neural Networks만 띄어서 별개로 개제했으면 좋겠습니다. 기초를 잡는데 굉장히 좋은 내용입니다.
2년 전 자료이지만 여전히 훌륭하네요
감동의 도가니탕입니다 감사합니다 이활석님!
감사히 보고 있습니다. 전체를 다 꿰고 계신 분의 강의라는 생각이 듭니다.
질문이 하나 생겼습닏.41:48 에서 MLE 부분을 듣고 있습니다.
가우시안 분포 또는 베르누이 분포를 따를거다라는 식으로 가정을 한다는 부분이었는데
(물론 완벽한 전체 y는 모르겠지만) 우리는 y 레이블 값들을 왕창 가지고 있는데 이것의 실제 분포를 그려보고 가장 유사한 분포로 가정을 할 수는 없는 것일까요?
실제 가지고 있는 empirical data에 기반하여 분포를 그려볼 수는 있습니다만 그럴 경우 generalization에는 불리할 수 있습니다. 내가 가진 데이터셋에 최적화된 결과니까요.
전문가의 질 높은 강의 공유에 큰 감사를 표합니다 :D
반복해서 보고있습니다. 감사합니다 .
5년이 지난 영상임에도 배울게 아직 많은 영상입니다!!
레전드입니다 감사합니다
좋은 강의 공유해주셔서 감사합니다! 많이 배우고 갑니다!
정말 좋은 강의 고맙습니다
좋은 강의 감사합니다
활석님 강의 믿고 들었습니다~ 따봉!!
Thank you for your kind presentation!
오토인코더 설명해주실때 RBM을 요즘 안쓴다는게 왜 그런건지 알 수 있을까요?
좋은 강의 감사합니다.
정말 명쾌한 강의 감사드립니다.
최고의강의, 감사합니다.
감사합니다.
좋은 강의 공유해주셔서 감사합니다!
좋은 강의 감사드립니다 ㅠㅠ 더 많은 강의를 보고싶네용..
감사합니다!!
섬세한 설명 감사드립니다!!!
너무 좋네요 강의
좋은 강의 감사합니다^^
와우... 좋은강의 감사합니다
개꿀개꿀 개꿀띠에요
금과옥조..... 갓강의입니다
와우 감사합니다.
좋은 강의를 올려주셔서 감사합니다. 질문이 있어 댓글을 남깁니다. 21:04 에서 왜 gradient of L의 제곱이 L2 norm이 되는 거죠?
29:00 Backprop
11page에서 ML설명할때 (x,y,f)가 확률 events의 random 변수라는 것을 정의하여야 한다. 또한 system identification관점에서 ML을 생각해야죠
이야 감사합니다!
1:13:15
안녕하세요! 좋은 강의 감사합니다! 혹시 깃허브 계정 남겨주실 수 있을까요??
혹시 backpropagation의 두 가정에 대해서 조금 더 수학적으로 설명한 논문이나 참고할만한 자료가 있나요?
Ian Goodfellow의 deep learning book 이요
17:33
17page p(x:x)와 p(x)에 대하여 정의가 불분명하네요
25:21
s.o.t.a
52:40~1:11
감사합니다!
1:03:15
19:50
49:30
1:07:32
1:30:00
1:13:52
1:19:00