오토인코더의 모든 것 - 1/3

Поделиться
HTML-код
  • Опубликовано: 20 сен 2024

Комментарии • 53

  • @ByungJoonSong
    @ByungJoonSong 3 года назад +20

    이런 강의를 무료로 볼 수 있는 세상이라는게, 놀라울 따름입니다. 좋은 강의 감사합니다.

  • @firstpenguin5653
    @firstpenguin5653 3 года назад +8

    여전히 이 강의는 오토인코더의 시작과 끝이네요. 감사합니다.

  • @kotai2003
    @kotai2003 4 года назад +8

    처음의 1.Revisit Deep Neural Networks만 띄어서 별개로 개제했으면 좋겠습니다. 기초를 잡는데 굉장히 좋은 내용입니다.

  • @서옒-s4i
    @서옒-s4i 4 года назад +5

    2년 전 자료이지만 여전히 훌륭하네요

  • @gwanghyunbradleykim1083
    @gwanghyunbradleykim1083 4 года назад +1

    감동의 도가니탕입니다 감사합니다 이활석님!

  • @nicewook
    @nicewook 6 лет назад +3

    감사히 보고 있습니다. 전체를 다 꿰고 계신 분의 강의라는 생각이 듭니다.
    질문이 하나 생겼습닏.41:48 에서 MLE 부분을 듣고 있습니다.
    가우시안 분포 또는 베르누이 분포를 따를거다라는 식으로 가정을 한다는 부분이었는데
    (물론 완벽한 전체 y는 모르겠지만) 우리는 y 레이블 값들을 왕창 가지고 있는데 이것의 실제 분포를 그려보고 가장 유사한 분포로 가정을 할 수는 없는 것일까요?

    • @JongGwanLim
      @JongGwanLim 6 лет назад +8

      실제 가지고 있는 empirical data에 기반하여 분포를 그려볼 수는 있습니다만 그럴 경우 generalization에는 불리할 수 있습니다. 내가 가진 데이터셋에 최적화된 결과니까요.

  • @갱님-h7n
    @갱님-h7n 3 года назад +2

    전문가의 질 높은 강의 공유에 큰 감사를 표합니다 :D

  • @꼼지락안과쌤
    @꼼지락안과쌤 2 года назад +1

    반복해서 보고있습니다. 감사합니다 .

  • @에움길-f8n
    @에움길-f8n 5 месяцев назад

    5년이 지난 영상임에도 배울게 아직 많은 영상입니다!!

  • @4색볼펜-y5h
    @4색볼펜-y5h 2 месяца назад

    레전드입니다 감사합니다

  • @yeonwoosung491
    @yeonwoosung491 4 года назад +1

    좋은 강의 공유해주셔서 감사합니다! 많이 배우고 갑니다!

  • @gyeonghokim
    @gyeonghokim 4 года назад +1

    정말 좋은 강의 고맙습니다

  • @samuelpark7543
    @samuelpark7543 7 месяцев назад

    좋은 강의 감사합니다

  • @지영채-b6x
    @지영채-b6x 4 года назад

    활석님 강의 믿고 들었습니다~ 따봉!!

  • @bktsys
    @bktsys 5 лет назад

    Thank you for your kind presentation!

  • @lfirnnne
    @lfirnnne 2 года назад +1

    오토인코더 설명해주실때 RBM을 요즘 안쓴다는게 왜 그런건지 알 수 있을까요?

  • @choihojo
    @choihojo Год назад

    좋은 강의 감사합니다.

  • @leeminize
    @leeminize 5 лет назад

    정말 명쾌한 강의 감사드립니다.

  • @hoxyoh2584
    @hoxyoh2584 2 года назад

    최고의강의, 감사합니다.

  • @김현우-u6x
    @김현우-u6x 4 года назад +1

    감사합니다.

  • @lesleyeb
    @lesleyeb 5 лет назад

    좋은 강의 공유해주셔서 감사합니다!

  • @보쿠링
    @보쿠링 4 года назад

    좋은 강의 감사드립니다 ㅠㅠ 더 많은 강의를 보고싶네용..

  • @fhzh123
    @fhzh123 6 лет назад +2

    감사합니다!!

  • @ilovemyminutes
    @ilovemyminutes 3 года назад

    섬세한 설명 감사드립니다!!!

  • @user-fz9mb9mm9d
    @user-fz9mb9mm9d 5 лет назад

    너무 좋네요 강의

  • @HMJ-v6s
    @HMJ-v6s 3 года назад

    좋은 강의 감사합니다^^

  • @jasonhan778
    @jasonhan778 4 года назад

    와우... 좋은강의 감사합니다

  • @이철희-r3r
    @이철희-r3r 4 года назад +2

    개꿀개꿀 개꿀띠에요

  • @KIMSHIUHN
    @KIMSHIUHN 4 года назад

    금과옥조..... 갓강의입니다

  • @박지안-x2r
    @박지안-x2r 3 года назад

    와우 감사합니다.

  • @유상철-d1x
    @유상철-d1x 3 года назад

    좋은 강의를 올려주셔서 감사합니다. 질문이 있어 댓글을 남깁니다. 21:04 에서 왜 gradient of L의 제곱이 L2 norm이 되는 거죠?

  • @김인수-z2p
    @김인수-z2p 8 месяцев назад

    29:00 Backprop

  • @hyeungyunkim3169
    @hyeungyunkim3169 5 лет назад

    11page에서 ML설명할때 (x,y,f)가 확률 events의 random 변수라는 것을 정의하여야 한다. 또한 system identification관점에서 ML을 생각해야죠

  • @최원우-o2w
    @최원우-o2w 6 лет назад

    이야 감사합니다!

  • @user-ef5et7iv8u
    @user-ef5et7iv8u Год назад

    1:13:15

  • @다랑어-j1k
    @다랑어-j1k 4 года назад

    안녕하세요! 좋은 강의 감사합니다! 혹시 깃허브 계정 남겨주실 수 있을까요??

  • @chanlee-qi7re
    @chanlee-qi7re 6 лет назад

    혹시 backpropagation의 두 가정에 대해서 조금 더 수학적으로 설명한 논문이나 참고할만한 자료가 있나요?

    • @kimchi_taco
      @kimchi_taco 4 года назад

      Ian Goodfellow의 deep learning book 이요

  • @yuno_kim
    @yuno_kim 2 года назад

    17:33

  • @hyeungyunkim3169
    @hyeungyunkim3169 5 лет назад

    17page p(x:x)와 p(x)에 대하여 정의가 불분명하네요

  • @dhyoo970111
    @dhyoo970111 2 года назад

    25:21

  • @bayesianlee6447
    @bayesianlee6447 5 лет назад

    s.o.t.a

  • @younique9710
    @younique9710 Месяц назад

    52:40~1:11

  • @yuminkim7264
    @yuminkim7264 6 лет назад

    감사합니다!

  • @uoaj
    @uoaj 4 года назад

    1:03:15

  • @jackjack-xz7dz
    @jackjack-xz7dz 3 года назад

    19:50