오차역전파 (Backprogation)의 개념을 쉽게 이해해 봅시다

Поделиться
HTML-код
  • Опубликовано: 24 дек 2024

Комментарии • 76

  • @IamSoccergirl
    @IamSoccergirl 8 месяцев назад +2

    미적분 배우지도 않았는데 이해를 시켜주시다니.. 정말 대단하세요!!!

    • @teddynote
      @teddynote  8 месяцев назад

      감사합니다😍

  • @최한준-b8c
    @최한준-b8c 3 года назад +6

    진짜 2시간동안 행렬의 계산 내용과 구조를 이해하며 어렵게 생각되고 있었는데, 자기전에 무심코 찾아본 이 영상이 굉장히 도움이 되고 알찼습니다. 감사합니다.

  • @seokhyunkim7439
    @seokhyunkim7439 13 дней назад +1

    너무 이해가 잘돼서 엉엉 울었습니다

    • @teddynote
      @teddynote  13 дней назад

      감사합니다😻

  • @태이김-n4h
    @태이김-n4h 11 месяцев назад +1

    감사합니다. 이해가 잘가는 설명입니다.!

  • @Fortunee-o7y
    @Fortunee-o7y 4 года назад +1

    대학에서 미분도배우고 인공지능도 배우고 회사에서도 공부하지만 이정도로 쉽게 설명하시는 분은 처음... 좋아요하고갑니다

  • @hyukppen
    @hyukppen 3 года назад +3

    좋은 강의 감사합니다.
    허나, 보여주신 수식은 neural net의 상황과는 다른 상황에서 전개하셨기 때문에 딱 저 그림에서만 맞는 수식인데 마치 실제 neural net에서도 쓸 수 있는 것처럼 말씀하신 부분이 있습니다.
    6:11 의 수식은 큰 오해를 일으킬 수 있는 수식입니다. round가 아니고 d라면 맞는 수식이지만, 편미분에서는 저렇게 되지 않습니다.
    반례를 들자면, z도 x,y의 함수일 때입니다. 그때는 저 수식이 틀림을 알 수 있습니다.
    z도 x,y의 수식인 상황이 무어냐, 그런 상황이 있기는 하느냐하면 q밑 자리에 node가 있는 아주 simple한 neural net에서 그렇습니다.

    • @teddynote
      @teddynote  3 года назад +1

      헛! 혁펜하임님! 강의영상 정말 잘 보고 있는데 ㅎㅎ 이렇게 잘못된 부분을 지적해 주셔서 우선 감사드립니다~
      본 영상은 cs231n 의 backpropagation을 참고하여 제작하였습니다. (ruclips.net/video/i94OvYb6noo/видео.html)
      지적해주신 수식은 맞게 수정하여 다시 게재할 수 있도록 하겠습니다.
      자칫 지나가버릴 수 있는 문제임에도 댓글로 바로잡아주신 점 감사드립니다~

  • @rlagmldud-vv
    @rlagmldud-vv 3 года назад +1

    목소리가 너무 익숙해서 놀랐어요 그분인가? 하고 확인하니 패스트캠퍼스에 그분(!!) 맞네요ㅎㅎ 테디노트님 목소리랑 설명이 너무 좋네요ㅜㅜ 오늘도 덕분에 잘 배우고 갑니다!

    • @teddynote
      @teddynote  3 года назад

      감사합니다 ~😄

  • @임효정-p1n
    @임효정-p1n 3 года назад +1

    이해가 쏙쏙 잘 되네요 좋은 설명 감사합니다

  • @조용현-s8i
    @조용현-s8i 2 года назад

    6:58 해석하실때 x가 1만큼 증가하면 f라는 값은 4만큼 감소했다고 하셨는데,
    미분 개념으로 봤을때, x 변화량이 0에 가까울때 f라는 값은 4만큼 감소한다고 하는게 맞지 않나요?
    미분인데 평균 변화율처럼 말씀하시는거같아서요.
    저도 몰라서 질문 드립니다.

  • @정보규-q4l
    @정보규-q4l 2 года назад +2

    와 이해 안가서 1시간 동안 개삽질 썡쇼하다가 이거 보고 이해했습니다. 감사합니다 바로 구독 박았습니다.

  • @조I인호
    @조I인호 3 года назад +2

    좋은 강의를 쉽게 설명하여 주셔서 너무 감사합니다 ^^^

  • @SSamyang92
    @SSamyang92 5 месяцев назад +1

    최고... 진짜 최고에요 ㅜㅜ

  • @yab1250
    @yab1250 3 года назад +2

    오차역전파의 의도에 대해서 간단하게 잘 설명해주신거 같아요. 도움 많이 얻었습니다!

  • @misunjoo6593
    @misunjoo6593 2 года назад +1

    진짜 감사합니다..설명 너무 잘하시네요

  • @wa-ng
    @wa-ng 3 года назад +1

    천재시네요 감사합니다

  • @ainoobdev-u8q
    @ainoobdev-u8q Месяц назад +1

    이걸 이제서야 보다니...아 내시간....

  • @mgpark9343
    @mgpark9343 4 года назад +2

    그냥 미분이군요! 괜히 어렵게 생각했네요ㅎㅎ
    감사합니다!

    • @teddynote
      @teddynote  4 года назад +1

      네 맞습니다. 원리는 간단합니다.

  • @tg__nano
    @tg__nano 3 года назад +1

    이해 정말 잘되네요 감사합니다!

  • @majimakbajirak9506
    @majimakbajirak9506 2 года назад +1

    Chain Rule 덕분에 단순곱으로 구해지는거군요... 영상 감사합니다!

  • @chaaaaachaaaaa
    @chaaaaachaaaaa 3 года назад +3

    강의 영상 잘봤습니다만, 근본적으로 오차역전파를 왜 하는지 잘 모르겠습니다.
    이미 순방향으로 계산한 노드들의 값을 왜 역전파로 다시 계산해야 하는지 이해가 가지 않습니다.
    뒤로 가서 weight값을 갱신하는 이유가 뭔가요?

    • @teddynote
      @teddynote  3 года назад +1

      chain rule을 사용해서 쉽게 그라디언트를 구하기 위해서입니다. 순방향으로 업데이트를 하려면 chain rule을 적용하기 힘들지만 역적파를 하면 global 그라디언트와 chain rule을 활용하여 쉽게 그라디언트를 구할 수 있습니다.

  • @ai-study
    @ai-study 4 года назад +2

    항상 잘 배우고 있습니다 :) 어려준 주제를 쉽게 설명해주셔서 실력을 쌓고 있습니다!!

    • @teddynote
      @teddynote  4 года назад

      감사합니다 :) 쉽게 설명하는게 세상에서 제일 어려운 일 같아요 ㅎ

  • @schdw
    @schdw 3 года назад +1

    강의 듣는데 순간순간 컬투쇼가 들리는 것 같아요ㅋㅋㅋㅋ

  • @Lenny2Life
    @Lenny2Life 2 года назад

    친절한 설명 감사드립니다!!

  • @kicheolkim5939
    @kicheolkim5939 3 года назад +2

    쉽게 설명해주셔서 감사합니다.
    RNN + Softmax 에 대한 강의도 진행해 주실수 있을까요?

    • @teddynote
      @teddynote  3 года назад +1

      감사합니다 :) 네 말씀해주신 주제로도 한 번 제작해보겠습니다

  • @davidha8250
    @davidha8250 4 года назад

    간결한 설명 정말 감사드립니다. 정말 쉽게 잘성명해주셔서 감사합니다

    • @teddynote
      @teddynote  4 года назад

      감사합니다 🙏 🙏

  • @vd874
    @vd874 Год назад

    감사합니다! 🎉

  • @hogoonlee8391
    @hogoonlee8391 Год назад +1

    좋은 강의 감사합니다.
    혹시 가능하다면 영상 출처와 링크를 밝히고 제 개인 블로그에 학습내용을 정리하고싶은데
    괜찮을까요? ㅎㅎ

    • @teddynote
      @teddynote  Год назад

      괜찮습니다 마음껏 가져다 쓰세용~~

  • @김현우-e7y
    @김현우-e7y 4 года назад +1

    책보고 이해가 잘 안가서 유튜브 찾아봤는데 단번에 이해했네요 감사합니다

    • @teddynote
      @teddynote  4 года назад

      감사합니다 🙏

  • @가치삶
    @가치삶 9 месяцев назад

    체인 룰루 웨이트 값을 바꾸는 것을 설명한 영상 있나요 어떻게 업데이트가 되는지 아직 좀 와 닿지 않아서요

    • @teddynote
      @teddynote  8 месяцев назад

      제가 업로드한 영상은 아쉽게도 없습니다. 3brown1blue 가 설명 채널로 유명하니 거기서 한 번 검색해 보세요~!

  • @taekgi_
    @taekgi_ 2 года назад +1

    오차 역전파에서 미분이 사용되는 궁극적인 이유가 무엇인가요?

    • @teddynote
      @teddynote  2 года назад

      미분으로 그라디언트를 구하여 가중치(weight)에 지속적으로 업데이트를 하여 최종 손실(loss)을 줄여나가는 w, b를 구하는 것이 최종 목표입니다.

  • @김호중-e6h
    @김호중-e6h 2 года назад +1

    활성함수에서 로컬 그라디언트도 설명해주실수있나요?

    • @teddynote
      @teddynote  2 года назад

      활성함수라고 특별히 다르지 않습니다. 활성함수도 하나의 수식이기 때문에 이에 대한 미분 결과가 로컬 그라디언트가 됩니다. 다양한 활성함수에 대한 미분 그래프를 보시면 더욱 이해하시기 편하실 수 있습니다.
      reniew.github.io/12/
      블로그글도 한 번 참고해 보시면 좋을 것 같아요~

  • @갱님-h7n
    @갱님-h7n 3 года назад +1

    정말 이해가 잘되요 ㅎㅎ 감사합니다, 다음 영상 기대되요

  • @ssmin1215
    @ssmin1215 3 года назад +1

    영상 잘봤습니다~

  • @hjk1000
    @hjk1000 4 года назад +1

    아! 이해 쏙쏙
    감사합니다

  • @shshlee4043
    @shshlee4043 3 года назад +1

    ㅠㅡㅜ 왜 4강 밖에 없나요 ㅠ.ㅜ.............................흙흙

  • @MingeulE
    @MingeulE 3 года назад +1

    감사합니다 말씀하신 건 다 이해했어요
    근데 dLoss/dx를 가지고 어딜 수정하나요?? 계수가 없어서 잘 모르는건가요??

    • @teddynote
      @teddynote  3 года назад +1

      즉, x에 업데이트를 한다고 보시면 됩니다

    • @MingeulE
      @MingeulE 3 года назад +1

      @@teddynote 흠.. 나름 수학 잘 했는데 직관만 그렇지 어떻게 구체적으로 할지는 코드를 봐야겠네요. 되게 감사합니다!

  • @황인섭-c8c
    @황인섭-c8c 9 месяцев назад +1

    천재😂😂

  • @카까꾸크
    @카까꾸크 2 года назад

    감사히 잘 들었습니다!
    그런데 이 역전파(체인룰을 통해 Loss함수에 대한 x의 미분값을 구하는 것)를 통해 모델이 어떻게 학습을 하게되는 것인가요?

    • @teddynote
      @teddynote  2 года назад +2

      계산된 미분 값을 w에 업데이트 해주면서 가중치(weights)가 갱신이 됩니다. 이 과정을 우리는 모델이 학습한다라고 이야기 합니다.

  • @user-sy5fu3ih9g
    @user-sy5fu3ih9g 4 года назад +2

    지려따...

    • @teddynote
      @teddynote  4 года назад

      감사합니다 ㅎㅎ

  • @dorumugs
    @dorumugs 3 года назад +1

    쩌러요~

  • @욤욤욤욤-u2w
    @욤욤욤욤-u2w 3 года назад +1

    ㅠㅠ그래서 오차역전파가 의미하는게 무엇일까요... 각 층별로 미분값을 얻을 수 있다인가요??

    • @teddynote
      @teddynote  3 года назад +1

      기울기(그라디언트, 업데이트 하는 양)를 구하여 원래의 w에 업데이트를 해주는 개념입니다.

  • @junghabaek2046
    @junghabaek2046 2 года назад

    감사합니다!!!!!

  • @최강준-z6w
    @최강준-z6w 8 месяцев назад +1

  • @sw-ln1hh
    @sw-ln1hh 4 года назад +1

    Chain rule ㅎㅎ

  • @pazzini_lorenzo
    @pazzini_lorenzo Месяц назад +1

    개쩐다

  • @둥근세모-k8u
    @둥근세모-k8u 3 года назад +1

    21607 복습

  • @주영-t6s
    @주영-t6s 2 года назад +1

    이 집 맛있네

  • @강태민-h6o
    @강태민-h6o 4 года назад +2

    이렇게 존나 개꿀띠가 어렵다는 이유로 361 조회수 쥰나 아깝네유 ㅜㅜ ㄹㅇ 돈 주고 들을 강의급인데

    • @teddynote
      @teddynote  4 года назад

      좋은 말씀 감사합니다 :)