좋은 강의 감사합니다. 허나, 보여주신 수식은 neural net의 상황과는 다른 상황에서 전개하셨기 때문에 딱 저 그림에서만 맞는 수식인데 마치 실제 neural net에서도 쓸 수 있는 것처럼 말씀하신 부분이 있습니다. 6:11 의 수식은 큰 오해를 일으킬 수 있는 수식입니다. round가 아니고 d라면 맞는 수식이지만, 편미분에서는 저렇게 되지 않습니다. 반례를 들자면, z도 x,y의 함수일 때입니다. 그때는 저 수식이 틀림을 알 수 있습니다. z도 x,y의 수식인 상황이 무어냐, 그런 상황이 있기는 하느냐하면 q밑 자리에 node가 있는 아주 simple한 neural net에서 그렇습니다.
헛! 혁펜하임님! 강의영상 정말 잘 보고 있는데 ㅎㅎ 이렇게 잘못된 부분을 지적해 주셔서 우선 감사드립니다~ 본 영상은 cs231n 의 backpropagation을 참고하여 제작하였습니다. (ruclips.net/video/i94OvYb6noo/видео.html) 지적해주신 수식은 맞게 수정하여 다시 게재할 수 있도록 하겠습니다. 자칫 지나가버릴 수 있는 문제임에도 댓글로 바로잡아주신 점 감사드립니다~
활성함수라고 특별히 다르지 않습니다. 활성함수도 하나의 수식이기 때문에 이에 대한 미분 결과가 로컬 그라디언트가 됩니다. 다양한 활성함수에 대한 미분 그래프를 보시면 더욱 이해하시기 편하실 수 있습니다. reniew.github.io/12/ 블로그글도 한 번 참고해 보시면 좋을 것 같아요~
미적분 배우지도 않았는데 이해를 시켜주시다니.. 정말 대단하세요!!!
감사합니다😍
진짜 2시간동안 행렬의 계산 내용과 구조를 이해하며 어렵게 생각되고 있었는데, 자기전에 무심코 찾아본 이 영상이 굉장히 도움이 되고 알찼습니다. 감사합니다.
너무 이해가 잘돼서 엉엉 울었습니다
감사합니다😻
감사합니다. 이해가 잘가는 설명입니다.!
대학에서 미분도배우고 인공지능도 배우고 회사에서도 공부하지만 이정도로 쉽게 설명하시는 분은 처음... 좋아요하고갑니다
감사합니다~
좋은 강의 감사합니다.
허나, 보여주신 수식은 neural net의 상황과는 다른 상황에서 전개하셨기 때문에 딱 저 그림에서만 맞는 수식인데 마치 실제 neural net에서도 쓸 수 있는 것처럼 말씀하신 부분이 있습니다.
6:11 의 수식은 큰 오해를 일으킬 수 있는 수식입니다. round가 아니고 d라면 맞는 수식이지만, 편미분에서는 저렇게 되지 않습니다.
반례를 들자면, z도 x,y의 함수일 때입니다. 그때는 저 수식이 틀림을 알 수 있습니다.
z도 x,y의 수식인 상황이 무어냐, 그런 상황이 있기는 하느냐하면 q밑 자리에 node가 있는 아주 simple한 neural net에서 그렇습니다.
헛! 혁펜하임님! 강의영상 정말 잘 보고 있는데 ㅎㅎ 이렇게 잘못된 부분을 지적해 주셔서 우선 감사드립니다~
본 영상은 cs231n 의 backpropagation을 참고하여 제작하였습니다. (ruclips.net/video/i94OvYb6noo/видео.html)
지적해주신 수식은 맞게 수정하여 다시 게재할 수 있도록 하겠습니다.
자칫 지나가버릴 수 있는 문제임에도 댓글로 바로잡아주신 점 감사드립니다~
목소리가 너무 익숙해서 놀랐어요 그분인가? 하고 확인하니 패스트캠퍼스에 그분(!!) 맞네요ㅎㅎ 테디노트님 목소리랑 설명이 너무 좋네요ㅜㅜ 오늘도 덕분에 잘 배우고 갑니다!
감사합니다 ~😄
이해가 쏙쏙 잘 되네요 좋은 설명 감사합니다
6:58 해석하실때 x가 1만큼 증가하면 f라는 값은 4만큼 감소했다고 하셨는데,
미분 개념으로 봤을때, x 변화량이 0에 가까울때 f라는 값은 4만큼 감소한다고 하는게 맞지 않나요?
미분인데 평균 변화율처럼 말씀하시는거같아서요.
저도 몰라서 질문 드립니다.
와 이해 안가서 1시간 동안 개삽질 썡쇼하다가 이거 보고 이해했습니다. 감사합니다 바로 구독 박았습니다.
👍👍😆
좋은 강의를 쉽게 설명하여 주셔서 너무 감사합니다 ^^^
최고... 진짜 최고에요 ㅜㅜ
오차역전파의 의도에 대해서 간단하게 잘 설명해주신거 같아요. 도움 많이 얻었습니다!
진짜 감사합니다..설명 너무 잘하시네요
천재시네요 감사합니다
감사합니다 :)
이걸 이제서야 보다니...아 내시간....
🥹🤤
그냥 미분이군요! 괜히 어렵게 생각했네요ㅎㅎ
감사합니다!
네 맞습니다. 원리는 간단합니다.
이해 정말 잘되네요 감사합니다!
감사합니다 :)
Chain Rule 덕분에 단순곱으로 구해지는거군요... 영상 감사합니다!
강의 영상 잘봤습니다만, 근본적으로 오차역전파를 왜 하는지 잘 모르겠습니다.
이미 순방향으로 계산한 노드들의 값을 왜 역전파로 다시 계산해야 하는지 이해가 가지 않습니다.
뒤로 가서 weight값을 갱신하는 이유가 뭔가요?
chain rule을 사용해서 쉽게 그라디언트를 구하기 위해서입니다. 순방향으로 업데이트를 하려면 chain rule을 적용하기 힘들지만 역적파를 하면 global 그라디언트와 chain rule을 활용하여 쉽게 그라디언트를 구할 수 있습니다.
항상 잘 배우고 있습니다 :) 어려준 주제를 쉽게 설명해주셔서 실력을 쌓고 있습니다!!
감사합니다 :) 쉽게 설명하는게 세상에서 제일 어려운 일 같아요 ㅎ
강의 듣는데 순간순간 컬투쇼가 들리는 것 같아요ㅋㅋㅋㅋ
친절한 설명 감사드립니다!!
쉽게 설명해주셔서 감사합니다.
RNN + Softmax 에 대한 강의도 진행해 주실수 있을까요?
감사합니다 :) 네 말씀해주신 주제로도 한 번 제작해보겠습니다
간결한 설명 정말 감사드립니다. 정말 쉽게 잘성명해주셔서 감사합니다
감사합니다 🙏 🙏
감사합니다! 🎉
좋은 강의 감사합니다.
혹시 가능하다면 영상 출처와 링크를 밝히고 제 개인 블로그에 학습내용을 정리하고싶은데
괜찮을까요? ㅎㅎ
괜찮습니다 마음껏 가져다 쓰세용~~
책보고 이해가 잘 안가서 유튜브 찾아봤는데 단번에 이해했네요 감사합니다
감사합니다 🙏
체인 룰루 웨이트 값을 바꾸는 것을 설명한 영상 있나요 어떻게 업데이트가 되는지 아직 좀 와 닿지 않아서요
제가 업로드한 영상은 아쉽게도 없습니다. 3brown1blue 가 설명 채널로 유명하니 거기서 한 번 검색해 보세요~!
오차 역전파에서 미분이 사용되는 궁극적인 이유가 무엇인가요?
미분으로 그라디언트를 구하여 가중치(weight)에 지속적으로 업데이트를 하여 최종 손실(loss)을 줄여나가는 w, b를 구하는 것이 최종 목표입니다.
활성함수에서 로컬 그라디언트도 설명해주실수있나요?
활성함수라고 특별히 다르지 않습니다. 활성함수도 하나의 수식이기 때문에 이에 대한 미분 결과가 로컬 그라디언트가 됩니다. 다양한 활성함수에 대한 미분 그래프를 보시면 더욱 이해하시기 편하실 수 있습니다.
reniew.github.io/12/
블로그글도 한 번 참고해 보시면 좋을 것 같아요~
정말 이해가 잘되요 ㅎㅎ 감사합니다, 다음 영상 기대되요
감사합니다 :)
영상 잘봤습니다~
감사합니다🙏
아! 이해 쏙쏙
감사합니다
감사합니다 :)
ㅠㅡㅜ 왜 4강 밖에 없나요 ㅠ.ㅜ.............................흙흙
감사합니다 말씀하신 건 다 이해했어요
근데 dLoss/dx를 가지고 어딜 수정하나요?? 계수가 없어서 잘 모르는건가요??
즉, x에 업데이트를 한다고 보시면 됩니다
@@teddynote 흠.. 나름 수학 잘 했는데 직관만 그렇지 어떻게 구체적으로 할지는 코드를 봐야겠네요. 되게 감사합니다!
천재😂😂
감사히 잘 들었습니다!
그런데 이 역전파(체인룰을 통해 Loss함수에 대한 x의 미분값을 구하는 것)를 통해 모델이 어떻게 학습을 하게되는 것인가요?
계산된 미분 값을 w에 업데이트 해주면서 가중치(weights)가 갱신이 됩니다. 이 과정을 우리는 모델이 학습한다라고 이야기 합니다.
지려따...
감사합니다 ㅎㅎ
쩌러요~
ㅠㅠ그래서 오차역전파가 의미하는게 무엇일까요... 각 층별로 미분값을 얻을 수 있다인가요??
기울기(그라디언트, 업데이트 하는 양)를 구하여 원래의 w에 업데이트를 해주는 개념입니다.
감사합니다!!!!!
굳
Chain rule ㅎㅎ
개쩐다
21607 복습
이 집 맛있네
이렇게 존나 개꿀띠가 어렵다는 이유로 361 조회수 쥰나 아깝네유 ㅜㅜ ㄹㅇ 돈 주고 들을 강의급인데
좋은 말씀 감사합니다 :)