질문 있습니다! 10:39 에서 forget gate는 현재정보를 저장할지 말지 정한다고 하셨는데, 현재값과 이전 hidden state값의 합이 시그모이드를 거쳐 0~1 사이의 값을 가지고 이값이 이전 값(Ct-1)에 곱해지므로, 이전 값(Ct-1)을 저장할지 말지 정하는 것이 아닌가요?
현재값(Xt)과 이전 hidden state값(Ht-1)이 시그모이드는 거친 값이 곱해지는 것이니 현재 입력과 이전 값(Ct-1) 모두 고려하는 것이라고 볼 수 있습니다. 단 시그모이드를 거친 값이 1에 가깝다면 과거 정보를 많이 활용할 것이고, 0에 가깝다면 과거 정보를 많이 잃게 됩니다.
강의에 재미를 더했네요. 짝짝짝~
ㅎㅎ 재밌게 봐주셔서 감사합니닷!!
참 이해하기 쉽게 되어있어 편하게 잘 들었습니다.
감사합니다! 앞으로도 좋은 영상 올리겠습니다^_^
이런 강의가 필요했습니다ㅠㅠ 너무너무 반갑고 감사드려요 수포자 비전공자 돌대가리여서 포기해야하나 생각했는데 한줄기 빛같은 강의입니다!
감사합니다!! 저도 비전공자라 많이 공감되네요. ㅎㅎ 이해하기 쉬운 강의 계속 올리겠습니다 ^^
코딩 입문자인데 딥러닝에도 관심이 많습니다. 꾸준히 영상 업로드 부탁드려요!! 많이 배웠습니다 ㅎㅎ
감사합니다 ~!! 앞으로도 비전공자 분들도 이해하기 쉬운 영상 많이 올리겠습니다!
감사합니다. 앞으로 잘 부탁드립니다.
저도 잘 부탁드립니다^^
정말 이해하기 쉽게 설명해주셔서... 잘 들었습니다. 다음 강의도 기다리겠습니다 ^^
감사합니다~~!! 덕분에 힘이 나네요^^ 좋은 영상 많이 올리겠습니다
질문 있습니다! 10:39 에서 forget gate는 현재정보를 저장할지 말지 정한다고 하셨는데, 현재값과 이전 hidden state값의 합이 시그모이드를 거쳐 0~1 사이의 값을 가지고 이값이 이전 값(Ct-1)에 곱해지므로, 이전 값(Ct-1)을 저장할지 말지 정하는 것이 아닌가요?
현재값(Xt)과 이전 hidden state값(Ht-1)이 시그모이드는 거친 값이 곱해지는 것이니 현재 입력과 이전 값(Ct-1) 모두 고려하는 것이라고 볼 수 있습니다. 단 시그모이드를 거친 값이 1에 가깝다면 과거 정보를 많이 활용할 것이고, 0에 가깝다면 과거 정보를 많이 잃게 됩니다.
통찰력을 갖도록 하게해주는 좋은 강의입니다. 감사합니다.
댓글 감사드립니다^^ 또 통찰력을 드릴 수 있는 강의 제작에 노력하겠습니다!
아주 쉽게 잘 설명해주셔서 감사합니다.
감사합니다~제 목적을 이루었네요 ㅎㅎ
설명 진짜 잘하시는거같아요!! 감사합니다
아 감사합니다 ㅎㅎ 더 노력하겠습니다~!!^^
감사합니다!
제가 더 감사드립니다~^^
감사합니다 파이토치 첫걸음 책만 봐서는 이해하기 힘들었는데 덕분에 LSTM 이 뭔지 좀 이해가 갑니다.
감사합니당 앞으로도 책보다 쉽게 이해할 수 있는 강의를 많이 올릴게요^^
재밌게 잘 봤습니다..
감사합니다 더 좋은 영상 꾸준히 올리겠습니다 ^^
블로그 주소를 영상 설명부에 적어주시면 더 좋을 것 같아요!
조언 감사드립니다~~ 새로운 영상 찍을 때 참고하겠습니다!!