안녕하세요! 강의를 듣다 질문이 생겨 댓글을 남깁니다. 제가 이해한게 확실히 맞는지는 모르겠지만 일반적으로는 filter의 개수를 32 -> 128 -> 256 -> 512 이런식으로 늘려나가는 것으로 알고 있습니다. 그런데 영상의 모델에서 중간에 256 -> 128 -> 256 개수를 줄였다 다시 늘리는 과정이 있는데 그런 방식으로 진행하는 이유가 있을까요?
저렇게 하는것은 제 개인적인 경험입니다. 이론적인 배경은 hebb's law(wire together, fire together)에 기인하여 제가 생각하는 방식때문이고, 정보를 함축적으로 줄였다가 줄여진 함축성의 디테일을 학습한다는 개념으로 접근했습니다. 대부분의 경우 저렇게 하면 좀더 좋은 결과가 나와서(데이터와 학습시키는 대상에 따라 다를수 있습니다.), 모델 만들때 반드시 테스트 해보는 패턴중 하나 입니다. hebb' law에 대한 좀더 상세한 내용은 다음 영상에서 설명해 두었습니다. ruclips.net/video/d43FtlZkuqI/видео.html 이 영상은 모델을 직접 개발할때 어떻게 할수 있는지를 보여주기 위해 이것저것을 모두 가져다 써 본예제 입니다. 저렇게 하면 좋아진다는 아닙니다. ㅎㅎ
안녕하세요! 강의를 듣다 질문이 생겨 댓글을 남깁니다.
제가 이해한게 확실히 맞는지는 모르겠지만 일반적으로는 filter의 개수를 32 -> 128 -> 256 -> 512 이런식으로 늘려나가는 것으로 알고 있습니다. 그런데 영상의 모델에서 중간에 256 -> 128 -> 256 개수를 줄였다 다시 늘리는 과정이 있는데 그런 방식으로 진행하는 이유가 있을까요?
저렇게 하는것은 제 개인적인 경험입니다. 이론적인 배경은 hebb's law(wire together, fire together)에 기인하여 제가 생각하는 방식때문이고, 정보를 함축적으로 줄였다가 줄여진 함축성의 디테일을 학습한다는 개념으로 접근했습니다. 대부분의 경우 저렇게 하면 좀더 좋은 결과가 나와서(데이터와 학습시키는 대상에 따라 다를수 있습니다.), 모델 만들때 반드시 테스트 해보는 패턴중 하나 입니다. hebb' law에 대한 좀더 상세한 내용은 다음 영상에서 설명해 두었습니다. ruclips.net/video/d43FtlZkuqI/видео.html
이 영상은 모델을 직접 개발할때 어떻게 할수 있는지를 보여주기 위해 이것저것을 모두 가져다 써 본예제 입니다. 저렇게 하면 좋아진다는 아닙니다. ㅎㅎ
@@realstudy_net6682 답변 감사합니다! 좋은 강의로 잘알려주셔서 정말 감사드립니다.