방송 잘들었습니다. 밑에 댓글에서도 여쭤뵌것 같은데 꼭 z dimension과 input dimension이 같아야 한다는것에서 대해서는 이론적으로 맞는 예기인데요... 헌데 input과 output의 dimension이 틀리더라도 사용되는 곳이 있더군요... 어떻게 생각하시나요?
@@munkim1963 답변이 늦었네요..ㅠㅠ 네 말씀해주신 부분이 맞는 것 같습니다. 제가 소개해드린 모델들은 multimodal distribution을 gaussian distribution으로 만들고 역함수 과정을 통해 gaussian 분포의 random한 noise에서 다시 multimodal distribution을 만들려는 것입니다.
안녕하세요 개념 하나하나 짚어가면서 설명해주셔서 감사합니다
조회수는 낮지만 영상의 가치는 절대 낮지 않아요 !
저처럼 도움 받는 사람들도 많을 겁니다 !!!
응원의 말씀 정말 감사합니다! 도움이 되셨다니
정말 뿌듯합니다 ㅎㅎ
@@maangeek 저 또한 정말 많은 도움 받고 있습니다! 감사합니다ㅎㅎ
설명 잘하시네요! flow 모델 공부중인데 도움이 많이되었습니다 :)
넵 도움이 되었다니 좋네요. 감사합니다. :)
아이고 선생님 감사드립니다. NLP 파면서 천날만날 트랜스포머 변형만 보다가 디퓨전 코인이 떡상하길래 허겁지겁 따라가느라 머리 아픈 와중에 정말로 도움되는 영상입니다. 지식 부채만 가득한 띨빵한 저 같은놈들을 위해 가물가물한 기초도 한번씩 집어주시면서 친절히 다 설명해주시고... ㅎㅎ 아직 머릿속이 깔끔하게 정리되는 수준까지는 멀었지만 영상에서 몇개 얻어갑니다...! 좋은 영상 감사드립니다.
아이고.. 너무 좋은 응원의 글 남겨주셔서 감사합니다ㅠㅠㅠ 너무 큰 응원이 되었습니다.
좋은 강의 감사합니다. 강의 자료 슬라이드 링크가 작동하지 않는데, 확인해 주실 수 있나요?
너무 좋은 오버뷰 정말 감사합니다 최고에여
아이고 좋게봐주셔서 제가 감사합니다 :)
11:30
슬라이드가 안받아지네요 ㅠㅜㅜ
방송 잘들었습니다. 밑에 댓글에서도 여쭤뵌것 같은데 꼭 z dimension과 input dimension이 같아야 한다는것에서 대해서는 이론적으로 맞는 예기인데요... 헌데 input과 output의 dimension이 틀리더라도 사용되는 곳이 있더군요... 어떻게 생각하시나요?
아 네 그렇군요! 어떤 연구에서 사용되나요? 중간에 feature extraction 부분에서 dimension이 유지되는 부분에서만 flow가 사용되고 다른 부분에서는 invertible하지 않은 neural network들을 연결하는 구조인가요?
@@maangeek 혹시 가능하시다면 제가 논문을 알려드릴테니 한번 봐주시겟어요?
@@jaeyoonkim9255 음.. 가능할지는 모르겠지만 어떤 논문인가요?
이 논문의 마지막 페이지인 11페이지를 보시면 Table 2에 나와있는 action dimensions, observation embedding dimension 을 보시면 observation embedding dimension이 action dimensions의 두배입니다. Pdf에서 dimension 으로 찾아보시면 11 page에 저자의 설명이 되어있습니다. 계층적으로 쌓으면 마지막 layer에서는 dimension이 안맞는데... 제가 Facebook으로 친구요청헸습니다. 받아주세요^* Facebook에서 예기했으면 편할것 같아서요.
arxiv.org/abs/1804.02808
@@jaeyoonkim9255 이 논문이 어떤 논문이죠..?
설명 너무 잘해주시네요.... 감사요...
ㅎㅎ 칭찬 감사합니다 :)
안녕하세요 Generative Model 에 대해 1도 모르는 학생입니다. 어디서부터 공부를 해야할지 감이 안오는데 혹시 어떤 것부터 보면 좋을지 알려주실 수 있나요?
ruclips.net/video/rZufA635dq4/видео.html 이런 영상을 추천드립니다!
Flow-based generative model에서는 z dimension이 input dimension하고 같은건가요? Invertible function들로만 이루워졌다면 down/up sampling을 못할거 같은데...
맞습니다! z dimension이 input dimension과 같습니다! 같은 dimension에서만 이루어지는 일대일 함수들만 사용한다는 한계가 있어 encoder - decoder architecture에서의 응용은 아직 어렵습니다 ㅠㅠ
@@maangeek Original Normalizing Flow페이퍼 [D. Rezende 2015] 보면 Encoder --> NF --> Decoder 이런식인것 같은데, 여기서 소개해주신 페이퍼에서는 image가 바로 flow에 들어가는것 같네요. 그렇게 되면 p(x)를 trivial deterministic invertible transformation 배우는것과 같지 않나요? 예를들어 y = 2x --> y = 1/2 x.
아하. [D. Rezende 2015] 에서의 NF는 Gaussian --> Multimodal로 변환해주는거고 여기서 소개해주시는 NF는 Multimodal --> Gaussian으로 만들어주려는것 같습니다.
@@munkim1963 답변이 늦었네요..ㅠㅠ 네 말씀해주신 부분이 맞는 것 같습니다. 제가 소개해드린 모델들은 multimodal distribution을 gaussian distribution으로 만들고 역함수 과정을 통해 gaussian 분포의 random한 noise에서 다시 multimodal distribution을 만들려는 것입니다.
아릉하세연
아릉하세요~~ㅎㅎㅎ