1) 에지의 특성이 다양할 텐데 (거리 같은) 이것은 무시되는 게 보통인가요? 2) Pooling 같은 것은 어떻게? 3) 표준 Library 에서 지원 되는 기능은 어떤게 있나요? 4) 시실 일반적인 Conv 은 아닌데 궂이 Covnv 이라고 부르는 이유는 그냥 Conv 이 유명하니 이를 일반화한것처럼 사용하기위해서인가요?
At time 43:09, for example, what does the number 64 in the matrix column mean? I was getting it right until that number came up. I didn't understand how to calculate it. If you can answer me in English, I'll be happy. Thanks you.
입력 그래프가 4개의 노드를 갖고 노드마다 3개의 피쳐를 갖는다고 할 때, 첫 콘볼루션 레이어의 필터는 adj 곱하기 weight vector고 이 때 weight의 열 수가 우리가 지정해 주는 필터의 갯수가 되는데 예를 들어 64라 하면, 이렇게 첫 layer를 거친 입력의 4×3 feature는 이제 4×64의 hidden layer (이것을 영상에선 convolution 거친 feature로 표현)가 되는 것이라 생각합니다
친절한 설명 감사합니다! 논문을 보면서도 잘 이해가 안갔었는데, 36:30 부분 부터 풀어서 설명해주신 덕분에 이해하기 좀 더 수월해진 것 같아요 :)
이것보다 더 잘 설명되어있는 영상을 못봤어요 ㅠㅠㅠ 좋은설명 감사합니다 석사 논문 주제인데 도움 많이 됐어요
좋은 강의를 무료로 제공해 주셔서 정말 감사드립니다. 많은 도움이 되었습니다.
Hand 3D Mesh 관련 논문을 보다가 GCN을 사용하는 논문을 보게 되어 해당 내용에 대한 공부를 하던 중 영상을 시청하게 되었는데 너무 많은 도움이 되었습니다. 감사합니다.
정말 자세하게 설명해주셔서 도움 정말 많이 되었습니다 감사합니다
논문을 바로 보려니 사전 지식이 없어 막막했는데, 잘 곁들여 설명해주셔서 감사합니다
엄청납니다.. 정말 감사합니다.
쉽게 잘 풀어주셨네요! 잘 들었습니다. 감사합니다.
수식들을 어렴풋이만 이해했는데, 강의 덕분에 완전히 이해한 것 같습니다. 감사합니다.
굉장히 친절하네요 경의를 표합니다
1:14 RNN 복습
6:21 시작
18:18 : GCN
쉬운 설명 감사합니다~
네트워크가 커지면 A가 무지 커지고 대부분 0인 Sparse 한 형태가 될텐데.. 그러면 계산시 시간이나 메모리 낭비가 심할꺼 같은데 아닌 가요?
1) 에지의 특성이 다양할 텐데 (거리 같은) 이것은 무시되는 게 보통인가요?
2) Pooling 같은 것은 어떻게?
3) 표준 Library 에서 지원 되는 기능은 어떤게 있나요?
4) 시실 일반적인 Conv 은 아닌데 궂이 Covnv 이라고 부르는 이유는 그냥 Conv 이 유명하니 이를 일반화한것처럼 사용하기위해서인가요?
좋은 강의 감사드립니다!
좋은강의 잘 봤습니다 감사합니다!
이분이 한국의 "andrew ng"인가요?
명쾌한 설명 감사합니다
설명 감사드립니다 ^^
정수기 하나 놔드려야겠어요
Feature matrix가 왜 A+I인가요?? 이 부분이 잘 이해가 안가네요 ㅠ
input feature/channel 갯수와 output feature/channel 갯수가 1이 아닌 경우에 매트릭스 차원을... 좀 보여 주세요
At time 43:09, for example, what does the number 64 in the matrix column mean? I was getting it right until that number came up. I didn't understand how to calculate it. If you can answer me in English, I'll be happy. Thanks you.
일반적으로 노드의 갯수와 연결관계는 Layer 마다 변화되지 않고 고정되어 있다고 가정하는 것인가요? 아니면 기초적인 경우만 그렇고 아닌 방법도 있나요?
질문하나 드려도 될까요?
node하나당 feature룰 가지고 있다고 했는데 이 feature를 convolution연산을 거치고 나온 activation map이라고 생각하면 될까요??
입력 그래프가 4개의 노드를 갖고 노드마다 3개의 피쳐를 갖는다고 할 때, 첫 콘볼루션 레이어의 필터는 adj 곱하기 weight vector고 이 때 weight의 열 수가 우리가 지정해 주는 필터의 갯수가 되는데 예를 들어 64라 하면, 이렇게 첫 layer를 거친 입력의 4×3 feature는 이제 4×64의 hidden layer (이것을 영상에선 convolution 거친 feature로 표현)가 되는 것이라 생각합니다
즉 64개의 activation map들이 생긴거죠
@@subjugateilppong 답변감사합니다!
강의를 성의없게 하는건지 목소리가 원래 그런건지
진짜 강의하거나 강연하거나 연설할 인생은 아닌 듯
너무 지루하고 일부러 청중들이 지루해 나가떨어지길 바라는 목소리 같음
목소리 깔끔한데요?? 강의 주제에 관심이 있으면 알아서 집중 돼요~
본인의 집중력이 부족한건 아닌지 다시한번 생각해보시기 바랍니다^^
대단하노
ㅈㄴ이해잘되는데
좋은 강의 감사드립니다.
좋은 강의 감사합니다!
유용한 강의 감사합니다 ~