GNN이 RNN과 상당히 유사하고, 설명하실 때, RNN에서 사용하는 용어를 많이 사용하셔서 RNN을 배경지식으로 위 영상 내용을 받아드리고 있습니다. 잘 이해가 안되는 부분이 f 함수의 입력값 부분 입니다. 1) v의 feature, 2) v의 edge들의 feature 3) hidden state 4) neighbor node의 feature 이라고 되어 있는데 2번과 4번의 차이가 무엇인지 알 수 있을까요? edge 와 neighbor의 차이를 설명해주시면 좋을거 같습니다. 그리고 hidden state같은 경우에는 설명하실 때, 여러개를 받아오는 것처럼 말씀하시던데.. RNN이 이전 h_(t-1) 을 사용하여 h_t의 update가 일어나는것과는 달리, 여러 h를 받아온다고 생각하는게 맞을까요? (이또한 neighbor의 정의와 관계가 있는듯 합니다.._ 마지막으로 f함수의 계산은 RNN에서 사용하는 W_hh, W_hx과 같은 weight 벡터가 4개가 있어서 각각을 행열곱하는 방식으로 계산되고, g함수가 RNN에서의 y(output)계산하는 함수라고 생각하면 되는 것 맞나요?
잘보고갑니다 ㅎ 앞으로 계속 방송하셨으면 좋겠어요!
GNN에 대해 쉽게 설명해주셔서 덕분에 이해가 되었네요! 감사합니다 :)
GNN이 RNN과 상당히 유사하고,
설명하실 때, RNN에서 사용하는 용어를 많이 사용하셔서 RNN을 배경지식으로 위 영상 내용을 받아드리고 있습니다.
잘 이해가 안되는 부분이 f 함수의 입력값 부분 입니다.
1) v의 feature,
2) v의 edge들의 feature
3) hidden state
4) neighbor node의 feature
이라고 되어 있는데 2번과 4번의 차이가 무엇인지 알 수 있을까요? edge 와 neighbor의 차이를 설명해주시면 좋을거 같습니다.
그리고 hidden state같은 경우에는 설명하실 때, 여러개를 받아오는 것처럼 말씀하시던데..
RNN이 이전 h_(t-1) 을 사용하여 h_t의 update가 일어나는것과는 달리, 여러 h를 받아온다고 생각하는게 맞을까요?
(이또한 neighbor의 정의와 관계가 있는듯 합니다.._
마지막으로
f함수의 계산은 RNN에서 사용하는 W_hh, W_hx과 같은 weight 벡터가 4개가 있어서 각각을 행열곱하는 방식으로 계산되고,
g함수가 RNN에서의 y(output)계산하는 함수라고 생각하면 되는 것 맞나요?
혹시 변요한 닮았다는 소리 들어보신적있나요? 변요한인줄알았네요
잘 보고 갑니다 ㅎㅎ
네 감사합니다 :)
잘보고 갑니다
Hey , can you please talk in English ,.more people would be able to follow ,.this amazing content