좋은 자료 감사합니다! 한 가지 궁금한 점이 있습니다. SHAP 예시 설명 중 Feature A의 Shapley value를 계산할 때 A가 포함되지 않는 부분 집합 중 그 어떤 feature도 포함이 안된, 엑스 표기가 되어 있는 케이스는 아무 feature도 사용되지 않은 상태인데 이 경우의 예측값은 어떻게 계산된다고 이해하면 될까요? 아무 feature value를 사용 안했는데 어떻게 값이 나와서 shapley value가 계산되는지 궁금합니다.
늦었지만 제 생각을 공유해 볼게요. Neural networks의 경우 input shape이 정해져 있기 때문에 각 feature가 사용이 되지 않다고 하더라도 어떤 value라도 집어넣어야 할 겁니다. 예를 들어 input shape이 100일 때 A를 사용하지 않는다고 input shape을 99로 내리지는 않는다는 거죠. 그러면 A의 true value를 사용하지 않고 어떤 value를 넣는지가 중요할 텐데 0을 넣거나 random 한 value를 넣거나 아니면 다른 "null value"를 넣을 수 있을 거라 생각됩니다.
안녕하세요, 세미나 영상보며 공부하는 직장인 입니다. 내용 중에 하나 궁금한 것이 있어 여쭤보게 되었습니다. 영상 14분 50초부터 Loss 함수에 대해 설명해주시는 부분이 있는데요, z는 관측치 x 주변의 데이터포인트 이고, 모델 f와 g에 각각 z, z'을 넣어 Loss 함수를 구한다는 내용입니다. 제가 궁금한 것은 모델 f 와 모델 z에 같은 z값을 넣어 얻은 예측 결과치에 대해 손실함수를 구하는 것이 아니고, g에는 왜 z' 을 넣나요? 차원이 축소됐다는 말이 잘 이해가 되지 않습니다 ㅠㅠ (피처가 줄었다는 말인가요?) 많이 바쁘실 텐데 답글 주시면 정말 감사하겠습니다.
안녕하세요, 학부생이라 잘 알지는 못하지만 제가 이해한 것은 다음과 같습니다. 1) g 모델이 f에 비해 단순한 설명 모델이기에 z' 값으로 차원을 축소 시킨 것 같습니다. 2) z가 input 값을 의미하는데 영상에서는 설명의 용이함을 위해 z에 들어가는 x값을 x_1, x_2로 구성된 2차원의 꼴로 표현하셨습니다. 그러나 실제 대부분의 모델에서 input feature들은 3개 이상의 다양한 feature들을 다룰 것입니다.(x_3, x_4, ...) 그러나 g와 같이 단순한 모델의 경우 모든 feature들을 고려하기 어려울 수 있기 때문에, 그 input에 맞춰서 feature 개수를 줄이게 될텐데 이를 차원 축소라고 표현하신 것 같습니다. Feature 개수를 줄이는 방법은 교수님 다른 동영상에 설명되어 있는 PCA와 같은 feature extraction method나 feature selection method 등이 있는 것으로 알고 있습니다.
쉽고 친절한 설명 감사합니다.
좋은 내용 감사합니다. 핵심을 간결하고 정확하게 설명해주셨습니다.
감사합니다!
세미나 아주 좋아요 훌륭한 김교수님 처럼 잘 하네요
LG Display Mr Hyun 보냄
감사합니다~
좋은 영상입니다.
3:20 그것을 딥러닝 네트웍에서의 불확정성 원리라고 부릅니다.:
"일반화가 잘 되는 네트워크는 해석하기 어렵다.
해석이 용이한 네트워크는 일반화가 어렵다."
정말 잘 봤습니다.
좋은 댓글 감사합니다!
좋은 자료 감사합니다! 한 가지 궁금한 점이 있습니다. SHAP 예시 설명 중 Feature A의 Shapley value를 계산할 때 A가 포함되지 않는 부분 집합 중 그 어떤 feature도 포함이 안된, 엑스 표기가 되어 있는 케이스는 아무 feature도 사용되지 않은 상태인데 이 경우의 예측값은 어떻게 계산된다고 이해하면 될까요? 아무 feature value를 사용 안했는데 어떻게 값이 나와서 shapley value가 계산되는지 궁금합니다.
늦었지만 제 생각을 공유해 볼게요. Neural networks의 경우 input shape이 정해져 있기 때문에 각 feature가 사용이 되지 않다고 하더라도 어떤 value라도 집어넣어야 할 겁니다. 예를 들어 input shape이 100일 때 A를 사용하지 않는다고 input shape을 99로 내리지는 않는다는 거죠. 그러면 A의 true value를 사용하지 않고 어떤 value를 넣는지가 중요할 텐데 0을 넣거나 random 한 value를 넣거나 아니면 다른 "null value"를 넣을 수 있을 거라 생각됩니다.
잘 봤습니다~^^
감사합니다~
안녕하세요, 세미나 영상보며 공부하는 직장인 입니다.
내용 중에 하나 궁금한 것이 있어 여쭤보게 되었습니다.
영상 14분 50초부터 Loss 함수에 대해 설명해주시는 부분이 있는데요,
z는 관측치 x 주변의 데이터포인트 이고, 모델 f와 g에 각각 z, z'을 넣어 Loss 함수를 구한다는 내용입니다. 제가 궁금한 것은 모델 f 와 모델 z에 같은 z값을 넣어 얻은 예측 결과치에 대해 손실함수를 구하는 것이 아니고, g에는 왜 z' 을 넣나요?
차원이 축소됐다는 말이 잘 이해가 되지 않습니다 ㅠㅠ (피처가 줄었다는 말인가요?)
많이 바쁘실 텐데 답글 주시면 정말 감사하겠습니다.
안녕하세요, 학부생이라 잘 알지는 못하지만 제가 이해한 것은 다음과 같습니다.
1) g 모델이 f에 비해 단순한 설명 모델이기에 z' 값으로 차원을 축소 시킨 것 같습니다.
2) z가 input 값을 의미하는데 영상에서는 설명의 용이함을 위해 z에 들어가는 x값을 x_1, x_2로 구성된 2차원의 꼴로 표현하셨습니다. 그러나 실제 대부분의 모델에서 input feature들은 3개 이상의 다양한 feature들을 다룰 것입니다.(x_3, x_4, ...) 그러나 g와 같이 단순한 모델의 경우 모든 feature들을 고려하기 어려울 수 있기 때문에, 그 input에 맞춰서 feature 개수를 줄이게 될텐데 이를 차원 축소라고 표현하신 것 같습니다. Feature 개수를 줄이는 방법은 교수님 다른 동영상에 설명되어 있는 PCA와 같은 feature extraction method나 feature selection method 등이 있는 것으로 알고 있습니다.
@@dongheejung533 감사합니다. 저도 같은 부분이 마침 궁금했는데, 큰 도움이 되었습니다!
XAI 스터디에 도움이 많이 되었습니다 ^^
도움이 되셨다니 다행입니다. 감사합니다~
최고!
감사합니다~