[Open DMQA Seminar] eXplainable AI (LIME and SHAP)

Поделиться
HTML-код
  • Опубликовано: 5 ноя 2024

Комментарии • 20

  • @ploradoaa
    @ploradoaa 7 месяцев назад +1

    쉽고 친절한 설명 감사합니다.

  • @ksjksjgg
    @ksjksjgg Год назад +1

    좋은 내용 감사합니다. 핵심을 간결하고 정확하게 설명해주셨습니다.

  • @sshyun9613
    @sshyun9613 3 года назад +1

    세미나 아주 좋아요 훌륭한 김교수님 처럼 잘 하네요
    LG Display Mr Hyun 보냄

  • @로봇-y8n
    @로봇-y8n 2 года назад +1

    좋은 영상입니다.

  • @제갈식
    @제갈식 3 года назад +1

    3:20 그것을 딥러닝 네트웍에서의 불확정성 원리라고 부릅니다.:
    "일반화가 잘 되는 네트워크는 해석하기 어렵다.
    해석이 용이한 네트워크는 일반화가 어렵다."

  • @이정민영어
    @이정민영어 4 месяца назад

    정말 잘 봤습니다.

  • @jk00127
    @jk00127 2 года назад +1

    좋은 자료 감사합니다! 한 가지 궁금한 점이 있습니다. SHAP 예시 설명 중 Feature A의 Shapley value를 계산할 때 A가 포함되지 않는 부분 집합 중 그 어떤 feature도 포함이 안된, 엑스 표기가 되어 있는 케이스는 아무 feature도 사용되지 않은 상태인데 이 경우의 예측값은 어떻게 계산된다고 이해하면 될까요? 아무 feature value를 사용 안했는데 어떻게 값이 나와서 shapley value가 계산되는지 궁금합니다.

    • @hyunjaecho1415
      @hyunjaecho1415 2 года назад

      늦었지만 제 생각을 공유해 볼게요. Neural networks의 경우 input shape이 정해져 있기 때문에 각 feature가 사용이 되지 않다고 하더라도 어떤 value라도 집어넣어야 할 겁니다. 예를 들어 input shape이 100일 때 A를 사용하지 않는다고 input shape을 99로 내리지는 않는다는 거죠. 그러면 A의 true value를 사용하지 않고 어떤 value를 넣는지가 중요할 텐데 0을 넣거나 random 한 value를 넣거나 아니면 다른 "null value"를 넣을 수 있을 거라 생각됩니다.

  • @jgjt2221
    @jgjt2221 3 года назад +2

    잘 봤습니다~^^

  • @도아튜브-q1b
    @도아튜브-q1b 2 года назад +1

    안녕하세요, 세미나 영상보며 공부하는 직장인 입니다.
    내용 중에 하나 궁금한 것이 있어 여쭤보게 되었습니다.
    영상 14분 50초부터 Loss 함수에 대해 설명해주시는 부분이 있는데요,
    z는 관측치 x 주변의 데이터포인트 이고, 모델 f와 g에 각각 z, z'을 넣어 Loss 함수를 구한다는 내용입니다. 제가 궁금한 것은 모델 f 와 모델 z에 같은 z값을 넣어 얻은 예측 결과치에 대해 손실함수를 구하는 것이 아니고, g에는 왜 z' 을 넣나요?
    차원이 축소됐다는 말이 잘 이해가 되지 않습니다 ㅠㅠ (피처가 줄었다는 말인가요?)
    많이 바쁘실 텐데 답글 주시면 정말 감사하겠습니다.

    • @dongheejung533
      @dongheejung533 2 года назад +1

      안녕하세요, 학부생이라 잘 알지는 못하지만 제가 이해한 것은 다음과 같습니다.
      1) g 모델이 f에 비해 단순한 설명 모델이기에 z' 값으로 차원을 축소 시킨 것 같습니다.
      2) z가 input 값을 의미하는데 영상에서는 설명의 용이함을 위해 z에 들어가는 x값을 x_1, x_2로 구성된 2차원의 꼴로 표현하셨습니다. 그러나 실제 대부분의 모델에서 input feature들은 3개 이상의 다양한 feature들을 다룰 것입니다.(x_3, x_4, ...) 그러나 g와 같이 단순한 모델의 경우 모든 feature들을 고려하기 어려울 수 있기 때문에, 그 input에 맞춰서 feature 개수를 줄이게 될텐데 이를 차원 축소라고 표현하신 것 같습니다. Feature 개수를 줄이는 방법은 교수님 다른 동영상에 설명되어 있는 PCA와 같은 feature extraction method나 feature selection method 등이 있는 것으로 알고 있습니다.

    • @pangguinhyeonsoo1342
      @pangguinhyeonsoo1342 5 месяцев назад

      @@dongheejung533 감사합니다. 저도 같은 부분이 마침 궁금했는데, 큰 도움이 되었습니다!

  • @everydayslongtake8641
    @everydayslongtake8641 3 года назад +1

    XAI 스터디에 도움이 많이 되었습니다 ^^

  • @김정의-r8m
    @김정의-r8m 3 года назад

    최고!