교수님, 안녕하십니까. 좋은 강의 제공 해주셔서 감사드립니다. 33:10초 부근에서 w를 구했다고 말씀하셨습니다. 하지만 kernel trick을 사용하여 문제를 풀기 때문에 discriminant function을 구할 순 있지만 w를 직접 구할 순 없는 것이 아닌지 여쭤보고 싶습니다. 감사드립니다.
안녕하세요 교수님! 항상 강의 열심히 듣고 있습니다! test error에 대해 이해가 안되는 점이 있어 질문드립니다! 17:15 쯤에 train error와 testing error가 모두 작은 C=100000가 좋은게 아닌가요? 왜 Test Error가 큰 게 더 좋다고 하시는지 의문이 듭니다! 그리고 강의의 마지막 부분인 35:35 에서는 test error가 작은게 더 좋다고 하셔서 헷갈립니다! + error는 Bayes Error와 가까울수록 좋은건가요?
제가 다시 들어 보니 17:15 끝에 흘리 듯이 한 말 (이 경우가 좋은 것~)은 잘못 예기한 것이 맞습니다. Testing error가 작은 것인 좋은 경우입니다. 결국, Testing error가 Bayes Error와 가까울수록 좋은 것 입니다. 자세히 들어 주셔 감사합니다~
교수님. 직접 뵌적은 없지만, 최고의 교수님이라고 생각합니다. 연구쪽에서도 신경을 굉장히 많이 쓰시고 교육도 많은 시간 투자하시는 것 같습니다. 항상 감사합니다.
감사합니다!
교수님 8:22 초에 lagrangian Primal 식에서는 없었다가 8:39초에식에서는 왜 1/2llwll +C시그마크사이 가 갑자기 왜 나오는 지 궁금합니다!
아마 ppt 를 만들때 그 부분을 까먹고 넣지 않으신 것 같습니다.
www.gatsby.ucl.ac.uk/~gretton/coursefiles/Slides5A.pdf 를 참고해 보세요
두목님으로 모시겠습니다... 정말 강의의 신 그 자체입니다.. 감사합니다ㅠㅠㅠㅠ
ㅎㅎ 감사합니다!
감사합니다... 하루만에 SVM에 대해 깨우치게 되네요. 큰 도움이 되었습니다.
감사합니다!
MIT Patric Winston 강의를 듣다 예까지 왔습니다. 좋은 강의 감사드립니다.
감사합니다!
교수님, 안녕하십니까. 좋은 강의 제공 해주셔서 감사드립니다. 33:10초 부근에서 w를 구했다고 말씀하셨습니다. 하지만 kernel trick을 사용하여 문제를 풀기 때문에 discriminant function을 구할 순 있지만 w를 직접 구할 순 없는 것이 아닌지 여쭤보고 싶습니다. 감사드립니다.
네. 보라님 말씀이 맞습니다. 제가 다시 들어 보니 w라고 잘못 예기했네요...
교수님, 안녕하세요. 직장인으로 머신러닝에 관심이 많아 관련 영상 보는 중 교수님 강의를 알게되었습니다. 다른 영상보다 자세한 강의로 많은 도움이 되고 있습니다. 교수님 사랑합니다.
감사합니다!
안녕하세요 교수님!
항상 강의 열심히 듣고 있습니다!
test error에 대해 이해가 안되는 점이 있어 질문드립니다!
17:15 쯤에 train error와 testing error가 모두 작은 C=100000가 좋은게 아닌가요? 왜 Test Error가 큰 게 더 좋다고 하시는지 의문이 듭니다!
그리고 강의의 마지막 부분인 35:35 에서는 test error가 작은게 더 좋다고 하셔서 헷갈립니다!
+ error는 Bayes Error와 가까울수록 좋은건가요?
제가 다시 들어 보니 17:15 끝에 흘리 듯이 한 말 (이 경우가 좋은 것~)은 잘못 예기한 것이 맞습니다. Testing error가 작은 것인 좋은 경우입니다. 결국, Testing error가 Bayes Error와 가까울수록 좋은 것 입니다. 자세히 들어 주셔 감사합니다~
이해가 완벽히 되었습니다 감사합니다 교수님!
한국어로 이 정도로 디테일한 강의가 있었네요ㄷㄷ
감사합니다!
명강의 감사합니다. 이해에 매우 큰 도움이 되었습니다.
감사합니다!
ESL 책 혼자 공부하면서 애매한것들이 말끔히 풀리네요. 많은 도움이 됩니다. 감사합니다! 다른 것들도 올려주시면 좋겠어요.ㅠ
감사합니다! 다른 내용도 계속 올릴 예정입니다.
31:01 알파값을 어떻게 나요는건가요??
11 분 때 라그랑지 듀얼 풀이과정에서 3번 째줄 마지막항 알파 i - 크사이 i 를 알파 i + 크사이 i 로 수정해야 계산이 맞는 것 같습니다
네. 그렇네요... 자세히 봐 주셔 감사합니다!
김성범[ 교수 / 산업경영공학부 ]
혼자 공부하면서 이해도 잘 안되고 어려운 머신러닝 과제들을 하나씩 쉽게 잘알려주셔서 정말 감사합니다.
하나씩 꼼꼼히 보면서 공부하고 있습니다. 항상 많은 도움이 되고있습니다 존경합니다
@@고영민-d5m 감사합니다!
정말 좋은 강의 감사합니다. 잘 듣고 갑니다!!
감사합니다!
쌤, 33분쯤에 목표함수식(xixj+1)^2, 전에 kernel function이 (xy+1)^2라서 (xiyj+1)^2 아닐까 의문 합니다.
한 회 한 회 깨면서 올라갈수록 무슨 game 하는거 같습니다~ 빨리 끝판왕 깨고 다른 게임으로 넘어 가고 싶네요
정말 유익한 강의 감사합니다 :)
감사합니다~
교수님, 감사합니다!!
감사합니다. 16분25초에 알파=C일 때, 감마가 에러를 허용하는것이라고 하셨는데, 크사이가 에러를 허용하는 것이 아닌지 궁긍합니다.
네. 크사이가 맞습니다!
이런 최고의 퀄러티를 가진 강의가 무료라니 놀랍습니다. 주변에 많이 알리겠습니다.
@@이승신-q1r 도움이 되셨다니 감사한 마음입니다.
강의 감사 합니다. 시간 되시면 알파값 구하는 부분도 부탁 드립니다 . smo 많이 쓴다고 하는데 잘 들어오지 않네요...
quadratic programming을 사용하여 구현 가능합니다!
SVM 모델 1 강의에서는 Wx+b > 0 이면 y_new를 1로 predict한다 라고 결론 줬었는데 여기서는 아니네요.. 혹시 W,b가 Support vector로만 구한 W*,b*로 계산해서 그런건가요?
그리구 Testing Error 가 C=0.01일때 더 큰데 왜 그게 더 좋다는 지 잘모르겠습니다
어느 부분을 질문하시는지요?
명 강의십니다. 10년 동안의 SVM 궁금증이 풀렸네요 ~
원초적인 질문입니다. Back Propagation 업는 SVM이 100% 수학적인 모델인데, 왜 인공지능 학습모델로 구분되나요 ?
감사합니다. Backpropagation 사용 유무가 인공지능 여부를 결정하는 기준은 아닙니다. Decision tree, KNN, SVM, Neural networks, CNN, RNN, Transformer,... 모두 머신러닝 모델이자 인공지능 모델입니다.
교수님, 선형분리가 가능한 데이터에도 커널 트릭을 적용하면 성능 개선이 가능한가요? 큰 차이가 없을 것 같기는 한데 궁금해서 찾아봐도 관련 내용을 못 찾겠네요ㅜ
성능면에서 큰 차이가 없는 것으로 알려져 있습니다.
@@김성범교수산업경영공 아하! 그렇군요. 답변 달아주셔서 감사합니다^^
정말 감사합니다!
감사합니다!
그런데 complementary slackness 에서 왜 감마와 프시의 곱이 0인가요?
답변이 늦어 죄송합니다. Complementary slackness 조건은 비선형계획 (Nonlinear Programming) 문제에서 primal과 dual solutions 관계에서 도출된 조건입니다. 수학적으로 자세한 내용은 관련 참고문헌 (Nonlinear Programming에서 KKT 조건)을 살펴 보시기 바랍니다.
회사 다니면서 강의 듣는데, 정말 귀한 강의 감사합니다 ㅠ 혹시 강의 PPT를 구할 수 있을까요?
현재 몇 가지 이슈로 인해 강의자료 공개를 고민하고 있습니다. 바로 제공해 드리지 못하는 점 양해 바랍니다.
@@김성범교수산업경영공 ㅜㅜ 강의자료가 너무 좋아요
혹시 svm에서 비선형일때 커널을 적용한 라그랑지안 코드좀 알려주실수있나요.
안녕하세요! 강의 정말 잘 들었습니다. 혹시 강의 교안을 볼 수 있는 곳이 있을까요??
감사합니다! 강의 교안은 몇가지 이유로 아직 공개 못하고 있는 점 양해 바랍니다.