잘 보았습니다. 궁금한게 몇가지 있습니다. 1. 잔차와 오차를 동일한 개념으로 생각해도 되는 것인지 2. 지난번 강의에서 부호를 없애는 방법은 절대값과 제곱이 있고, 제곱이 나중에 미분 등 다루기 더 좋아서 제곱을 많이 쓴다고 하셨는데 제곱을 하게 되면 극단값이 엄청 커지게 되어서 결국 극단값이 선의 기울기를 좌우하게 될 것 같은데 평균에서는 이런 내용을 오류라고 배웠고 중앙값, 최빈값등을 활용했던것 같습니다. 회귀분석에서는 통계적으로 이러한 부분의 오류는 문제되지 않는지 궁금합니다.
1. 넵 기본적으로 동일합니다. 다만 오차가 잔차보다 큰 개념입니다. 잔차는 모델의 예측값과 데이터의 차이라면 오차는 잔차와 원래 선형이 아닌 트렌드를 선형으로 예측을 하는 모델오차까지도 포함을 합니다. 2. 정확하십니다. 극단값에 영향을 많이 받아서 아웃라이어가 아주 중요해집니다. 특히 선형모델에서는요. 중앙값, 즉, 잔차들의 제곱이 아닌 절대값을 이용하여 계수를 추정하게 되면 quantile regression 이라는 회귀방석이 됩니다! :)
넵~! 규영님 RSS는 residual sum of square 이고 SSE는 sum of square error 인데, 결국 residual과 error가 같은 개념입니다! :) SSR은 sum of sqares regression 으로 회귀직선으로 인해 데이터가 설명되는 부분을 의미합니다. :)
1일 1슬통 week6 다시 복귀했습니다.
연휴 마지막 날 기초통계 마무리하겠습니다.(´∩🐽∩`)
잘 보았습니다. 궁금한게 몇가지 있습니다.
1. 잔차와 오차를 동일한 개념으로 생각해도 되는 것인지
2. 지난번 강의에서 부호를 없애는 방법은 절대값과 제곱이 있고, 제곱이 나중에 미분 등 다루기 더 좋아서 제곱을 많이 쓴다고 하셨는데
제곱을 하게 되면 극단값이 엄청 커지게 되어서 결국 극단값이 선의 기울기를 좌우하게 될 것 같은데
평균에서는 이런 내용을 오류라고 배웠고 중앙값, 최빈값등을 활용했던것 같습니다.
회귀분석에서는 통계적으로 이러한 부분의 오류는 문제되지 않는지 궁금합니다.
1. 넵 기본적으로 동일합니다. 다만 오차가 잔차보다 큰 개념입니다. 잔차는 모델의 예측값과 데이터의 차이라면 오차는 잔차와 원래 선형이 아닌 트렌드를 선형으로 예측을 하는 모델오차까지도 포함을 합니다.
2. 정확하십니다. 극단값에 영향을 많이 받아서 아웃라이어가 아주 중요해집니다. 특히 선형모델에서는요. 중앙값, 즉, 잔차들의 제곱이 아닌 절대값을 이용하여 계수를 추정하게 되면 quantile regression 이라는 회귀방석이 됩니다! :)
강의 잘봤습니다. 잔차제곱합을 RSS라고 표현하셨는데, 제가 배운 책에는 잔차제곱합이 SSE라고 되어 있고,ㅡ
회귀제곱합이 SSR이라고 되어있는데 용어를 확실히 구분해야할 것 같아서 RSS랑 SSE는 같은 말이고, RSS랑 SSR은 다른 뜻인거죠??
넵~! 규영님 RSS는 residual sum of square 이고 SSE는 sum of square error 인데, 결국 residual과 error가 같은 개념입니다! :) SSR은 sum of sqares regression 으로 회귀직선으로 인해 데이터가 설명되는 부분을 의미합니다. :)
오오 설명 감사합니다! 잔차 제곱합이 왜 사각형으로 시각화 했는지 이해 했습니다.
Keep it up~! :)
우와...이런게 있군요...감사합니다
감사합니다. 잘 들었어요^^
친구 win