- Видео 122
- Просмотров 120 493
Hun Learning
Добавлен 20 дек 2019
Видео
Bayes Rule taken to extremes: estimating generalized additive models using Bayesian model selection
Просмотров 4672 года назад
This video is about my research topic for a paper I am working on with my advisor in the graduate school. The slide and the code used for the paper can be found at github.com/hun-learning94/gambma Currently, we are finishing on the last few details on the paper before submission, which could hopefully be within this month. The source codes also would be wrapped in R package shortly after some m...
문과생이 이해하는 메져와 르벡 적분
Просмотров 5 тыс.3 года назад
학부 때 처음 통계 공부할 때 상담받으러 갔더니 교수님께서 저를 보시고 "르벡 적분 알아요?"라고 물어보시더라구요. 당연히 몰랐죠 그때는. 메져를 모르고 뭔 통계를 한다그래~라고 하는 것 같은 눈빛으로 보시던 그 때 그 교수님을 아직도 잊지 못합니다. 메져와 르벡적분, 문과생도 할 수 있습니다! ruclips.net/video/PGPZ0P1PJfw/видео.html 이 영상이 짱입니다 꼭 보세요!
[Hogg 수리통계] CH6 Score function? Fisher Information? 그림으로 이해하기!!
Просмотров 4,2 тыс.3 года назад
[Hogg 수리통계] CH6 Score function? Fisher Information? 그림으로 이해하기!!
[Hogg 수리통계] CH6 MLE의 극한분포, 결국은 CLT이다!
Просмотров 1,9 тыс.3 года назад
[Hogg 수리통계] CH6 MLE의 극한분포, 결국은 CLT이다!
[간지나는 베이즈] 6주차 02 Metropolis-Hastings 알고리즘, 왜 작동하는가?
Просмотров 8753 года назад
[간지나는 베이즈] 6주차 02 Metropolis-Hastings 알고리즘, 왜 작동하는가?
[간지나는 베이즈] 6주차 01 Markov Chain Monte Carlo, MCMC를 이해하기 위해 마코브 체인에 대해 알아야 할 (거의) 모든 것
Просмотров 1,8 тыс.3 года назад
[간지나는 베이즈] 6주차 01 Markov Chain Monte Carlo, MCMC를 이해하기 위해 마코브 체인에 대해 알아야 할 (거의) 모든 것
Bayesian Linear Regression (3) Bayesian Model Selection using Gibbs Sampler
Просмотров 5523 года назад
This video covers CH09 of First course into Bayesian Statistical Methods by Peter D. Hoff Homepage for the textbook pdhoff.github.io/book/
[간지나는 베이즈] 5주차 02 Bayesian Linear Regression 깁스샘플링을 이용한 모델 선택 알고리즘
Просмотров 4083 года назад
[간지나는 베이즈] 5주차 02 Bayesian Linear Regression 깁스샘플링을 이용한 모델 선택 알고리즘
[간지나는 베이즈] 5주차 01 Bayesian Linear Regression 베이지안 회귀분석 (1) 사후분포 유도
Просмотров 1,6 тыс.3 года назад
[간지나는 베이즈] 5주차 01 Bayesian Linear Regression 베이지안 회귀분석 (1) 사후분포 유도
Bayesian Linear Regression (1) Posterior for Semi-conjugate priors and Gibbs Sampling
Просмотров 1,1 тыс.3 года назад
This video covers CH09 of First course into Bayesian Statistical Methods by Peter D. Hoff Homepage for the textbook pdhoff.github.io/book/
Bayesian Linear Regression (2) Posterior for full-conjugate, dependent priors
Просмотров 2343 года назад
This video covers CH09 of First course into Bayesian Statistical Methods by Peter D. Hoff Homepage for the textbook pdhoff.github.io/book/
[제대로된 선형대수] Week4-04 Symmetric matrices and Orthogonal Diagonalization 대칭행렬은 직교대각화!
Просмотров 3373 года назад
[제대로된 선형대수] Week4-04 Symmetric matrices and Orthogonal Diagonalization 대칭행렬은 직교대각화!
[간지나는 베이즈] 4주차 02 Normal Hierarchical 모델과 깁스 샘플링
Просмотров 1883 года назад
[간지나는 베이즈] 4주차 02 Normal Hierarchical 모델과 깁스 샘플링
[간지나는 베이즈] 4주차 01 Hierarchical Model 모수를 하나로 묶어주는 또 다른 모수
Просмотров 2283 года назад
[간지나는 베이즈] 4주차 01 Hierarchical Model 모수를 하나로 묶어주는 또 다른 모수
[제대로된 선형대수] Week4-02 Determinant and Eigenvalues 고유값, 고유벡터, 행렬식 수식으로 살펴보기
Просмотров 1293 года назад
[제대로된 선형대수] Week4-02 Determinant and Eigenvalues 고유값, 고유벡터, 행렬식 수식으로 살펴보기
[제대로된 선형대수] Week4-01 Determinant and Eigenvalues 고유값, 고유벡터, 행렬식 모두 그림으로 이해해보자!
Просмотров 1793 года назад
[제대로된 선형대수] Week4-01 Determinant and Eigenvalues 고유값, 고유벡터, 행렬식 모두 그림으로 이해해보자!
[제대로된 선형대수] Week4-03 Diagonalization 대각화는 행렬의 주민등록번호다! 왜??
Просмотров 1303 года назад
[제대로된 선형대수] Week4-03 Diagonalization 대각화는 행렬의 주민등록번호다! 왜??
[제대로된 선형대수] Week3-05 Projection Operator (심화) 직교투영연산자
Просмотров 2143 года назад
[제대로된 선형대수] Week3-05 Projection Operator (심화) 직교투영연산자
[Hogg 수리통계] CH2-06 Variance-Covariance Matrix 공분산 행렬
Просмотров 1,5 тыс.3 года назад
[Hogg 수리통계] CH2-06 Variance-Covariance Matrix 공분산 행렬
[Hogg 수리통계] CH2-05 Independent Random Variables 두 변수가 독립이라는 것의 의미
Просмотров 5363 года назад
[Hogg 수리통계] CH2-05 Independent Random Variables 두 변수가 독립이라는 것의 의미
[Hogg 수리통계] CH2-04 The Correlation Coefficients 공분산과 상관계수 (1)
Просмотров 7313 года назад
[Hogg 수리통계] CH2-04 The Correlation Coefficients 공분산과 상관계수 (1)
[Hogg 수리통계] CH2-04 The Correlation Coefficients 공분산과 상관계수 (2)
Просмотров 4573 года назад
[Hogg 수리통계] CH2-04 The Correlation Coefficients 공분산과 상관계수 (2)
[간지나는 베이즈] 3주차 03 다변수 정규분포의 Semi-conjugate prior와 추론
Просмотров 4533 года назад
[간지나는 베이즈] 3주차 03 다변수 정규분포의 Semi-conjugate prior와 추론
[간지나는 베이즈] 3주차 01 다변수 정규분포 ggplot으로 그리는 법
Просмотров 1873 года назад
[간지나는 베이즈] 3주차 01 다변수 정규분포 ggplot으로 그리는 법
[간지나는 베이즈] 3주차 04 Gibbs Sampler란 무엇인가?
Просмотров 6943 года назад
[간지나는 베이즈] 3주차 04 Gibbs Sampler란 무엇인가?
[간지나는 베이즈] 3주차 05 Gibbs Sampler를 활용한 NA 결측치 처리
Просмотров 2183 года назад
[간지나는 베이즈] 3주차 05 Gibbs Sampler를 활용한 NA 결측치 처리
[간지나는 베이즈] 3주차 02 Posterior Predictive 분포에 왜 모수가 안 들어가 있나요
Просмотров 2113 года назад
[간지나는 베이즈] 3주차 02 Posterior Predictive 분포에 왜 모수가 안 들어가 있나요
[제대로된 선형대수] Week3-04 Fundamental Subspaces of Linear Algebra 선형 연산자는 벡터스페이스들을 네 개의 공간으로 쪼갠다
Просмотров 1013 года назад
[제대로된 선형대수] Week3-04 Fundamental Subspaces of Linear Algebra 선형 연산자는 벡터스페이스들을 네 개의 공간으로 쪼갠다
[제대로된 선형대수] Week3-03 Orthogonal Complements 벡터스페이스는 두 개의 직교하는 서브스페이스의 합으로 나타낼 수 있다
Просмотров 1023 года назад
[제대로된 선형대수] Week3-03 Orthogonal Complements 벡터스페이스는 두 개의 직교하는 서브스페이스의 합으로 나타낼 수 있다
ㅋㅋ아인슈타인 이시네 본인은 이해하는데 말로 전달을 못하심
좋은 강의 감사합니다.
좋은 강의 감사합니다 :)
허걱
알아 듣기 쉽게 설명해줘서 정말 감사합니다!!
설명 진짜 잘하신다..
좋은 강의 감사합니다.
너무 잘 듣고 갑니다! 덕분에 시험 공부하는게 수월해 졌어요
훈남이시네요
학회때문에 급하게 수리통계를 공부하고 있는데 정말 한 줄기 빛과 같은 강의네요 ... 감사합니다 ㅠㅠ
잘 배우고 갑니다 ~! 독학하는데 도움 많이 받고 갑니다. 감사합니다
발음 따윈 중요하지 않아요. 이정도로 쉽게 전달하기 쉽지 않은데 큰 도움 되고 있습니다. 수리통계를 영상으로 찍을 생각을 다 하시고.. 넘나 참신합니다. 그리고 옆에서 친구가 알려주듯 편하고 재미있어서 공부하면서도 즐겁네요. 고맙습니다~!😊
(1) Score function = the slope of a likelihood function at true parameter (x can change, so it has randomness) (2) Fisher Info = the variance of the score function(slope) = how much variability random slopes have🎉
이분 천재신듯..책상 쾅퇑칠때마다 등골에 소름돋네 간지 ㅈㄴ 진짜 나네요
안녕하세요! 강의 재밌게 잘 들었습니다! 혹시 지금도 ppt 받을 수 있을까요~?😮
정말 감사합니다 덕분에 이해했습니다
5:30 ㅋㅋㅋㅋㅋ
혹시 수리통계학 강의 마저 하실 계획이 있으신가요? 너무 간절합니다 ㅠㅠ
지금 막 박사 과정을 시작해서 시간이 여의치가 않네요 ㅠㅠ 여유가 생기면 다시 올려보겠습니다!
영상 정말 잘 봤습니다!! 방향이 얌전한 변화라는게 너무 와닿고 좋은 설명인 것 같습니다 ㅎㅎ
안녕하세요, 베이지안 공부하면서 기초적인 건데 궁금해서 질문 남깁니다. Frequentist 방법으로는 회귀분석하고 나온 beta hat을 normal 분포 따른다고 구간추정에 사용하잖아요. 그런것 처럼 베이지안에서는 95% credible interval을 구간추정에 사용하는구나 까지는 이해했습니다. 그러나, 거꾸로 베이지안으로 추정해서 얻은 posterior 회귀계수는 특정 통계분포를 가정해서 추론에 사용한건 본적이 없는거 같습니다. 그래서 드리고 싶은 질문은 MCMC로 sampling해서 얻은 회귀계수의 posterior distribution은 정규분포를 따른다고 할수는 없는건가요? 아니면 따른다고 해도 베이지안에서는 추론에 사용하지 않는 이유가 있는 것 인가요? 기초적인 이항분포나 정규분포의 추론에서 conjugate prior 사용하면 posterior도 특정 통계분포를 따르는 걸로 알고 있는데 추론에서는 사용한건 본적이 없는것 같아서 혼동이 되어서 질문이 드립니다.
추론에 posterior 분포를 사용합니다! 다만 질문자께서 헷갈리시는 부분은 1. Frequentist에서 추정량(mle 등)의 분포는 "데이터의 분포"입니다. 똑같은 분포를 따라는 무수히 많인 데이터 각각에서 똑같이 코드짜서 돌리면 어떤 추정값이 나오지?를 말해주는 분포입니다. 2. Bayesian의 posterior분포는 추정량이 추정하고자 하는 모수의 분포입니다. "주어진 데이터 하나만 딱 보고 나서 모수의 분포에 대한 내 믿음이 얼마나 달라졌나?"에 대한 대답입니다. 결국 두 접근의 차이점은 질문의 차이에서 나옵니다. 예를 들어 구간 추정을 한다고 하면, Frequentist 추론이 답하고자 하는 질문은 "어떤 구간을 정하는 알고리즘을 내가 짜봤다. 똑같은 분포를 따르는 데이터 각각에서 이 알고리즘 돌리면 100번 중에 95번은 진짜 모수가 이 안에 있을거다"입니다. Bayesian에서는 "있지도 않은 가상의 데이터같은거 관심없고, 일단 지금 이 데이터 하나만 봤을때, 이 구간 안에 진짜 모수가 있을 확률이 95%가 되도록하는" 구간을 제시합니다. 똑같은 random 구간이지만, 전자에서는 그 랜덤의 출처가 데이터라면, 후자에서는 모수에 대한 무지입니다. 모르니까 일단 확률변수로 보고 생각한다! 얼렁뚱땅 말했는데 대답이 되셨을까요!
@@HunLearning 친절한 답변 정말 감사합니다! 많은 도움이 되었어요^^ 베이지안과 빈도론의 관점 차이를 이해해야하는 군요. 계속 여쭤봐서 죄송하지만 혹시 이어서 질문하나 더 드려도 될까요? 그렇다면 만약에 prior를 정규분포라고 가정했을 때, 나의 자료가 posterior의 분포를 알수없는 형태로 (그러니까 정규분포가 아닌 모양 같이) 바꿔버리는 자료가 있다고 하면, 그렇다면 posterior의 분포는 여전히 정규분포를 따른다고 하는건가요? 아니면 그냥 posterior 분포라고 하는건가요? 전공자가 아니다보니 궁금한 건 많은데 마땅히 여쭤볼만한 곳이 없어서 염치없이 또 질문드려요.
32:30
선배님 감사합니다,,, 🥺👍🏻👍🏻
훈님 ........................... 멘탈나가신와중에 죄송하지만 너무 빠르고 슉슉 넘어가는게 웃겨용.......... 덕분에 즐겁게 공부했습니다
오 훈님 안녕하세요, 예전에 발견하고 구독해뒀는데, 오랜만에 돌아오셨군요~!ㅎㅎ Rcpp 스터디 영상 기대되네요! 기회된다면 나중에 같이 라이브 한번 하시죠! :)
우와 멋지십니다!!! 저도 열심히 통계 공부해서 선배님처럼 멋진 사람이 되고 싶습니다..!!
R을 위주로 했어서 익숙지 않은데 좋은 영상 감사합니다
스터디를 만드셨나요??
넵 대학원생들끼리 같이 만들었습니다ㅎㅎ 스터디 내용 영상 앞으로 쭉 업로드되겠습니다!
ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 미쳤습니다 감사합니다.
사랑합니다...
감사합니다. 잘 듣겠습니다.
정말 대단하십니다... 교수님 강의 듣고는 뭔소린지 하나도 못알아들었는데 이 영상 보고 이해했어요...
교수님은 왜 이렇게 설명 안해주실까요?
please upload more over this kind of videos. It’s very helpful. ❤❤
Impressive work!! Can't wait to see more and more papers of yours.
덕분에 복습 잘했습니다!
망할 생활소음......다 좋은데 생활소음때문에 간간히 안들리네.....쩝...ㅋㅋ;;; 근데 왜 강의 자료도 안받아질까. 아쉽게 ㅠ,.ㅠ...
선생님 혹시 과외는 안하시나요😢
너무 맛있어요
미쳤다... 감사합니다 진짜!
잘보고 갑니당!
2년의 내공을 단 20분만에 설명해 주신 것에 경의를 표합니다
진짜 명강의 이십니다. 이런 설명은 살신성인의 정신이 아니면 결코 할 수 없는 강의라고 생각합니다
아이고 선생님 강의 찍으실려면 확실히 알고찍으시지 ;;
이 ppt의 템플릿이 뭔지 알 수 있을까요? 학술로 교수님들 세미나 같은 곳에서 파란색으로 이 템플릿을 많이 쓰시는 걸 보았는데 구글링해도 찾기 힘들아서 문의드립니다! 그리고 강의 잘 보고 있습니다~
1.산만하고 전혀 와닿지 않음 2.전혀 직관적이지 않음 3.뭐라는지 하나도 모르겠음
tensor divergence를 여기서 볼 줄이야 ...🤣
감사해용
좋은 강의 감사합니다.
뭔 개소리하는지
선생님, 스플라인 회귀 관련 좋은 한글 책을 추천해 주실 수 있나요?
진짜 감사해요....
정말 친근하게 잘 설명해주셔서 감사합니다 ☺️