Hun Learning
Hun Learning
  • Видео 122
  • Просмотров 120 493

Видео

Bayes Rule taken to extremes: estimating generalized additive models using Bayesian model selection
Просмотров 4672 года назад
This video is about my research topic for a paper I am working on with my advisor in the graduate school. The slide and the code used for the paper can be found at github.com/hun-learning94/gambma Currently, we are finishing on the last few details on the paper before submission, which could hopefully be within this month. The source codes also would be wrapped in R package shortly after some m...
문과생이 이해하는 메져와 르벡 적분
Просмотров 5 тыс.3 года назад
학부 때 처음 통계 공부할 때 상담받으러 갔더니 교수님께서 저를 보시고 "르벡 적분 알아요?"라고 물어보시더라구요. 당연히 몰랐죠 그때는. 메져를 모르고 뭔 통계를 한다그래~라고 하는 것 같은 눈빛으로 보시던 그 때 그 교수님을 아직도 잊지 못합니다. 메져와 르벡적분, 문과생도 할 수 있습니다! ruclips.net/video/PGPZ0P1PJfw/видео.html 이 영상이 짱입니다 꼭 보세요!
[Hogg 수리통계] CH6 Score function? Fisher Information? 그림으로 이해하기!!
Просмотров 4,2 тыс.3 года назад
[Hogg 수리통계] CH6 Score function? Fisher Information? 그림으로 이해하기!!
[Hogg 수리통계] CH6 MLE의 극한분포, 결국은 CLT이다!
Просмотров 1,9 тыс.3 года назад
[Hogg 수리통계] CH6 MLE의 극한분포, 결국은 CLT이다!
[간지나는 베이즈] 6주차 02 Metropolis-Hastings 알고리즘, 왜 작동하는가?
Просмотров 8753 года назад
[간지나는 베이즈] 6주차 02 Metropolis-Hastings 알고리즘, 왜 작동하는가?
[간지나는 베이즈] 6주차 01 Markov Chain Monte Carlo, MCMC를 이해하기 위해 마코브 체인에 대해 알아야 할 (거의) 모든 것
Просмотров 1,8 тыс.3 года назад
[간지나는 베이즈] 6주차 01 Markov Chain Monte Carlo, MCMC를 이해하기 위해 마코브 체인에 대해 알아야 할 (거의) 모든 것
Bayesian Linear Regression (3) Bayesian Model Selection using Gibbs Sampler
Просмотров 5523 года назад
This video covers CH09 of First course into Bayesian Statistical Methods by Peter D. Hoff Homepage for the textbook pdhoff.github.io/book/
[간지나는 베이즈] 5주차 02 Bayesian Linear Regression 깁스샘플링을 이용한 모델 선택 알고리즘
Просмотров 4083 года назад
[간지나는 베이즈] 5주차 02 Bayesian Linear Regression 깁스샘플링을 이용한 모델 선택 알고리즘
[간지나는 베이즈] 5주차 01 Bayesian Linear Regression 베이지안 회귀분석 (1) 사후분포 유도
Просмотров 1,6 тыс.3 года назад
[간지나는 베이즈] 5주차 01 Bayesian Linear Regression 베이지안 회귀분석 (1) 사후분포 유도
Bayesian Linear Regression (1) Posterior for Semi-conjugate priors and Gibbs Sampling
Просмотров 1,1 тыс.3 года назад
This video covers CH09 of First course into Bayesian Statistical Methods by Peter D. Hoff Homepage for the textbook pdhoff.github.io/book/
Bayesian Linear Regression (2) Posterior for full-conjugate, dependent priors
Просмотров 2343 года назад
This video covers CH09 of First course into Bayesian Statistical Methods by Peter D. Hoff Homepage for the textbook pdhoff.github.io/book/
[제대로된 선형대수] Week4-04 Symmetric matrices and Orthogonal Diagonalization 대칭행렬은 직교대각화!
Просмотров 3373 года назад
[제대로된 선형대수] Week4-04 Symmetric matrices and Orthogonal Diagonalization 대칭행렬은 직교대각화!
[간지나는 베이즈] 4주차 02 Normal Hierarchical 모델과 깁스 샘플링
Просмотров 1883 года назад
[간지나는 베이즈] 4주차 02 Normal Hierarchical 모델과 깁스 샘플링
[간지나는 베이즈] 4주차 01 Hierarchical Model 모수를 하나로 묶어주는 또 다른 모수
Просмотров 2283 года назад
[간지나는 베이즈] 4주차 01 Hierarchical Model 모수를 하나로 묶어주는 또 다른 모수
[제대로된 선형대수] Week4-02 Determinant and Eigenvalues 고유값, 고유벡터, 행렬식 수식으로 살펴보기
Просмотров 1293 года назад
[제대로된 선형대수] Week4-02 Determinant and Eigenvalues 고유값, 고유벡터, 행렬식 수식으로 살펴보기
[제대로된 선형대수] Week4-01 Determinant and Eigenvalues 고유값, 고유벡터, 행렬식 모두 그림으로 이해해보자!
Просмотров 1793 года назад
[제대로된 선형대수] Week4-01 Determinant and Eigenvalues 고유값, 고유벡터, 행렬식 모두 그림으로 이해해보자!
[제대로된 선형대수] Week4-03 Diagonalization 대각화는 행렬의 주민등록번호다! 왜??
Просмотров 1303 года назад
[제대로된 선형대수] Week4-03 Diagonalization 대각화는 행렬의 주민등록번호다! 왜??
[제대로된 선형대수] Week3-05 Projection Operator (심화) 직교투영연산자
Просмотров 2143 года назад
[제대로된 선형대수] Week3-05 Projection Operator (심화) 직교투영연산자
[Hogg 수리통계] CH2-06 Variance-Covariance Matrix 공분산 행렬
Просмотров 1,5 тыс.3 года назад
[Hogg 수리통계] CH2-06 Variance-Covariance Matrix 공분산 행렬
[Hogg 수리통계] CH2-05 Independent Random Variables 두 변수가 독립이라는 것의 의미
Просмотров 5363 года назад
[Hogg 수리통계] CH2-05 Independent Random Variables 두 변수가 독립이라는 것의 의미
[Hogg 수리통계] CH2-04 The Correlation Coefficients 공분산과 상관계수 (1)
Просмотров 7313 года назад
[Hogg 수리통계] CH2-04 The Correlation Coefficients 공분산과 상관계수 (1)
[Hogg 수리통계] CH2-04 The Correlation Coefficients 공분산과 상관계수 (2)
Просмотров 4573 года назад
[Hogg 수리통계] CH2-04 The Correlation Coefficients 공분산과 상관계수 (2)
[간지나는 베이즈] 3주차 03 다변수 정규분포의 Semi-conjugate prior와 추론
Просмотров 4533 года назад
[간지나는 베이즈] 3주차 03 다변수 정규분포의 Semi-conjugate prior와 추론
[간지나는 베이즈] 3주차 01 다변수 정규분포 ggplot으로 그리는 법
Просмотров 1873 года назад
[간지나는 베이즈] 3주차 01 다변수 정규분포 ggplot으로 그리는 법
[간지나는 베이즈] 3주차 04 Gibbs Sampler란 무엇인가?
Просмотров 6943 года назад
[간지나는 베이즈] 3주차 04 Gibbs Sampler란 무엇인가?
[간지나는 베이즈] 3주차 05 Gibbs Sampler를 활용한 NA 결측치 처리
Просмотров 2183 года назад
[간지나는 베이즈] 3주차 05 Gibbs Sampler를 활용한 NA 결측치 처리
[간지나는 베이즈] 3주차 02 Posterior Predictive 분포에 왜 모수가 안 들어가 있나요
Просмотров 2113 года назад
[간지나는 베이즈] 3주차 02 Posterior Predictive 분포에 왜 모수가 안 들어가 있나요
[제대로된 선형대수] Week3-04 Fundamental Subspaces of Linear Algebra 선형 연산자는 벡터스페이스들을 네 개의 공간으로 쪼갠다
Просмотров 1013 года назад
[제대로된 선형대수] Week3-04 Fundamental Subspaces of Linear Algebra 선형 연산자는 벡터스페이스들을 네 개의 공간으로 쪼갠다
[제대로된 선형대수] Week3-03 Orthogonal Complements 벡터스페이스는 두 개의 직교하는 서브스페이스의 합으로 나타낼 수 있다
Просмотров 1023 года назад
[제대로된 선형대수] Week3-03 Orthogonal Complements 벡터스페이스는 두 개의 직교하는 서브스페이스의 합으로 나타낼 수 있다

Комментарии

  • @Morakano55
    @Morakano55 2 месяца назад

    ㅋㅋ아인슈타인 이시네 본인은 이해하는데 말로 전달을 못하심

  • @lmnps1221
    @lmnps1221 3 месяца назад

    좋은 강의 감사합니다.

  • @정현수-k7z7g
    @정현수-k7z7g 3 месяца назад

    좋은 강의 감사합니다 :)

  • @Yacktalkun
    @Yacktalkun 6 месяцев назад

    허걱

  • @jinguhanaKim
    @jinguhanaKim 6 месяцев назад

    알아 듣기 쉽게 설명해줘서 정말 감사합니다!!

  • @Jake-u7f
    @Jake-u7f 6 месяцев назад

    설명 진짜 잘하신다..

  • @ETeHong
    @ETeHong 6 месяцев назад

    좋은 강의 감사합니다.

  • @정무경-z9v
    @정무경-z9v 8 месяцев назад

    너무 잘 듣고 갑니다! 덕분에 시험 공부하는게 수월해 졌어요

  • @youranlee2981
    @youranlee2981 11 месяцев назад

    훈남이시네요

  • @배승민-j5j
    @배승민-j5j 11 месяцев назад

    학회때문에 급하게 수리통계를 공부하고 있는데 정말 한 줄기 빛과 같은 강의네요 ... 감사합니다 ㅠㅠ

  • @조영준조-d5o
    @조영준조-d5o 11 месяцев назад

    잘 배우고 갑니다 ~! 독학하는데 도움 많이 받고 갑니다. 감사합니다

  • @박소영-c6w
    @박소영-c6w Год назад

    발음 따윈 중요하지 않아요. 이정도로 쉽게 전달하기 쉽지 않은데 큰 도움 되고 있습니다. 수리통계를 영상으로 찍을 생각을 다 하시고.. 넘나 참신합니다. 그리고 옆에서 친구가 알려주듯 편하고 재미있어서 공부하면서도 즐겁네요. 고맙습니다~!😊

  • @statduck
    @statduck Год назад

    (1) Score function = the slope of a likelihood function at true parameter (x can change, so it has randomness) (2) Fisher Info = the variance of the score function(slope) = how much variability random slopes have🎉

  • @jade-nf8xu
    @jade-nf8xu Год назад

    이분 천재신듯..책상 쾅퇑칠때마다 등골에 소름돋네 간지 ㅈㄴ 진짜 나네요

  • @finance1997
    @finance1997 Год назад

    안녕하세요! 강의 재밌게 잘 들었습니다! 혹시 지금도 ppt 받을 수 있을까요~?😮

  • @김세연-c9l6w
    @김세연-c9l6w Год назад

    정말 감사합니다 덕분에 이해했습니다

  • @한혁장
    @한혁장 Год назад

    5:30 ㅋㅋㅋㅋㅋ

  • @김세연-c9l6w
    @김세연-c9l6w Год назад

    혹시 수리통계학 강의 마저 하실 계획이 있으신가요? 너무 간절합니다 ㅠㅠ

    • @HunLearning
      @HunLearning Год назад

      지금 막 박사 과정을 시작해서 시간이 여의치가 않네요 ㅠㅠ 여유가 생기면 다시 올려보겠습니다!

  • @깜장지우개
    @깜장지우개 Год назад

    영상 정말 잘 봤습니다!! 방향이 얌전한 변화라는게 너무 와닿고 좋은 설명인 것 같습니다 ㅎㅎ

  • @SooyoungLee-i2h
    @SooyoungLee-i2h Год назад

    안녕하세요, 베이지안 공부하면서 기초적인 건데 궁금해서 질문 남깁니다. Frequentist 방법으로는 회귀분석하고 나온 beta hat을 normal 분포 따른다고 구간추정에 사용하잖아요. 그런것 처럼 베이지안에서는 95% credible interval을 구간추정에 사용하는구나 까지는 이해했습니다. 그러나, 거꾸로 베이지안으로 추정해서 얻은 posterior 회귀계수는 특정 통계분포를 가정해서 추론에 사용한건 본적이 없는거 같습니다. 그래서 드리고 싶은 질문은 MCMC로 sampling해서 얻은 회귀계수의 posterior distribution은 정규분포를 따른다고 할수는 없는건가요? 아니면 따른다고 해도 베이지안에서는 추론에 사용하지 않는 이유가 있는 것 인가요? 기초적인 이항분포나 정규분포의 추론에서 conjugate prior 사용하면 posterior도 특정 통계분포를 따르는 걸로 알고 있는데 추론에서는 사용한건 본적이 없는것 같아서 혼동이 되어서 질문이 드립니다.

    • @HunLearning
      @HunLearning Год назад

      추론에 posterior 분포를 사용합니다! 다만 질문자께서 헷갈리시는 부분은 1. Frequentist에서 추정량(mle 등)의 분포는 "데이터의 분포"입니다. 똑같은 분포를 따라는 무수히 많인 데이터 각각에서 똑같이 코드짜서 돌리면 어떤 추정값이 나오지?를 말해주는 분포입니다. 2. Bayesian의 posterior분포는 추정량이 추정하고자 하는 모수의 분포입니다. "주어진 데이터 하나만 딱 보고 나서 모수의 분포에 대한 내 믿음이 얼마나 달라졌나?"에 대한 대답입니다. 결국 두 접근의 차이점은 질문의 차이에서 나옵니다. 예를 들어 구간 추정을 한다고 하면, Frequentist 추론이 답하고자 하는 질문은 "어떤 구간을 정하는 알고리즘을 내가 짜봤다. 똑같은 분포를 따르는 데이터 각각에서 이 알고리즘 돌리면 100번 중에 95번은 진짜 모수가 이 안에 있을거다"입니다. Bayesian에서는 "있지도 않은 가상의 데이터같은거 관심없고, 일단 지금 이 데이터 하나만 봤을때, 이 구간 안에 진짜 모수가 있을 확률이 95%가 되도록하는" 구간을 제시합니다. 똑같은 random 구간이지만, 전자에서는 그 랜덤의 출처가 데이터라면, 후자에서는 모수에 대한 무지입니다. 모르니까 일단 확률변수로 보고 생각한다! 얼렁뚱땅 말했는데 대답이 되셨을까요!

    • @SooyoungLee-i2h
      @SooyoungLee-i2h Год назад

      ​@@HunLearning 친절한 답변 정말 감사합니다! 많은 도움이 되었어요^^ 베이지안과 빈도론의 관점 차이를 이해해야하는 군요. 계속 여쭤봐서 죄송하지만 혹시 이어서 질문하나 더 드려도 될까요? 그렇다면 만약에 prior를 정규분포라고 가정했을 때, 나의 자료가 posterior의 분포를 알수없는 형태로 (그러니까 정규분포가 아닌 모양 같이) 바꿔버리는 자료가 있다고 하면, 그렇다면 posterior의 분포는 여전히 정규분포를 따른다고 하는건가요? 아니면 그냥 posterior 분포라고 하는건가요? 전공자가 아니다보니 궁금한 건 많은데 마땅히 여쭤볼만한 곳이 없어서 염치없이 또 질문드려요.

  • @무야호-x2w
    @무야호-x2w Год назад

    32:30

  • @터진만듀-k2m
    @터진만듀-k2m Год назад

    선배님 감사합니다,,, 🥺👍🏻👍🏻

  • @안문대
    @안문대 Год назад

    훈님 ........................... 멘탈나가신와중에 죄송하지만 너무 빠르고 슉슉 넘어가는게 웃겨용.......... 덕분에 즐겁게 공부했습니다

  • @statisticsplaybook
    @statisticsplaybook Год назад

    오 훈님 안녕하세요, 예전에 발견하고 구독해뒀는데, 오랜만에 돌아오셨군요~!ㅎㅎ Rcpp 스터디 영상 기대되네요! 기회된다면 나중에 같이 라이브 한번 하시죠! :)

  • @앵무새-g8z
    @앵무새-g8z Год назад

    우와 멋지십니다!!! 저도 열심히 통계 공부해서 선배님처럼 멋진 사람이 되고 싶습니다..!!

    • @앵무새-g8z
      @앵무새-g8z Год назад

      R을 위주로 했어서 익숙지 않은데 좋은 영상 감사합니다

  • @tttttttttttt170
    @tttttttttttt170 Год назад

    스터디를 만드셨나요??

    • @HunLearning
      @HunLearning Год назад

      넵 대학원생들끼리 같이 만들었습니다ㅎㅎ 스터디 내용 영상 앞으로 쭉 업로드되겠습니다!

  • @Jebisay
    @Jebisay Год назад

    ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 미쳤습니다 감사합니다.

  • @alreadyusedhandle
    @alreadyusedhandle Год назад

    사랑합니다...

  • @minonoti
    @minonoti Год назад

    감사합니다. 잘 듣겠습니다.

  • @윤주당-d3z
    @윤주당-d3z 2 года назад

    정말 대단하십니다... 교수님 강의 듣고는 뭔소린지 하나도 못알아들었는데 이 영상 보고 이해했어요...

    • @윤주당-d3z
      @윤주당-d3z 2 года назад

      교수님은 왜 이렇게 설명 안해주실까요?

  • @eunyoungpark788
    @eunyoungpark788 2 года назад

    please upload more over this kind of videos. It’s very helpful. ❤❤

  • @caitlynk9526
    @caitlynk9526 2 года назад

    Impressive work!! Can't wait to see more and more papers of yours.

  • @김담담-u9y
    @김담담-u9y 2 года назад

    덕분에 복습 잘했습니다!

  • @helookscool
    @helookscool 2 года назад

    망할 생활소음......다 좋은데 생활소음때문에 간간히 안들리네.....쩝...ㅋㅋ;;; 근데 왜 강의 자료도 안받아질까. 아쉽게 ㅠ,.ㅠ...

  • @user-vq6ek9oe7s
    @user-vq6ek9oe7s 2 года назад

    선생님 혹시 과외는 안하시나요😢

  • @alreadyusedhandle
    @alreadyusedhandle 2 года назад

    너무 맛있어요

  • @alreadyusedhandle
    @alreadyusedhandle 2 года назад

    미쳤다... 감사합니다 진짜!

  • @fullofluck_
    @fullofluck_ 2 года назад

    잘보고 갑니당!

  • @논리학-w4t
    @논리학-w4t 2 года назад

    2년의 내공을 단 20분만에 설명해 주신 것에 경의를 표합니다

  • @논리학-w4t
    @논리학-w4t 2 года назад

    진짜 명강의 이십니다. 이런 설명은 살신성인의 정신이 아니면 결코 할 수 없는 강의라고 생각합니다

  • @wedsed123
    @wedsed123 2 года назад

    아이고 선생님 강의 찍으실려면 확실히 알고찍으시지 ;;

  • @한원배-c6b
    @한원배-c6b 2 года назад

    이 ppt의 템플릿이 뭔지 알 수 있을까요? 학술로 교수님들 세미나 같은 곳에서 파란색으로 이 템플릿을 많이 쓰시는 걸 보았는데 구글링해도 찾기 힘들아서 문의드립니다! 그리고 강의 잘 보고 있습니다~

  • @night7863
    @night7863 2 года назад

    1.산만하고 전혀 와닿지 않음 2.전혀 직관적이지 않음 3.뭐라는지 하나도 모르겠음

  • @박용석-n8y
    @박용석-n8y 2 года назад

    tensor divergence를 여기서 볼 줄이야 ...🤣

  • @잉잉-d6z
    @잉잉-d6z 2 года назад

    감사해용

  • @해교아카데미교육영상
    @해교아카데미교육영상 2 года назад

    좋은 강의 감사합니다.

  • @Aksidnenjicssd
    @Aksidnenjicssd 2 года назад

    뭔 개소리하는지

  • @kyoungheechu5398
    @kyoungheechu5398 2 года назад

    선생님, 스플라인 회귀 관련 좋은 한글 책을 추천해 주실 수 있나요?

  • @햇반반
    @햇반반 2 года назад

    진짜 감사해요....

  • @어여안
    @어여안 2 года назад

    정말 친근하게 잘 설명해주셔서 감사합니다 ☺️