[핵심 머신러닝] Hidden Markov Models - Part 2 (Decoding, Learning)

Поделиться
HTML-код
  • Опубликовано: 21 сен 2024
  • Hidden Markov Model의 Decoding문제와 Learning 문제에 대해 설명한다.

Комментарии • 28

  • @오승호-s6s
    @오승호-s6s 4 года назад +3

    명강 중의 명강입니다! 개념 이해하는데 많은 도움이 되었습니다 교수님 :) 감사합니다

  • @yunshallow
    @yunshallow 4 года назад +4

    좋은 강의 감사합니다. :)

  • @최철-q3r
    @최철-q3r 4 года назад +2

    너무 좋은 내용 감사합니다

  • @EJ-lz6nc
    @EJ-lz6nc 2 года назад

    교수님 좋은 강의 감사합니다. 확률통계->예측모델->머신러닝 순으로 공부해왔는데 이번 HMM은 이해하는데 상대적으로 많은 시간을 들였습니다. 부던히 복습하면서 숙련도를 높여야겠다....생각합니다. 감사합니다.

  • @chaechaey4266
    @chaechaey4266 3 года назад

    이렇게 자세히 친절하게 설명된 강의 처음봅니다 정말 감사드려요!!!

  • @namuni67541
    @namuni67541 3 года назад +1

    감사합니다! Part1부터 보았는데 이전에 HMM 파라미터 학습에 대해서는 잘 모르고 넘어갔었는데 명쾌하게 이해시켜주시네요! 핵심 머신러닝 강의 모두 완강했습니다! 또 좋은 강의 부탁드립니다 :)

  • @김준현-g9p1q
    @김준현-g9p1q 4 года назад +5

    안녕하세요 교수님을 통해서 PCA, HMM 등을 공부하고 있습니다. 아무래도 관련학과가 아니라서 어려움이 많은데 교수님 덕분에 너무 쉽게 잘 이해하고 있습니다. 바쁘시겠지만 앞으로도 좋은 강의 부탁드립니다^^ (그리고.. 혹시 가능하시면 Gaussian Mixture도 부탁드립니다 ㅠ_ㅠ)

  • @dukeyang777
    @dukeyang777 Год назад

    hmm 을 잘 이해하게 되었습니다.. 감사합니다

  • @황태호-j3r
    @황태호-j3r Год назад

    감사합니다. 덕분에 잘배웠습니다 :)

  • @jwd3110
    @jwd3110 3 года назад +1

    오타 제보요! slide 3의 emission probability의 sum이 1이기 때문에 sigma j=1 to n 이 아니라, sigma k=1 to m 인 것 같습니다ㅎㅎ

  • @heecheolcho3246
    @heecheolcho3246 3 года назад

    decoding example에서 viterbi 확률 계산 후, state sequence를 찾는 과정에서 viterbi 확률이 큰 값으로 찾아가고 있습니다. viterbi확률이 아니라, tau_t(i)값으로 찾아야 하는 것 아닌가요?
    slide 21: viterbi algorithm에서는 맞게 설명하고 있고요.

  • @1llionaireRecordsOfficial
    @1llionaireRecordsOfficial 2 года назад

    교수님 안녕하세요. 좀 멍청할 수 있는 질문을 하나 드려도 될지요...?
    말씀하실때 estimation이라는 단어를 많이 사용하시던데, 저는 딥러닝 실무에 있는 입장으로써, parameter estimation을 하는 작업이 결국 모델 optimization 작업과 같은 맥락으로 이해해도 될지 궁금해서요.
    근데 생각해보면 딥러닝에서는, 이를테면 경사 하강법과같은 optimization의 수학적 솔루션들이 있어서, 여기서는 최대우도법을 동일한 개념으로 이해하고 접근해도 될까요?
    티스토리를 작성함에 있어서, 무지함보다 어중간하게 알고있는 지식이 더 무서운 것이길 알기에, 염치 불구하고 질문드려봅니다...ㅎㅎ
    새해복 많으받으시고, 건강하시고, 올 한해도 좋은 강의 많이 해주시길 부탁드립니다!

    • @김성범교수산업경영공
      @김성범교수산업경영공  2 года назад

      잘 이해하고 계신 것 같습니다. 말씀하신대로 parameter estimation 과 모델 optimization은 동일한 개념으로 봐도 무관합니다. Estimation은 전통 통계분야에서 쓰는 용어로 주어진 (샘플)데이터로 부터 파라미터를 찾는 과정을 통칭합니다. Estimation을 하기 위해서는 optimization 방법론을 써야 합니다. 머신러닝 모델은 비용함수(cost function)을 최소화 하는 방향으로 파라미터를 찾게 되는데 (혹은 파라미터를 추정하게 되는데), 비용함수가 결국 전통 optimization에서는 목적함수(objective function)이 되고, 결국 optimization 방법을 통해 파라미터를 찾게 되는겁니다. 최대우도법도 목적식이 우도함수(확률함수)여서 최대화를 하는 거지 결국 optimization 방법을 통해 파라미터를 찾게 됩니다.

  • @heecheolcho3246
    @heecheolcho3246 3 года назад

    slide 36에서 \pi_i^{new} 식에서 \gamma_t(i)로 되어 있는데, t=1을 표시해야 할 것 같습니다. \gamma_{t=1}(i)

  • @heecheolcho3246
    @heecheolcho3246 3 года назад

    pseudocode의 \gamma_t(j) 식 분모에 있는 q_F가 어떤 것인가요? notation 이해를 잘 못하겠습니다.

  • @heecheolcho3246
    @heecheolcho3246 3 года назад

    오타: slide 21 viterbi algorithm 3번째 줄에서 b_i(o_1) ==> b_i(o_t)

  • @홍코몽
    @홍코몽 3 года назад

    강의 감사드립니다.
    이번강의는 중간에 편집된 내용이 많은것같네요

  • @hwanginchan4478
    @hwanginchan4478 3 года назад

    좋은강의 감사합니다~ Markov Chain Monte Carlo algorithms은 혹시 강의하시나요?