좋은 강의 잘 들었습니다. 그런데 backward algorithm에 대한 이해가 부족하여 질문드립니다. forward 같은 경우는 T시점의 hidden states 와 Observation에 대한 확률을 구하고 그것을 전이 행렬에 곱하여, 그 다음 T+1의 상태(T에 대한 상태를 그대로 포함하는) 에 대한 확률을 계산하는 것으로 이해하였습니다. 그런데 backward의 경우에는 1로부터 시작하여 거꾸로 가는 것인데, 따로 전이 확률의 역수를 곱하는 것이 아니라 그대로 hidden states가 영향을 끼치는 이전 hidden states에서의 전이 확률을 그대로 곱하면 된다는 것이 납득이 잘 되지 않습니다. 단순히 생각해보면 항을 옮겨서 A4에 대한 식을 A3에 대한 식으로 바꾸어 준 것 같은데 맞나요? backward algorithm에 대한 더 자세한 전개 과정이 있을까요?
안녕하세요. BI 쪽 대학원생 입니다. 그동안 paired HMM 공부하며 깔끔하게 정리가 안되었는데, 강의 듣고 나니 이제서야 제대로 이해했네요. 감사합니다
감사합니다!
정말 참 교수님... 감사합니다!!
감사합니다~
교수님 좋은 강의 정말 감사합니다 ^^
와... 진짜 감사합니다! part 2 도 기다리겠습니다ㅠㅠㅠ
교수님, 감사합니다!!
플젝 진행하면서 hmm도 연구분야에서 좋은 모델이라고 해서 그것도 함께 쓰려고 찾아왔습니다~~ 감사합니다!!
감사합니다~
좋은 강의 올려주셔서 감사합니다.
감사합니다!
교수님 항상 재밌게 듣고 있습니다!!
감사합니다!
55:18 부분에 π2가 0.4인데 π1이 0.4로 표기 된것 같네요!
대단히 감사합니다 ㅠㅠㅠ 항상 재밌게 듣고 있습니다 교수님
감사합니다!
강의가 너무 깔끔해서 좀 정리해서 티스토리 포스팅에 활용하고자 합니다. 출처도 밝혀놓을 예정이구요, 혹시 활용해도 될까요??
네. 그렇게 하세요. 미리 말씀해 주셔 감사합니다.
27분에 나오는 슬라이드 emission probability 의 합 조건이 잘못된 것 같습니다. summation{from k =1 to m} bj(vk) = 1이여야 되는것 같습니다.
좋은 강의 잘 들었습니다. 그런데 backward algorithm에 대한 이해가 부족하여 질문드립니다.
forward 같은 경우는 T시점의 hidden states 와 Observation에 대한 확률을 구하고 그것을 전이 행렬에 곱하여, 그 다음 T+1의 상태(T에 대한 상태를 그대로 포함하는) 에 대한 확률을 계산하는 것으로 이해하였습니다. 그런데 backward의 경우에는 1로부터 시작하여 거꾸로 가는 것인데, 따로 전이 확률의 역수를 곱하는 것이 아니라 그대로 hidden states가 영향을 끼치는 이전 hidden states에서의 전이 확률을 그대로 곱하면 된다는 것이 납득이 잘 되지 않습니다. 단순히 생각해보면 항을 옮겨서 A4에 대한 식을 A3에 대한 식으로 바꾸어 준 것 같은데 맞나요? backward algorithm에 대한 더 자세한 전개 과정이 있을까요?
강의자료 이상 자세히 설명드리기는 쉽지 않을 것 같습니다. 차분하게 몇 번 더 보시면 이해가 될 수 있을 것으로 기대합니다. 저도 처음 이해할 때 쉽지 않았습니다~
와... 대단히 감사합니다. ㄷㄷㄷ
감사합니다!
정말 깔끔하게 이해가 되었어요. 너무 감사합니다.
감사합니다!
교수님 44분20초쯤 나오는 두개 스테이트의 더한값이 0.00111이 아니라 0.01111 인것 같습니다
교수님 강의 잘들었습니다. 개인적으로 필기해서 추후에 다시 공부해 보고 싶은데 강의자료는 받을 수 없을까요?
PDF 강의자료 공개는 아직 고민 중입니다... 늦은 답변 미안합니다~
감사합니다..
감사합니다~
맥시멈앤트로피 마코프모델도 혹시하시나요?...ㅎㅎ
slide 23에 오타: emisstion --> emission
감사합니다!
33:02
이 강의가 작년에만 올라왔어도... 음성인식 수업때 죽쑤지 않았을텐데..
ㅎㅎ 감사합니다!