Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
좋은 영상 감사합니다. 15:05 여기에서 jsd는 대칭성을 가집니다.
그렇죠... KL-divergence에 대칭성을 부여하기 위해 만든 metric이다 보니...설명에서 명시적으로 설명하진 않았지만..kl에 대한 설명으로 이해해 주시면 좋을 것 같아요.
감사합니다
좋은 비디오 감사합니다. 슬라이드 4장에서 Pr(x)의 entropy와 Pg(x)의 entropy 차가 아니고 Pg(x)의 entropy와 Pr(x)의 entropy 차가 맞습니다. entropy는 Pr(x)(1/log(Pr(x)))의 적분입니다. 그러니까 첫번째 적분 텀에 -가 붙어야 entropy입니다.
아..제가 또 실수를 한 것 군요...ㅠ 다음 영상부터는 검토를 철저히 하도록 하겠습니다. 지적해주셔서 감사합니다:)!
Looks interest explanation
Please provide subtitles in english and slideshow in english.
Oh..I'll try it ASAP.. I didn't expected that..
Oh I wanna do that. But it is hard to do...to me
좋은 영상 감사합니다. 15:05 여기에서 jsd는 대칭성을 가집니다.
그렇죠... KL-divergence에 대칭성을 부여하기 위해 만든 metric이다 보니...설명에서 명시적으로 설명하진 않았지만..kl에 대한 설명으로 이해해 주시면 좋을 것 같아요.
감사합니다
좋은 비디오 감사합니다. 슬라이드 4장에서 Pr(x)의 entropy와 Pg(x)의 entropy 차가 아니고 Pg(x)의 entropy와 Pr(x)의 entropy 차가 맞습니다. entropy는 Pr(x)(1/log(Pr(x)))의 적분입니다. 그러니까 첫번째 적분 텀에 -가 붙어야 entropy입니다.
아..제가 또 실수를 한 것 군요...ㅠ 다음 영상부터는 검토를 철저히 하도록 하겠습니다. 지적해주셔서 감사합니다:)!
Looks interest explanation
Please provide subtitles in english and slideshow in english.
Oh..I'll try it ASAP.. I didn't expected that..
Please provide subtitles in english and slideshow in english.
Oh I wanna do that. But it is hard to do...to me