십분딥러닝_16_WGAN (Wasserstein GANs)_1

Поделиться
HTML-код
  • Опубликовано: 4 фев 2025

Комментарии • 10

  • @ro856
    @ro856 4 года назад +1

    좋은 영상 감사합니다. 15:05 여기에서 jsd는 대칭성을 가집니다.

    • @10mindeeplearning
      @10mindeeplearning  4 года назад

      그렇죠... KL-divergence에 대칭성을 부여하기 위해 만든 metric이다 보니...설명에서 명시적으로 설명하진 않았지만..kl에 대한 설명으로 이해해 주시면 좋을 것 같아요.

  • @마드모아젤-n7x
    @마드모아젤-n7x 3 года назад

    감사합니다

  • @eundong4
    @eundong4 5 лет назад +1

    좋은 비디오 감사합니다. 슬라이드 4장에서 Pr(x)의 entropy와 Pg(x)의 entropy 차가 아니고 Pg(x)의 entropy와 Pr(x)의 entropy 차가 맞습니다. entropy는 Pr(x)(1/log(Pr(x)))의 적분입니다. 그러니까 첫번째 적분 텀에 -가 붙어야 entropy입니다.

    • @10mindeeplearning
      @10mindeeplearning  5 лет назад

      아..제가 또 실수를 한 것 군요...ㅠ 다음 영상부터는 검토를 철저히 하도록 하겠습니다. 지적해주셔서 감사합니다:)!

  • @maxamedyasinsicid2629
    @maxamedyasinsicid2629 5 лет назад

    Looks interest explanation

  • @meet_minimalist
    @meet_minimalist 6 лет назад +2

    Please provide subtitles in english and slideshow in english.

  • @maxamedyasinsicid2629
    @maxamedyasinsicid2629 5 лет назад +1

    Please provide subtitles in english and slideshow in english.