“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”

Поделиться
HTML-код
  • Опубликовано: 2 июл 2021
  • 设计损失函数是的3个常见方法,其中交叉熵是设计概念最多的。
    一个视频把“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”,这些概念彻底搞明白。
  • НаукаНаука

Комментарии • 118

  • @JJjon13
    @JJjon13 2 года назад +49

    一开始偶然看到兄关于卷积的视频还觉得解说的有些繁琐,后来又看了几集越看越精彩直到这集,兄的解说思路是从一个认真思考学习者的角度去展开,里面涉及的很多问题如果你是一个爱思考的读者的话肯定会碰到,这里面也解答了我的很多疑惑,给了很大启发,做这种水准的视频一定很费时间,希望木头兄能够坚持下去,加油!!!

  • @Rosie-lh5ge
    @Rosie-lh5ge 5 месяцев назад +6

    我非常喜欢你的思维方式,问为什么及解答为什么远比给出公式更重要! 你是迄今为止把neural network 说得最透彻的一个人,没有之一!❤❤❤

  • @chiangmj9442
    @chiangmj9442 3 месяца назад +1

    講得真好!王老師不只知其然,還知其所以然。如同物理大師費曼一樣,不只懂表面運用,還懂其真髓,能把一個抽象的概念,介紹給像我這樣的外行人聽懂,真了不起,感謝!

  • @mingyangge5425
    @mingyangge5425 Год назад +5

    讲力的定义那段真是醍醐灌顶❤

  • @smocare7659
    @smocare7659 Месяц назад

    博主太牛了, 而且讲课的思维方式和愿意和观众分享自己的学习过程的讲课方式让人耳目一新,让人知其然,也知其所以然,我愿意做你铁粉,而且把你当做我的榜样和目标!

  • @yhj2580
    @yhj2580 Год назад +3

    这个博主真的是太牛了,不光是讲了知识,更是讲了问题以及解决问题方法的来龙去脉。中国的中小学和大学如果都是这样培养学生的,那我相信培养出来的学生更能够具有探索未知的能力,而这正是科技进步的源动力。

  • @chriskong7418
    @chriskong7418 9 месяцев назад +2

    王老师讲的太好了,不是在“灌输”知识,而是真的在让人学到知识。

  • @madcauchyren6209
    @madcauchyren6209 10 месяцев назад +4

    根据我的记忆,极大似然法的log是因为假设随机变量遵守正态分布而来的,不是单纯的连加连乘的喜好问题。如果假设随机变量遵守另外的分布,表达式也应该有不同。

  • @ralphchien184
    @ralphchien184 Год назад +4

    交叉熵這個數值實在很難用一般直觀的物理量才解釋,但是能夠把他解釋得清楚的人,肯定非常理解該數值的定義還有應用,木頭哥視頻的高智商解說確實令人印象深刻,小弟徹徹底底佩服了!

  • @michelletan4249
    @michelletan4249 Год назад +2

    老师讲的课太深入浅出了, 把深奥的公式剖析地浅显易懂! 辛苦了。 在您的视频里我真的学到了很多! 谢谢谢谢!

  • @zhangzq71
    @zhangzq71 10 месяцев назад +1

    从具体精确的知识到泛泛的人生哲学都讲得这么通透确实让人佩服。

  • @xzl20212
    @xzl20212 2 года назад +7

    同感,从自发的问题中学习让知识长出来,并且自洽是种享受。但有时侯总是有着对知识本身的着迷然后学到一半发现暂时不能联系甚至不能自洽。为了避免这部分知识给自己脑子熵增,要不断清理整合。您的视频就对此贡献很大,感谢🌹

  • @Most-qn4fc
    @Most-qn4fc 2 года назад +2

    你的视频讲的太好了,很多过去似懂非懂的地方听了之后,都能很清晰很通透的理解了。比如定义和等号的那部分以及熵的那部分讲解。很难找到其他人讲的如此通透,大多是应用角度的介绍,这样很难知其所以然。理解一个概念时遇到另一个不懂的概念,是很难做到通透的,更难在未来面对问题时灵活应用。感谢你的视频!

  • @ztc106
    @ztc106 2 года назад +7

    這個視頻的解說重視「why」,更勝於重視「how」。比大學教授的講解更精彩!

  • @hbj418
    @hbj418 Год назад +2

    从知识体系中生长出来的,而不是移植过来的,说的太棒了,我可以用来教育我的小孩!

  • @liman8622
    @liman8622 Год назад +2

    讲的太好了,如果将一个知识体系比作一个宇宙,博主给了我们视角来看宇宙是怎么形成的,之后在让我们来观测宇宙内部的星系,大赞

  • @qilingzhang-ys7bc
    @qilingzhang-ys7bc 2 дня назад

    🎉🎉真的给王老师点赞,获益匪浅

  • @guestg4556
    @guestg4556 Год назад +1

    享受思考的过程。
    你是独一无二的播主。多谢。

  • @davismao
    @davismao 6 месяцев назад +4

    套一句李鴻毅教授說過的話 most likelihood完全等價於least cross entropy

  • @zyhuang9056
    @zyhuang9056 10 месяцев назад +1

    这个视频最后的总结十分精彩!通过对学习和知识的理解再一次展现出信息量的重要性,同时又启发我们去思考什么学习才是真的学习,赞!

  • @user-zn6ck3yi8d
    @user-zn6ck3yi8d 11 месяцев назад +1

    up主讲得真好,第一次如此深入的了解了交叉熵的概念。

  • @shaoyinguo415
    @shaoyinguo415 4 месяца назад

    王老师这完全是从第一性原理思考啊,最后一段太谦虚了,敬佩

  • @linHsinHsiang
    @linHsinHsiang Год назад +1

    謝謝王老師!能在廣大網路找到你的影片真是無比幸運的一件事 最喜歡老師您會解釋公式的思想,讓我能跟了解大學所學的內容 而且背起來也比較舒適!

  • @michelyupeng
    @michelyupeng 5 месяцев назад +1

    重心在于学习,下周一应聘,你这视频对我太重要了,看书看了好多遍不如看视频一遍

  • @jackwang7425
    @jackwang7425 Год назад +1

    很少评论,但是对于你这样的学习方法特别认同,点赞了

  • @heartsun7301
    @heartsun7301 2 года назад +4

    木头老师,分享心中的自洽圆满的过程,不要在乎是否小众还是大众,本来世间在有限的时间发现激活函数的概率就不高,所以不要在乎别人的看法。

  • @robinsonting4486
    @robinsonting4486 3 месяца назад

    完全赞同王老师的观点,每期都是一开头就点赞了,因为听到了王老师解惑的过程中的思考

  • @robinwang1129
    @robinwang1129 4 месяца назад +1

    本家木头一点不木, 头脑灵活, 口齿清楚! 加油❤

  • @Hanna_Emma
    @Hanna_Emma 8 месяцев назад +2

    最后的总结太棒了!之前一直困惑中外教育的本质差别,身有体会,带也讲不清楚。突然感觉悟到了。感谢分享。希望能在学习的视频后面加上更多类似的“哲学”探讨。非常吸粉!

    • @Hanna_Emma
      @Hanna_Emma 8 месяцев назад

      能加个LinkedIn吗?

  • @c_kevin9736
    @c_kevin9736 Год назад +1

    (正确的知识,可能比不上真问题)
    谢谢王老师,您的视频对我受益良多,我选择也是学习。

  • @fanliu9233
    @fanliu9233 Год назад +1

    讲的太好了!看完感觉都通透了,把很多知识点融会贯通了

  • @zhengjiang9375
    @zhengjiang9375 2 года назад +3

    讲的太好了!This video deserves one million views.

  • @tigerwang8302
    @tigerwang8302 5 месяцев назад +2

    最后的一段话也是一个人获取信息的规律,先抽象再具象。

  • @gausseking
    @gausseking 2 года назад +1

    讲得很好。概念非常清晰。感谢。

  • @liangzhou-hk2cm
    @liangzhou-hk2cm 2 месяца назад

    太牛了,一口气看完,加油💪🏻

  • @puwenjun
    @puwenjun Год назад +1

    太牛了,很多概念能串起来,说明up对概念理解的深入

  • @jminwu587
    @jminwu587 2 года назад +1

    感谢up主。涨了知识,更涨了思维方式

  • @joetsai4676
    @joetsai4676 2 года назад +3

    最后一段话说得太好了!

    • @dja6677
      @dja6677 2 года назад

      真的太好了

  • @woodywan4010
    @woodywan4010 2 года назад +1

    講得太好了!問題才是學習的源頭!不帶著疑問去學習效率真的很低

  • @user-jk9md5jn2t
    @user-jk9md5jn2t 7 месяцев назад +1

    讲得很好,学习探索的心态值得我学习。

  • @bangbangbang673
    @bangbangbang673 Год назад +2

    加油加油,,,感觉是看过最好的视频了

  • @azurewang
    @azurewang 2 года назад +1

    非常清晰,严谨!

  • @plusdesigner5509
    @plusdesigner5509 2 года назад +1

    给博主点赞,希望多发视频

  • @user-cy7rg5ed3u
    @user-cy7rg5ed3u 2 года назад +1

    哇,作者太厉害了,我有收获,谢谢你

  • @yunliangli8068
    @yunliangli8068 9 месяцев назад +1

    非常感谢,如此精彩的视频

  • @yunliangli8068
    @yunliangli8068 Год назад +1

    厉害👍👍 多谢这么精彩的视频

  • @sanko9967
    @sanko9967 Год назад +1

    👍👍👍讲得太好了,佩服。

  • @chc1006
    @chc1006 2 года назад +1

    木头哥把神经网路中的重点概念的直觉説得很清楚,我是中英文双声道,这是RUclips 中最有效吸收NN 理论和直觉的频道。

  • @michaelchien6680
    @michaelchien6680 5 месяцев назад +1

    受益良多,真是非常感謝.

  • @tigerwang8302
    @tigerwang8302 5 месяцев назад +1

    给up主点赞。

  • @nikkilin4396
    @nikkilin4396 Год назад +1

    好喜欢你的思维方式。

  • @user-nr1qm8ie3h
    @user-nr1qm8ie3h Год назад +1

    讲的真不错,点赞

  • @PistachioAlgorithm
    @PistachioAlgorithm 2 года назад +1

    谢谢王老师,这个课太棒了!!!!!!!!

  • @lar4853
    @lar4853 2 года назад +1

    淺顯易懂的解釋,謝謝你。不過要小心乳滑😆😆

  • @xueyingcheng7614
    @xueyingcheng7614 10 месяцев назад +1

    講的太好了!!!謝謝您!

  • @kevinlou8374
    @kevinlou8374 2 года назад +1

    講得很好呀兄弟!!

  • @leonlau3897
    @leonlau3897 Год назад +1

    讲得太好了,厉害👍🏻

  • @user-gu7qs9sq7q
    @user-gu7qs9sq7q Год назад +2

    又教知识,又教哲学,太屌了

  • @lawrenceho7731
    @lawrenceho7731 2 года назад +1

    您好,很喜欢您的解说,方便给我您这些课件么?可以更好的对照学习~

  • @michelyupeng
    @michelyupeng 5 месяцев назад +1

    多谢,终于通透了

  • @LichengBao-to6eb
    @LichengBao-to6eb Год назад +1

    必须要点赞

  • @jp4815
    @jp4815 2 года назад +1

    excellent teacher!!!

  • @user-pd2ly3bk2t
    @user-pd2ly3bk2t 3 месяца назад

    思考:
    自己想要解决的问题,就是有价值的,因为信息量非常大。
    熵在变小的过程中,会针对这个问题搜集到的信息量,产生新的问题。
    那就会产生更多的信息量。
    所以,要去提问,更要去解决。
    不提问,就没有信息量。
    不解决,就不会有更多信息量。
    最后的良性循环是,成指数倍的信息量,能增加自信、专业度,再去促使自己研究和进步(◍•ᴗ•◍)......

  • @yingjiaguo8319
    @yingjiaguo8319 2 года назад +2

    最后那一段讲的太好了!

    • @yingjiaguo8319
      @yingjiaguo8319 2 года назад

      信息量是学习的一个特别好的视角

  • @jx5534
    @jx5534 6 месяцев назад +1

    信息量这个讲的真好

  • @user-eh1jb7zi3k
    @user-eh1jb7zi3k 2 года назад +1

    很棒!讚讚讚!!!

  • @howgreatmars
    @howgreatmars 10 месяцев назад +1

    讲的太好了

  • @user-nr8oi6nv3r
    @user-nr8oi6nv3r 4 месяца назад

    超棒的~

  • @haoyulin3153
    @haoyulin3153 2 года назад +1

    太精彩了

  • @dextersherloconan2522
    @dextersherloconan2522 3 месяца назад

    19:55 一个问题:到底哪个概率测度是“基准”?同样的表达式,视频里说的是前者P,维基百科(及很多其它资料)说的是后者Q是基准。另外,KL散度的计算式是基于概率测度(离散:概率质量函数PMF; 连续:概率密度函数PDF),因此后面举的机器学习的例子在统计学里,应该是不严谨的,即KL散度是无法直接在样本数据上计算的。

  • @chiangmj9442
    @chiangmj9442 3 месяца назад

    謝謝!

  • @yichi-xuan
    @yichi-xuan Год назад +1

    感恩

  • @jatosalo5055
    @jatosalo5055 Год назад +1

    天啊 這教學太棒了

  • @YingleiZhang
    @YingleiZhang 4 месяца назад +1

    ·赞一个!

  • @dawndusk4962
    @dawndusk4962 2 года назад +1

    感同身受

  • @yeelignyee3767
    @yeelignyee3767 2 года назад +1

    赞赞赞!

  • @plusdesigner5509
    @plusdesigner5509 2 года назад

    博主有没有考虑过e=mc2的问题,这个是定义还是定理,如何自洽的

  • @kfwai1248
    @kfwai1248 Год назад +1

    支持😀

  • @yoyooversea
    @yoyooversea 24 дня назад

    高高手!仰慕!

  • @yixuan9213
    @yixuan9213 11 месяцев назад +2

    聪明啊

  • @kaik7859
    @kaik7859 2 года назад +1

    讲的太好了,不过还是适合有点基础的人

  • @minglee5164
    @minglee5164 8 месяцев назад +1

    后面的话更加精彩

  • @jasonto5869
    @jasonto5869 2 года назад +1

    受教了

  • @joedavid1809
    @joedavid1809 2 года назад +1

    牛🐮

  • @JK-sy4ym
    @JK-sy4ym Месяц назад

    太棒了五体投地

  • @sophiez7952
    @sophiez7952 2 месяца назад

    学习!+ then knowledge

  • @enchang2957
    @enchang2957 Год назад +2

    阿根廷真的奪冠了...

  • @xsr1551
    @xsr1551 Год назад +1

    阿根廷夺冠都被你猜到了 厉害

  • @user-TweetyBird
    @user-TweetyBird 4 месяца назад

    原来如此

  • @lokk8301
    @lokk8301 11 месяцев назад +1

    我透了吧。我透了,學錯了,也會學對的!謝謝!謝謝!

  • @user-no3et7cy5o
    @user-no3et7cy5o 3 месяца назад

    感觉信息量更像是震惊值

  • @michellet5795
    @michellet5795 2 года назад +1

    激活函数是学习 +1

  • @pikaiaguo8579
    @pikaiaguo8579 Год назад +2

    看来up主不是狐狸,因为:“高斯象一只狐狸,用尾巴扫砂子来掩盖自己的足迹。”

  • @gzbin365
    @gzbin365 2 года назад

    1/1024 哈哈哈哈 XD

  • @cczhu3623
    @cczhu3623 Год назад +1

    你说的我感觉三个字:
    你懂我

  • @KennethKamhw
    @KennethKamhw Год назад

    F的定義不是ma, 是d(mv)/dt吧。。。

  • @sophiez7952
    @sophiez7952 2 месяца назад

    知识1

  • @rc_youtubeaccount1331
    @rc_youtubeaccount1331 2 года назад +1

    👍👍👏

  • @hsintong177
    @hsintong177 Год назад +1

    哥 請受我一拜

  • @chenning1799
    @chenning1799 2 года назад

    你说的连加的n或m的解释有点问题。你说的交叉熵中的n或m指的是随机变量的取值的数目,但在解释机器学习时候,这个n和m你换成了样本数目,如果按照交叉熵来说,这个n或m应该是2或别的(如猫狗兔之类的分类数目)。这样,你没觉得这里还没说清楚么?

    • @bohuang5586
      @bohuang5586 2 года назад +1

      木头老师这里有个跳跃:讲KL散度时用了P和Q两个概率分布。这时是你说的分类数目:如是猫和不是猫。在说到神经网络的时候,是n个图片有k个猫和n-k个不是猫一起发生的概率分布(或者likelihood)。这个概率分布和预测的概率分布比较。