贝叶斯解释“L1和L2正则化”,本质上是最大后验估计。如何深入理解贝叶斯公式?

Поделиться
HTML-код
  • Опубликовано: 29 сен 2024
  • 用贝叶斯概率理解L1和L2正则化,它们本质上是最大后验估计
    如何直观理解先验概率、后验概率
    什么是最大后验估计,与最大似然估计的区别是什么?
    用贝叶斯主义思想去理解机器学习

Комментарии • 16

  • @ztc106
    @ztc106 2 года назад +6

    花了二個星期,終於把 13集影片全部看完。每一集都很精彩!

    • @mo6982
      @mo6982 Год назад

      这就是课代表的力量。教授说的东西太脱离学生的实际了。课代表做了很好的沟通。

  • @zichenwang8068
    @zichenwang8068 2 года назад +1

    木头哥可以启用”超级感谢“功能吗?

  • @xiaomingliu5195
    @xiaomingliu5195 2 года назад +1

    从贝叶斯理解梯度下降也解释了为什么使用历史参数可以帮助优化梯度下降法。

  • @しろくま-x5n4b
    @しろくま-x5n4b 2 года назад +2

    贝叶斯,期待

  • @chiaominchang
    @chiaominchang 3 месяца назад

    ❤❤❤

  • @genomedata
    @genomedata 5 месяцев назад

    16:07

  • @yuwu7547
    @yuwu7547 11 месяцев назад

    最后进行梯度下降那里没看懂。 s_{t}, s_{t+1}是指不同时刻的模型参数吗?

    • @michelyupeng
      @michelyupeng 8 месяцев назад

      剃度就是对概率函数的偏导数形成的向量,这里就是求s序列中最大的s值,本质上导数是求函数最大值或者最小值,就是切点的值

  • @michelyupeng
    @michelyupeng 8 месяцев назад

    关键是学习率如何取,这里剃度下降最关键是学习率的取值,如果学习率太大就偏离了实际最大值,太小步骤太多,影响求剃度效率

  • @michelyupeng
    @michelyupeng 8 месяцев назад

    厉害👍🏻,国内买的印度人写的中文翻译书,最大易燃函数就没看懂,听见君一席话,胜读十年书,贝叶斯牛逼

  • @gordonwong2220
    @gordonwong2220 Год назад +1

    太棒了👏

  • @yihanzhong6183
    @yihanzhong6183 2 года назад +1

    这么好的视频!!感动

  • @Rosie-lh5ge
    @Rosie-lh5ge 6 месяцев назад

    Thanks!

  • @JL-mu6wp
    @JL-mu6wp 2 года назад

    我跪著看完! 實在太厲害了

  • @youyoutianbulao
    @youyoutianbulao Год назад

    非常精彩的阐述和推导!