【機器學習2021】神經網路壓縮 (Network Compression) (二) - 從各種不同的面向來壓縮神經網路

Поделиться
HTML-код
  • Опубликовано: 10 июн 2021
  • speech.ee.ntu.edu.tw/~hylee/m...
  • НаукаНаука

Комментарии • 12

  • @williechen1876
    @williechen1876 3 года назад +19

    端午連假不出門,在家上老師的課程 讚

  • @steven-lin
    @steven-lin 3 года назад +5

    週末就是要來上課看老師的影片啦

  • @moluo3048
    @moluo3048 3 года назад +2

    李老师的课就是通俗易懂

  • @r321032100
    @r321032100 2 года назад +3

    照這樣發展下來...
    以後就會有各領域的Expert Net
    再由這些Exper Net融合訓練出全知全能的God Net
    然後最後God Net就說出: 痛みを感じろ痛みを考えろ
    The End.

  • @sq9340
    @sq9340 3 года назад

    13:00 上一届留言的问题终于有同学帮我问了 感谢😆

  • @shadownight5679
    @shadownight5679 2 года назад +1

    想請問各位和老師
    52:00 在老師講到 Dynamic Width Network 是可以讓 network 根據運算資源的多寡去自動調整他的寬度
    腦袋中有個想法,因為看到寬度的這些圖,讓我想到跟 network pruning 以 neuron 來做為 pruning 單位的圖很像。
    如果是以 pruning 的每一個 update 當作是一個能夠在考慮運算資源中的 network
    ( 以課堂上為例,在還沒看過 paper 的情況下,認為是隨機去刪除 25% , 50% 的 neuron 當作其餘選項的 network ,我的想法是用 pruning 的每一個 update 當作一個選項 )
    這樣會有效提高每一個選項的 accuracy 嗎,還是只是多此一舉或者是跟原本Dynamic width的想法偏離了
    以上想問 謝謝 !!

  • @bingbingsun6304
    @bingbingsun6304 2 года назад

    binary 的系数,但是节点还是实数吧,这样确实应该没有区别,因为 a*b=(ab)*1, 可以把实数表达的需要转嫁到节点上。

  • @feixiongluo4198
    @feixiongluo4198 3 месяца назад

    great leacture

  • @user-zj8vv4qb6s
    @user-zj8vv4qb6s 2 года назад +1

    想問一下老師有機會講到神經搜索架構嗎?
    因為這方面網路上都講得蠻攏統的

  • @user-ns6ux7jq7v
    @user-ns6ux7jq7v Год назад

    感覺卷積層跟池化層好像

  • @miku3920
    @miku3920 3 года назад +1

    10:19 直接把 softmax 拔掉呢

    • @arvinliu9858
      @arvinliu9858 3 года назад

      的確也有KD是直接對score做L2-loss