Deep Learning精度向上テクニック:様々な最適化手法 #1

Поделиться
HTML-код
  • Опубликовано: 20 дек 2024

Комментарии • 12

  • @bigbangnuc
    @bigbangnuc Год назад

    わかりやすっ。感謝です。

  • @mtmotoki2
    @mtmotoki2 3 года назад

    RMSPropの式の意味がよくわかってなかったんですが、この動画の説明でりかいできました。ありがとうございます

  • @iamtherefore278
    @iamtherefore278 3 года назад +2

    ド素人だけど今回の動画でかなり理解が進んだ

  • @takumih7276
    @takumih7276 4 года назад +2

    分かりやすい!!

  • @有休の旅人
    @有休の旅人 2 месяца назад

    SGDはあくまで最も下に降る方向に対して移動するので、例のような等高線を持つ誤差関数では、等高線に対して直交、等高線の間隔が狭い縦間での移動によって最適解に近づいていくので、横方向には移動できず最適解に到達するまで時間がかかるわけですね。また、ロスの小さい等高線を通り過ぎないように、学習率を小さくすると更新量が小さくなって最適化に時間を要しすぎると。
    そこで、より高速で最適解に辿り着く方法として以下の通りあると。
    1.Momentum法
    更新量について、最急降下方向に加えて、前回からの更新方向も加味してパラメータを更新。稜線付近ではSGDは1次の負の自己相関のように正負を繰り返すが、Momentumは過去からの更新量も加えて加味するので符号が相殺されて、ジグザグせずにスムーズに最適解へ向かえる。

  • @mumumu_you
    @mumumu_you 4 года назад +5

    手法ごとの違いが目に見えてとてもわかりやすい

  • @うなな-d2e
    @うなな-d2e Год назад

    RMSはRouteMeanSquareのことなのか、納得!

  • @poe0611
    @poe0611 2 года назад +2

    BGMなしバージョンが欲しいです。

  • @MorningChoco
    @MorningChoco 3 года назад

    小林さん説明うますぎ!!

  • @競馬のひとりごと
    @競馬のひとりごと 2 года назад

    MomentumとNAGの更新式において正負の符号が逆だと思います。慣性項が加算でなく減算されてしまうので。
    また、勾配をデルタで表記してますが、微分演算子のナブラが適切ではないでしょうか。
    以上、気になる点を挙げましたが、E資格の勉強に役立つ動画です。ありがとうございます。

  • @cheejpn
    @cheejpn Год назад

    私もBGMなしバージョンがあるといいな、と思いました

  • @刹那しあ
    @刹那しあ 5 месяцев назад

    Adamすごっww