Deep Learning入門:ニューラルネットワーク学習の仕組み

Поделиться
HTML-код
  • Опубликовано: 24 апр 2019
  • この動画では、ニューラルネットワークの数学的基礎として、またパラメータ学習のために用いられる手法として、ミニバッチ勾配降下法(Minibatch Gradient Descent)、Back propagationについてできるだけ分かりやすく解説します。
    前回の動画(ニューラルネットワークの多層化テクニック)はこちらです。
    • Deep Learning入門:ニューラルネ...
    Deep Learningとは?
    • Deep Learning入門:Deep L...
    再生リスト「Deep Learning入門」
    • Deep Learning入門
    Neural Network Console
    dl.sony.com/ja/
    Neural Network Libraries
    nnabla.org/ja/
  • НаукаНаука

Комментарии • 30

  • @user-pb8ib2im7o
    @user-pb8ib2im7o 4 года назад +26

    本気で分かりやすい動画です。
    他の動画や書籍はどうしても微分過程での連鎖律とのつながりがイメージできないものが多い中、この動画であれば初学者に対しても理解を促しやすいと感じられました。

  • @AlexAlex-qh3ji
    @AlexAlex-qh3ji 4 года назад +5

    簡単→詳細が徹底されていてすごくわかりやすい

  • @wakaxx21
    @wakaxx21 3 года назад +1

    本当にわかりやすいです。
    今までいろんな動画や有料セミナー、書籍を読みましたがやっと理解できました。

  • @xy8066
    @xy8066 3 года назад +2

    数学好きだったので微分とか出てくるだけでワクワクです

  • @user-kr9jp5op4i
    @user-kr9jp5op4i 4 месяца назад

    こんなにすらすら明解に説明できるの凄い

  • @ken39rai
    @ken39rai 4 года назад +27

    自分の中ではこの動画が今まで見た中で一番わかりやすい。
    ほかの動画は難しすぎるか簡単すぎるかどっちか。

    • @oukaneki9768
      @oukaneki9768 4 года назад

      わかりやすい系って理論まで突っ込んでくれんからなぁ

    • @xy8066
      @xy8066 3 года назад

      分かった気にさせるものよりはしっかりやったほうが後々の理解度に繋がる。

  • @Vasculogenesisangiogenesis
    @Vasculogenesisangiogenesis 5 лет назад +5

    分かりやすい

  • @9876543210289
    @9876543210289 2 года назад +3

    すっげぇわかりやすい…

  • @ShokurosFishing2000
    @ShokurosFishing2000 2 года назад +2

    全く理解できへんかったけどなんだこのワクワクする動画は!!! 
    楽しい!!!!

  • @kentodesuyo5837
    @kentodesuyo5837 3 года назад +8

    これが無料で見れるのが凄い。普通に有料コンテンツのクオリティ

  • @Ajuman_
    @Ajuman_ 3 года назад +15

    えとね、控えめに言って神

  • @ok3ch
    @ok3ch 3 года назад +2

    わかりやすいです!

  • @nota5230
    @nota5230 7 месяцев назад

    窓際トレーディングシステムPMです。いろいろ見て勉強してましたが、腹落ちしました。素晴らしい具体例ですね。モジュールイメージがつきました。ありがとうございます。

  • @ttera3653
    @ttera3653 3 года назад +1

    これは目から鱗すぎる!!

  • @TSABOTEN
    @TSABOTEN 2 года назад +1

    入門と専門の間を補間してくれる動画でとても役に立ちました

  • @user-vo4zj3mq8q
    @user-vo4zj3mq8q 3 года назад

    ありがとうございます。

  • @nakajimato2011
    @nakajimato2011 4 года назад +3

    ニューラルネットワークが人間の脳の構造を真似て発展したということを知って興味を抱きました

  • @JY_STATS
    @JY_STATS 4 года назад +7

    ゼロつく読む前にこれ見たかった(笑)

  • @voutubeY
    @voutubeY 3 года назад +13

    分かりやすいです。
    ただ、BGM要らない!

  • @user-ej3ip4pu7q
    @user-ej3ip4pu7q 2 года назад +1

    初学者です皆さんと一緒に勉強を頑張りたいです!!!!!!!!!!

  • @user-zk3sp2jg3r
    @user-zk3sp2jg3r 3 года назад +6

    BGMなくして再アップロードしてほしい

  • @ihmond
    @ihmond 4 года назад

    実際はActivation関数(reluやtanh)がLinear演算の後に来るので、その偏微分も必要なんだけどね。ConvやMaxpoolingなどのレイヤよりも基本

  • @jimmypariko
    @jimmypariko 5 лет назад +4

    或る乱数から始めて、1batch収束した結合重みバイアスと、別の乱数から始めて求めたそれとでは、値が異なります。多数batchを繰り返せば、同じ値に収束するのでしょうか?
    PS.いつも参考にさせていただいてます、ありがとうございます。

    • @user-sq4fj9jl1w
      @user-sq4fj9jl1w 4 года назад

      ある程度の収束はあるのだと思いますが、沢山の初期設定された乱数の入力から得られた出力の中で比較した結果、1番小さなEを採用すると言う事になるのではないかと考えました。

  • @yomboh7033
    @yomboh7033 4 года назад

    Bgm教えてください

  • @junkashi2333
    @junkashi2333 3 года назад

    ラウンドEラウンドbって、なんのために求めたの。bもwと同じように更新していくの?b"=b-ηなんちゃらみたいに

  • @kosukeniwa1178
    @kosukeniwa1178 4 года назад +1

    めちゃくちゃ早口な麻雀プロの鈴木たろうって感じの声だ