Deep Learning入門:ニューラルネットワーク学習の仕組み
HTML-код
- Опубликовано: 24 апр 2019
- この動画では、ニューラルネットワークの数学的基礎として、またパラメータ学習のために用いられる手法として、ミニバッチ勾配降下法(Minibatch Gradient Descent)、Back propagationについてできるだけ分かりやすく解説します。
前回の動画(ニューラルネットワークの多層化テクニック)はこちらです。
• Deep Learning入門:ニューラルネ...
Deep Learningとは?
• Deep Learning入門:Deep L...
再生リスト「Deep Learning入門」
• Deep Learning入門
Neural Network Console
dl.sony.com/ja/
Neural Network Libraries
nnabla.org/ja/ Наука
本気で分かりやすい動画です。
他の動画や書籍はどうしても微分過程での連鎖律とのつながりがイメージできないものが多い中、この動画であれば初学者に対しても理解を促しやすいと感じられました。
簡単→詳細が徹底されていてすごくわかりやすい
本当にわかりやすいです。
今までいろんな動画や有料セミナー、書籍を読みましたがやっと理解できました。
数学好きだったので微分とか出てくるだけでワクワクです
こんなにすらすら明解に説明できるの凄い
自分の中ではこの動画が今まで見た中で一番わかりやすい。
ほかの動画は難しすぎるか簡単すぎるかどっちか。
わかりやすい系って理論まで突っ込んでくれんからなぁ
分かった気にさせるものよりはしっかりやったほうが後々の理解度に繋がる。
分かりやすい
すっげぇわかりやすい…
全く理解できへんかったけどなんだこのワクワクする動画は!!!
楽しい!!!!
これが無料で見れるのが凄い。普通に有料コンテンツのクオリティ
えとね、控えめに言って神
わかりやすいです!
窓際トレーディングシステムPMです。いろいろ見て勉強してましたが、腹落ちしました。素晴らしい具体例ですね。モジュールイメージがつきました。ありがとうございます。
これは目から鱗すぎる!!
入門と専門の間を補間してくれる動画でとても役に立ちました
ありがとうございます。
ニューラルネットワークが人間の脳の構造を真似て発展したということを知って興味を抱きました
ゼロつく読む前にこれ見たかった(笑)
分かりやすいです。
ただ、BGM要らない!
初学者です皆さんと一緒に勉強を頑張りたいです!!!!!!!!!!
BGMなくして再アップロードしてほしい
実際はActivation関数(reluやtanh)がLinear演算の後に来るので、その偏微分も必要なんだけどね。ConvやMaxpoolingなどのレイヤよりも基本
或る乱数から始めて、1batch収束した結合重みバイアスと、別の乱数から始めて求めたそれとでは、値が異なります。多数batchを繰り返せば、同じ値に収束するのでしょうか?
PS.いつも参考にさせていただいてます、ありがとうございます。
ある程度の収束はあるのだと思いますが、沢山の初期設定された乱数の入力から得られた出力の中で比較した結果、1番小さなEを採用すると言う事になるのではないかと考えました。
Bgm教えてください
ラウンドEラウンドbって、なんのために求めたの。bもwと同じように更新していくの?b"=b-ηなんちゃらみたいに
めちゃくちゃ早口な麻雀プロの鈴木たろうって感じの声だ