Deep Learning入門:ニューラルネットワーク設計の基礎
HTML-код
- Опубликовано: 24 фев 2019
- この動画では、ニューラルネットワークを設計するにあたっての基礎を解説します。
ニューラルネットワークを構成する基本的な関数であるAffine、Convolution、活性化関数、Pooling、Loss関数についても解説します。
前回の動画(Deep Learningでできること)はこちらです。
• Deep Learning入門:Deep L...
Deep Learningとは
• Deep Learning入門:Deep L...
再生リスト「Deep Learning入門」
• Deep Learning入門
Neural Network Console
dl.sony.com/ja/
Neural Network Libraries
nnabla.org/ja/ Наука
なにこの神解説動画。参考書で何時間も格闘してたことが一瞬で理解できた。
すごくわかりやすいです。
このような動画を上げていただきありがとうございます。
ありがとうございます!!
わかりやすい!!
Good Job
畳み込みではOutPutの各ニューロンは同じ重みを持つとありますが、全てのニューロンでバイアスも同じ値ですか?
それとも、ニューロン毎に異なる値ですか?
神解説。
7:45 で6個のフィルタ(5x5)に言及されています。フィルタ係数(25個の実数)は学習開始前に乱数を使って決めるのでしょうか?書籍「ゼロから作るDeep Learning ❸」に記載のソースコード(57.2 conv2d関数の実装)にはその様なコードが書かれていました。
それともフィルタ係数も重み係数wijと同様に逆誤差伝搬法による学習の対象なのでしょうか?
Convolutionは、Neural Netwaork特有のものではなく、JPEGなどの画像圧縮のためで、NNの計算を簡易化させるためではないかと思ったのですけど、どうなんでしょう。また、tanhを使うのは、逆伝播の点で有利なんでしょうか。微分とか、プログラム言語ではやりにくいような気がしますが。
僕小林さんよりはるかに頭悪くて1倍速だと早くて理解がついていかないから0.75倍速で再生して、必要な個所は何度も再生し、他の情報とMIXして自分の知識体系に取り込み作業してる。新しい発想と知識で楽しいです。
1つ目のaffineやtanhの出力の個数はどの様に決めるのかわかるひといらっしゃいますか?
ずっと鳴ってるカチカチした音はなんだろう?
具体的な説明でよくわかりました(やっはり手を動かしている現場の人が解説しないとこのレベルのクオリティは達成できませんね。。)
CNNでの二回目の畳み込みの時、12×12の画像6枚を5×5のフィルタ16つで畳み込むのですから、8×8の画像は計96枚(6×16)になると思ってしまうのです。
12×12の画像6枚を、あたかも1枚の画像のようにしてフィルタするのでしょうか。
みなさんどのように理解されているのか、構って頂ける方がいらっしゃれば。。。
「6x5x5のフィルタを畳み込み」とあるので、3次元のフィルタを使っているのだと思います。
9:09
時間経過10:40時刻にある図のkernel5x5は4x4の誤りではないでしょうか
5*5で合ってますよ。(元サイズ)-(カーネルサイズ)+1が出力になるので。
この例だと出力は28-5+1=24になってます
後ろの音いらない
聴きづらい
出力が0から1の確率で表現されるのがなかなか理解できませんでした。
活性化関数は数式でできていますのでその数式を見てみてはいかがですか?
普通のコンピューターが1か0かだからアナログチックな出力がしっくりこないとか?
ニューラルネットワークの画像認識技術は、半導体チップのマスクをチェックするのに有効な手段だと思います。
12:14 のconvolutionのparametersが150となる理由がよくわかりません25個のparameterをスライドさせているだけなので合計25個ではないのでしょうか?
サラッと言ってますが、畳み込みカーネルがここでは6種類あるからです。25x6=150 parameters
@@atsu1020shi なるほど!そういうことでしたか。ありがとうございます
なぜダウンサンプリングが必要ですか?
2:31 hamsu 6:21 CNN 15:50 ロス
ほー。CNNの重みはフィルタそのものなのか。知らんかった。
シュミレーション(笑)