Deep Learning入門:ニューラルネットワーク設計の基礎

Поделиться
HTML-код
  • Опубликовано: 24 фев 2019
  • この動画では、ニューラルネットワークを設計するにあたっての基礎を解説します。
    ニューラルネットワークを構成する基本的な関数であるAffine、Convolution、活性化関数、Pooling、Loss関数についても解説します。
    前回の動画(Deep Learningでできること)はこちらです。
    • Deep Learning入門:Deep L...
    Deep Learningとは
    • Deep Learning入門:Deep L...
    再生リスト「Deep Learning入門」
    • Deep Learning入門
    Neural Network Console
    dl.sony.com/ja/
    Neural Network Libraries
    nnabla.org/ja/
  • НаукаНаука

Комментарии • 29

  • @kamikaze114
    @kamikaze114 2 года назад +16

    なにこの神解説動画。参考書で何時間も格闘してたことが一瞬で理解できた。

  • @ano7834
    @ano7834 3 года назад +2

    すごくわかりやすいです。
    このような動画を上げていただきありがとうございます。

  • @user-rs3wi1bk1d
    @user-rs3wi1bk1d 10 месяцев назад

    ありがとうございます!!

  • @user-xx5cy2kw3m
    @user-xx5cy2kw3m 3 года назад +6

    わかりやすい!!

  • @MrSefid
    @MrSefid 4 года назад +1

    Good Job

  • @ihakatunori
    @ihakatunori 4 года назад

    畳み込みではOutPutの各ニューロンは同じ重みを持つとありますが、全てのニューロンでバイアスも同じ値ですか?
    それとも、ニューロン毎に異なる値ですか?

  • @thenom0
    @thenom0 Год назад

    神解説。

  • @void2extern189
    @void2extern189 Год назад

    7:45 で6個のフィルタ(5x5)に言及されています。フィルタ係数(25個の実数)は学習開始前に乱数を使って決めるのでしょうか?書籍「ゼロから作るDeep Learning ❸」に記載のソースコード(57.2 conv2d関数の実装)にはその様なコードが書かれていました。
    それともフィルタ係数も重み係数wijと同様に逆誤差伝搬法による学習の対象なのでしょうか?

  • @user-rw2ko7qj4d
    @user-rw2ko7qj4d 2 года назад

    Convolutionは、Neural Netwaork特有のものではなく、JPEGなどの画像圧縮のためで、NNの計算を簡易化させるためではないかと思ったのですけど、どうなんでしょう。また、tanhを使うのは、逆伝播の点で有利なんでしょうか。微分とか、プログラム言語ではやりにくいような気がしますが。

  • @iamtherefore278
    @iamtherefore278 2 года назад +4

    僕小林さんよりはるかに頭悪くて1倍速だと早くて理解がついていかないから0.75倍速で再生して、必要な個所は何度も再生し、他の情報とMIXして自分の知識体系に取り込み作業してる。新しい発想と知識で楽しいです。

  • @yuihayashi2789
    @yuihayashi2789 4 года назад +3

    1つ目のaffineやtanhの出力の個数はどの様に決めるのかわかるひといらっしゃいますか?

  • @soar5040
    @soar5040 8 месяцев назад +2

    ずっと鳴ってるカチカチした音はなんだろう?

  • @user-md4xt8mi7f
    @user-md4xt8mi7f Год назад +1

    具体的な説明でよくわかりました(やっはり手を動かしている現場の人が解説しないとこのレベルのクオリティは達成できませんね。。)

  • @yasudahisashi
    @yasudahisashi Год назад +1

    CNNでの二回目の畳み込みの時、12×12の画像6枚を5×5のフィルタ16つで畳み込むのですから、8×8の画像は計96枚(6×16)になると思ってしまうのです。
    12×12の画像6枚を、あたかも1枚の画像のようにしてフィルタするのでしょうか。
    みなさんどのように理解されているのか、構って頂ける方がいらっしゃれば。。。

    • @user-fn2gc4bl2x
      @user-fn2gc4bl2x Год назад +2

      「6x5x5のフィルタを畳み込み」とあるので、3次元のフィルタを使っているのだと思います。
      9:09

  • @yousukewatanabe4426
    @yousukewatanabe4426 4 года назад +3

    時間経過10:40時刻にある図のkernel5x5は4x4の誤りではないでしょうか

    • @umejun1988
      @umejun1988 4 года назад +3

      5*5で合ってますよ。(元サイズ)-(カーネルサイズ)+1が出力になるので。
      この例だと出力は28-5+1=24になってます

  • @5296daisukidesu
    @5296daisukidesu 2 года назад +5

    後ろの音いらない
    聴きづらい

  • @user-hl5ju7ff3p
    @user-hl5ju7ff3p 4 года назад +6

    出力が0から1の確率で表現されるのがなかなか理解できませんでした。

    • @user-xy7eq9wk1v
      @user-xy7eq9wk1v 4 года назад

      活性化関数は数式でできていますのでその数式を見てみてはいかがですか?

    • @user-lq1vy2yp8f
      @user-lq1vy2yp8f 3 года назад

      普通のコンピューターが1か0かだからアナログチックな出力がしっくりこないとか?

  • @user-hl5ju7ff3p
    @user-hl5ju7ff3p 4 года назад +3

    ニューラルネットワークの画像認識技術は、半導体チップのマスクをチェックするのに有効な手段だと思います。

  • @youtube_US
    @youtube_US 4 года назад +2

    12:14 のconvolutionのparametersが150となる理由がよくわかりません25個のparameterをスライドさせているだけなので合計25個ではないのでしょうか?

    • @atsu1020shi
      @atsu1020shi 4 года назад +2

      サラッと言ってますが、畳み込みカーネルがここでは6種類あるからです。25x6=150 parameters

    • @youtube_US
      @youtube_US 4 года назад +1

      @@atsu1020shi なるほど!そういうことでしたか。ありがとうございます

  • @natto7390
    @natto7390 4 года назад +1

    なぜダウンサンプリングが必要ですか?

  • @jaesukim7019
    @jaesukim7019 4 года назад

    2:31 hamsu 6:21 CNN 15:50 ロス

  • @zbf85297b
    @zbf85297b 2 года назад

    ほー。CNNの重みはフィルタそのものなのか。知らんかった。

  • @linus8976
    @linus8976 4 года назад

    シュミレーション(笑)