絶対に理解させる誤差逆伝播法【深層学習】

Поделиться
HTML-код
  • Опубликовано: 5 окт 2024
  • ニューラルネットワークの学習方法である『誤差逆伝播法』を解説します
    深層学習の基本が学べる動画はこちら↓
    高校数学からはじめる深層学習入門(畳み込みニューラルネットワークの理解) • 高校数学からはじめる深層学習入門(畳み込みニ...
    ----------------------------------------------------------------------------------------------------------
    予備校のノリで学ぶ「大学の数学・物理」のチャンネルでは
    ①大学講座:大学レベルの理系科目
    ② 高校講座:受験レベルの理系科目
    の授業動画をアップしており、他にも理系の高校生・大学生に向けた様々な情報提供を行っています
    【お仕事のご依頼】はHPのContactからお願いします
    【コラボのご依頼】はHPのContactからお願いします
    【講義リクエスト】は任意の動画のコメント欄にて!
    【公式HP】はこちらから(探している講義が見つけやすい!) yobinori.jp/
    【Twitter】はこちらから(精力的に活動中!!)
    たくみ(講師)→ / yobinori
    やす(編集)→ / yasu_yobinori
    【Instagram】はこちらから(たくみの大喜利専用アカウント)
    / yobinori
    【note】はこちらから(まじめな記事を書いてます)
    たくみ(講師)→note.mu/yobinori
    やす(編集)→note.mu/yasu_y...
    ----------------------------------------------------------------------------------------------------------
    【エンディングテーマ】
    “物語のある音楽”をコンセプトに活動するボーカル不在の音楽ユニット”noto”(ノート)
    RUclipsチャンネル『予備校のノリで学ぶ「大学の数学・物理」』の主題歌として書き下ろした一曲。
    noto / 2nd single『Telescope』(feat.みきなつみ)
    *****************************************************
    noto公式RUclipsチャンネルにてMusic Video フルver.が公開中!
    【noto -『Telescope』】
    • noto -『Telescope』(feat...
    【みきなつみ公式RUclips】
    / @mikinatsu_official

Комментарии • 127

  • @kobashinya
    @kobashinya 3 года назад +52

    40:22 の編集が神すぎる

  • @taaatsutube
    @taaatsutube 3 года назад +17

    ほんとに1時間もせずに誤差伝播法が理解できるとは思いませんでした。すごく感謝です。ありがとう!

  • @2ohagi684
    @2ohagi684 3 года назад +50

    原理を理解しなくてもライブラリでNNを使用できる今の世の中
    数式で理解させてくれるたくみさんの授業が素晴らしすぎる、、

  • @hs-xn3eo
    @hs-xn3eo 10 месяцев назад

    初めて理解できました。
    数学的帰納法(逆順ver)みたいな感じで計算されていくイメージをもちました。
    やりたいこと :
    全ての層の(全ての)重みの勾配を求めたい
    手順 :
    ①出力層の勾配を求める
    ②①の勾配の計算結果の一部を使って、出力層の1つ前の勾配を求める
    ③②の勾配の計算結果の一部を使って、出力層の2つ前の勾配を求める
    ④以下同様にして、全ての層の勾配を求める

  • @_4rN0
    @_4rN0 3 года назад +14

    まじで待ってた!!!!!
    これからも深層学習の話して欲しい😊😊

  • @いっちー-c8q
    @いっちー-c8q 2 года назад +4

    本で勉強していましたが、勾配の計算がきちんと理解できずにいました。
    ですが、この動画を見て、誤差deltaの考え方がわかり、
    また、ニューロンが変わったときに、計算式がどう変わるのかがよく理解できました。
    とても助かりました。ヨビノリさんありがとうございます!

  • @yutakanishiyama8429
    @yutakanishiyama8429 Год назад +1

    「誤差逆伝播」の知識はありましたが、深い理解はまだ出来ていなかったところ、「そりゃ、そうやな」と納得出来ました。いつもありがとうございます!こんな素晴らしい動画を作って下さって、感謝しています。

  • @k_ggle
    @k_ggle 3 года назад +7

    まじですか!誤差逆伝播法難しくて悩んでたのでめちゃくちゃ嬉しいです!!ありがとうございます!

  • @ControlEngineeringChannel
    @ControlEngineeringChannel 3 года назад +59

    一見、黒板では限界のような内容にどんどん入っていますが、それでも黒板でわかりやすく誤差逆伝播法の話ができるのが凄いです。たくみさんがこのチャンネルの授業動画でパワポを使う日は来ないんでしょうか。

    • @RS-303
      @RS-303 2 года назад

      パワポ?黒板と日本製チョークが世界の数学者のスタンダード。

  • @lincoqie
    @lincoqie Год назад +3

    情報系の知識が必要な論文読まなくちゃいけなくて、無理ゲーと思ってたけど、これ見てからなら理解しながら読めそう。大人になると自分の分野外を勉強するのはシンドイこと多いけど、ヨビノリ動画はパッと教えてくれて助かるな😄

  • @ボールペン-n4w
    @ボールペン-n4w 3 года назад +12

    今は分からなくても、いつか理解できる日が来ると思って待ちながらこの動画見てる

  • @くりーむぱん-n7p
    @くりーむぱん-n7p 3 года назад +8

    たくみさんが言う「絶対に理解させる」が頼もしすぎます

  • @takau9266
    @takau9266 3 года назад +1

    MRIの雑音除去の研究をやっている大学生です。
    前期に雑音除去やるのに、DnCNNなどのニューラルネットワークを勉強しました。
    が、マジでここ1週間悩んでようやく理解できました。

  • @J0hn_Srn1th
    @J0hn_Srn1th Год назад +9

    0:00 導入
      8:47 更新量(誤差関数と勾配降下法の話)
    12:15 誤差逆伝播法の心
      14:39 多変数関数の偏微分について(連鎖律)
    25:54 本題。まずは問題設定
      27:56 出力層の重み更新
      39:19 中間層の重み更新
        47:00 誤差逆伝播法のミソ

  • @e45redr6tgty78uhu
    @e45redr6tgty78uhu Месяц назад

    仰る通り多変数関数の連鎖律(+添え字)が悪さをして理解しづらくしてるだけで、やりたいことと実際にやってることはそんなに難しくないんですね。よく分かりました!

  • @恵斗-p6c
    @恵斗-p6c 3 года назад +4

    大学でニューラルネットワーク実装してこいって言われてたから本当に助かります

  • @関皓介
    @関皓介 Год назад

    リカレントニューラルネットワークと強化学習
    入力層、中間層、出力層、重み値、教師信号
    こうやって解説聞いてると
    普段、数学や科学の知識が基本になってるんだなあと改めて思う

  • @abc0to1
    @abc0to1 3 года назад +3

    この授業をのべ5万人近くが視聴してるのに感心した。日本も捨てたもんじゃないな。

  • @江場さくら
    @江場さくら 3 года назад +3

    ジェンガの例えがとても分かりやすくていいなと思いました!

  • @fobonu2ec
    @fobonu2ec Год назад

    誤差逆伝播法、名前はよく聞くけど意味はわからず、という状態が続いていましたがようやくイメージ掴めました。
    連鎖率を使うだけで重みの更新が1つ先の層の誤差で決まるなんて、まさに多変数関数の“ネットワーク”だなと。
    まるで逆伝播の様子が、先の出力の反省をしているようで急に人間味が感じられてきて、
    学習と聞くと順伝播のイメージがありましたが、順伝播を演習問題を解く、逆伝播を出来なかった問題の復習と捉えると逆伝播こそ学習の本質だなと感じました。

  • @kahha_oeh
    @kahha_oeh Год назад

    まだ途中までしか見てないですが、これが無料で見られるって凄すぎです。。。udemyよりもわかりやすくて面白い!!
    マジで感謝です〜〜〜〜〜〜

  • @うさみみんらでぃんちゃん
    @うさみみんらでぃんちゃん 2 года назад +2

    Stanford の coursera が英語厳しくてここに避難してきた。たすかる。

  • @sage_goes1504
    @sage_goes1504 3 года назад +1

    誤差逆伝播法好き
    ディープラーニングの勉強してる時この考えに感心した

  • @lotus0509
    @lotus0509 3 года назад +6

    式・記号に見てわかる解説があって非常にわかりやすい講義だと思いました!
    畳み込みニューラルネットワーク(CNN)になると、"共有の重み"を更新するので混乱しやすいと思います(というより私が混乱しています)。
    ぜひ、CNNの場合の誤差逆伝播法も解説して欲しいです。

  • @ペンギンクミマヌ
    @ペンギンクミマヌ 9 месяцев назад

    フレームワーク使ってなんとなく扱っていた部分がスッキリ理解できました。

  • @AkitoHirota
    @AkitoHirota Год назад

    NWの勉強していて、詰まっていたところだったので、非常にありがたいです。これからも聴講させていただきます。無理せずにこれからも続けて欲しいです。

  • @_4rN0
    @_4rN0 3 года назад +4

    いつかRNNの動画があがることを期待して待ってます😊

  • @-_-plm2232
    @-_-plm2232 3 года назад +6

    GANとかやってほしい

  • @Catorce7
    @Catorce7 2 года назад +2

    微分積分が全く分かってないからサッパリですわ…
    深層学習難しすぎ。

  • @mayogiraichairman3039
    @mayogiraichairman3039 Год назад

    今、誤差逆伝播法に関して勉強しているので、解説して頂いて助かりました!

  • @ガオフシュアイ
    @ガオフシュアイ 25 дней назад

    学部一年でも理解しやすくてありがたい

  • @レスポールカスタム-z2f
    @レスポールカスタム-z2f 8 месяцев назад +1

    G検定で誤差逆伝播法ってワードは出てきたけど、ここまで奥が深いのか…

  • @user-wanwan-0920
    @user-wanwan-0920 3 года назад +1

    昔々に卒論で取り組んだ話でしたので当時を思い出しつつ拝見しました。当時のWSによる計算は大変でした

  • @タンケッキー-n8f
    @タンケッキー-n8f 3 года назад +2

    ヘスの法則を利用する問題を解くときに、エネルギー図を使ったやり方を教えて欲しいです!
    ピンチなんでお願いします🙇‍♀️

  • @tungsten802
    @tungsten802 3 года назад +12

    電磁気と波動の全解説の予定ってありますか?

  • @II-nu6uo
    @II-nu6uo 3 года назад +1

    めっちゃわかりやすかったです!
    この考え方、他の何かにも使えそうだな〜って思いました

  • @お掃除本舗-o4x
    @お掃除本舗-o4x 3 года назад +4

    活性化関数に恒等関数ではなくシグモイド関数を使用した例を見てみたいです

  • @yunovation_melodica
    @yunovation_melodica 3 года назад +3

    ガウス過程の動画もみたいです🥺

  • @uy9664
    @uy9664 3 года назад +8

    ブレークスルー賞を受賞した光格子時計と柏原予想についての噛み砕いた解説をお願いしたいです!

  • @コンストラクタ
    @コンストラクタ 2 года назад +1

    ありがとうございました。分かりやすかったです!

  • @ah-xq7ht
    @ah-xq7ht 5 месяцев назад

    神動画ありがとうございます!!理解できた気がしています!

  • @ph4746
    @ph4746 Год назад +1

    26:00 自分用:連鎖率の話終わって本筋に戻る。

  • @TV-pn5mg
    @TV-pn5mg 3 года назад +1

    個人的には睡眠用bgmにいい(声が落ち着く)

  • @宇都宮餃子-f8g
    @宇都宮餃子-f8g 2 года назад

    なるほどよくわからん
    結論の部分先出しでそれから計算して貰えれば多分一番わかりやすかったと自分は思いました。

  • @ねこじゃらし-c7z
    @ねこじゃらし-c7z 3 года назад

    ちょうど研究室の研究内容でした。まじで助かりますありがとうございます。

  • @やせ56にゃん
    @やせ56にゃん Месяц назад +1

    z=(u1 u2 u3...)
    u1=(x1 x2 x3..)
    という時に、xkはu1 u2 u3...の全てに関わっているというところなのですが、
    u2やu3も同様に
    u2=(x1 x2 x3...)
    というような関数として示せるということでしょうか、、?
    そうなると全部のuが同じ関数ということになってしまいますか?

  • @ken39rai
    @ken39rai 3 года назад +1

    やっぱ難しいな、誤差逆伝播法。
    何回か見直す必要ありそう。
    理解できなかったのは連鎖律知らんかったからかw
    でもこういう動画はありがたい

  • @kenkenmath
    @kenkenmath 3 года назад +1

    連続講義嬉しい❗️

  • @drtmmy2377
    @drtmmy2377 3 года назад

    物理学科だけど、今年から深層学習の勉強はじめました!

  • @user-jj7hi6co4p
    @user-jj7hi6co4p 2 года назад +25

    タクミさんに国民栄誉賞かなんかをあげて欲しい。日本のIT知識の向上にこれ程、貢献している人はいない。日本の宝!

  • @kuramoto2008
    @kuramoto2008 2 года назад +1

    ありがとうございます!

  • @ipu_dayoh
    @ipu_dayoh 3 года назад +2

    共テぶりに見に来たけど円周率不変で草
    なんかありがとうございます。

  • @milkman5966
    @milkman5966 3 года назад +3

    23:11 メルエム戦終盤のネテロ会長

  • @user-lo7jf9bm9q
    @user-lo7jf9bm9q 3 года назад

    ちょうど勉強したてだったので復習になりました。

  • @quwse1
    @quwse1 2 года назад +1

    丸暗記した合成関数の微分公式がなぜそうなるのかを、今更ながらに知れた。

  • @SammoHungGambou
    @SammoHungGambou 2 года назад +1

    η(学習率)の話も入れて欲しかった

  • @no882323
    @no882323 3 года назад +3

    30年程前 日経雑誌の記事の絵と数式をたよりにガリガリ計算したのを思い出しました。
    確か一層分だけガッツリ勉強してあとはこれに同じ!でゴマかした記憶があります。www
    次回は多分 活性化関数の微分の説明でせうか。

  • @hiroh.8626
    @hiroh.8626 Год назад

    楽しすぎてにやけちゃいました

  • @murasso2736
    @murasso2736 Год назад +1

    なんでフリーハンドでそんな真っ直ぐな線が引けるんだ...

  • @users_774
    @users_774 Год назад

    有限要素法についての解説をお願いしたいです!有限要素法のコードをc++でかくという課題が出て、躓いてます。。

  • @服部司-e9h
    @服部司-e9h 2 года назад

    初めて誤差伝搬法がすっきり理解できました。ありがとうございます。

  • @たけ-t7q
    @たけ-t7q 2 года назад

    これは素晴らしい

  • @小さな夜-u1i
    @小さな夜-u1i 2 года назад

    後ろから考えていくアイデアはなるほどと思って爽快感があったけど、重み付けがuおよびz に影響するから、z 所与の重み付け導出ってどこまで意味があるのかと不安になってしまう...学習させる=重み付けが不正確で導出したzを所与として重み付けだけ変える、これで問題なくなる前提条件ってなんだろうか。

  • @affshima
    @affshima 3 года назад

    ジャンガのたとえ分かりやすい。。。先に上から動かして、動かした位置で固定しながら、下の段を動かすことができるみたいな。。。

  • @user-Hiro0822
    @user-Hiro0822 3 года назад +5

    深層学習…興味あるけど難しい(^^;
    でも図で示してわかりやすく解説してくださっていたおかげで、イメージが掴みやすく、こんな私でも「全くついていけなかった💦」という状況だけは避けられました。
    ありがとうございます!!

  • @imama7148
    @imama7148 3 года назад +1

    難しかった
    数2Bまでの知識では理解できないでしょうか
    ヨビノリさんの動画で前提知識をつけるのにオススメの動画があれば教えて下さい

  • @chaosshignahama9279
    @chaosshignahama9279 3 года назад +2

    中間層のδ計算でfが微分のままでおわっているけれど、fが恒等関数なら、その部分は1ですよね。あえてそう書かないのはなにかこちらに勘違いがあるのだろうか。実際プログラムにのせようとした場合、微分のまま終わっては、説明として中途半端な感じが。

  • @-_-plm2232
    @-_-plm2232 Год назад

    これ行列とベクトル使って凄いキレイにかけるよな。
    いろいろよくできてるなーってなった

  • @バンブ-u1r
    @バンブ-u1r 3 года назад +1

    以前学んで知ってる内容ですが、たくみさんの授業が好きで深層学習と合わせて観ました^ ^
    個人的にはこの動画と深層学習との間に最急降下法を挟んでほしかったです。
    昔勉強がてらにランダムな2次関数の係数を特定の3点を通る係数に最急降下法を用いて最適化した事があります。
    動く2次関数も楽しいし真面目にいいネタでは?今からでも是非やってほしいです。
    長くてすいません💦

  • @抹茶-n8r
    @抹茶-n8r 3 года назад

    なんか、よく分からない内容だったんですが見にきました

  • @user-ms8tk2n8
    @user-ms8tk2n8 3 года назад

    Chainerも良いけど
    これも良いね

  • @まるぐぅ-b6n
    @まるぐぅ-b6n 3 года назад

    これはありがたい!!!!

  • @なかむらひろし-e7g
    @なかむらひろし-e7g 3 года назад

    待っていました〜

  • @skthelimit
    @skthelimit 3 года назад +1

    Thanks!

  • @KAMEUSAGIGAME
    @KAMEUSAGIGAME 3 года назад

    これで復習します

  • @naoyaohtaki2258
    @naoyaohtaki2258 3 года назад

    ヘッブ則なんかとも関係してくるんでしょうかね?
    いつも勉強になります!

  • @neo_0125
    @neo_0125 3 года назад +1

    数学嫌いだけど面白そうだと感じた。でも、W111のところで、急にアンパンマンみたいだということを思いだし、笑いが止まらなくなった。はなでんおそろしや

  • @doyu_
    @doyu_ 3 года назад

    今回の続きで実際に具体的なデータセットを使って簡単な勾配降下法の計算例を示してもらえるとうれしいです。特にバッチの処理の場合に、順伝播で記録した入出力データを転置行列でかけて計算量を削減していけるかなどです。

  • @石原正貴
    @石原正貴 3 года назад

    神動画あらわる

  • @るうー-u1i
    @るうー-u1i 3 года назад

    枝刈りの説明が聞きたいです

  • @beekaru_4126
    @beekaru_4126 3 года назад +2

    ヨビノリすげーーな。

  • @komusasabi
    @komusasabi 3 года назад +8

    誤差逆伝播法を解説したいなら、ゼロからシリーズにならってみかんとリンゴの購入、税込み価格のパラメトリックなモデルのパラメータ調整の話で具体例を見せた方が中学生でも理解できる状態にまで落とし込めそうです。
    計算グラフという言葉も定義していただけるといいな。

    • @kaj694
      @kaj694 11 месяцев назад

      この動画のグラフは計算グラフとは違うと思います

  • @レジェンドケチャップ
    @レジェンドケチャップ 3 года назад

    人工知能の本読んでたんやがこれイマイチわからんかったから助かる

  • @中原くんを囲ってそうで囲ってない

    更新量のグラフが下に凸というか、最適解の時のみ傾きが0になっているのはなんでですか?

  • @waiwai8572
    @waiwai8572 Год назад

    私みたいなおバカは、訳分からんままに実装してから戻ってくると、何となく雰囲気で理論を理解出来る(つもりになる)ことが分かりました笑
    どうもありがとうございました。

  • @ryozann
    @ryozann 3 года назад

    ありがとうございます。ランダムにパラメーター調整してたらたぶん人生終わるところでした笑

  • @yutamatsui6890
    @yutamatsui6890 3 года назад +1

    授業でやったあとだった...(単位あったけど)

  • @highlight7966
    @highlight7966 7 месяцев назад

    δ(l)_jがδ(l+1)_jで求められる部分がしっかり理解できなかった。。。なんでや

  • @yuikomiyakawa1713
    @yuikomiyakawa1713 2 года назад

    ここでもとめた、dE/dwを、どう使うのでしょうか?

  • @pozodepetróleo
    @pozodepetróleo 3 года назад

    だからアンパンマンは愛と勇気だけが友達なのか・・・

  • @pamiamin
    @pamiamin 2 года назад

    クリリンのぶん笑 (でも22分ぐらいからわからなくなった...)

  • @居林裕樹-t2b
    @居林裕樹-t2b 3 года назад

    勉強させて頂きます🙏❗️(^人^)🌟

  • @ng533
    @ng533 3 года назад

    可能なコンテンツだけで大丈夫なのでVoicyに進出して欲しいです。
    もちろん黒板が伝わらないようなものもあると思いますが、絶対にニーズはあるはずです。よければご検討をよろしくお願いします。О'̑〇̮'̑О

  • @gdgd_gd
    @gdgd_gd 2 года назад

    中学数学でお願いします

  • @山田航暉-f5r
    @山田航暉-f5r 4 месяца назад

    0:42 ニューラルネットワークの概要
    8:47 勾配降下法
    14:37 連鎖律
    25:55 誤差逆伝播法

  • @usar-xx1uk4pp9h
    @usar-xx1uk4pp9h 2 года назад +1

    今回のファボゼロ 8:50

  • @imu-chan
    @imu-chan 2 месяца назад

    クリリンの分……?

  • @kaj694
    @kaj694 11 месяцев назад

    えぐい

  • @マクローリン展開-d4h
    @マクローリン展開-d4h 3 года назад +1

    バックプロパゲーションの方がかっこよくない?笑

  • @dtstkt1123
    @dtstkt1123 3 года назад

    バックプロパゲーション!!