誤差逆伝播法(バックプロパゲーション) | Chapter 3, ニューラルネットワークの仕組み

Поделиться
HTML-код
  • Опубликовано: 13 дек 2024

Комментарии • 23

  • @tsurumy
    @tsurumy Год назад +28

    35年前に大学の研究室でこれをやったときは、電総研(今の産総研?)からラベル付きの手書きデータを調達しました。
    データが磁気テープだったから、それを大学のコンピュータで読める形にするのが一苦労でしたね。
    ああ懐かしい。

  • @ptptsoushu
    @ptptsoushu Год назад +8

    本読んでもさっぱりわからないことをこんなに直感的に理解させてくれるなんて、凄いです。ありがとうございます

  • @yakisoba112358
    @yakisoba112358 Год назад +11

    まってた!ありがとう!

  • @hima_na_user
    @hima_na_user Год назад +36

    これやっぱり黒板とかpdfより映像の方が直感的に理解しやすい

    • @古紙餡コシアン
      @古紙餡コシアン Год назад +2

      学校の授業もこういう形式にしたら、先生が休んでしまったり、生徒が病気で学校に来られないときも授業出来るし、何より先生方も苦労も減ると考えられる(一度動画を撮れば、使い回すだけだから。他の先生の授業を参考にしたり、緊急時にはそのままそれを流すことと出来る。)。

  • @mushimaru1959
    @mushimaru1959 Год назад +2

    和訳待ってました、感謝、感謝、ありがとうございます😭

  • @sandvinyl
    @sandvinyl Год назад +3

    待ってました😊
    ありがとう❤

  • @mypictures7720
    @mypictures7720 8 месяцев назад

    全く分らなかった内容が何となく分かり始めまた。ありがとう。

  • @hhraa7770
    @hhraa7770 Год назад +5

    まじ嬉しい

  • @みかさ-f1h
    @みかさ-f1h Год назад +4

    待ってた

  • @七名無し
    @七名無し Год назад +1

    いつもありがとうございます。

  • @merdekaataumati1949
    @merdekaataumati1949 Год назад +4

    バックプロパゲーションって、30年以上前から大学で使ってたわ。
    当時の問題って、ローカルミニマムでとどまったり、中間層が多いとうまく収束しなかったりあまり実用的ではなかったな。

  • @--0-O-0-O-0-O--
    @--0-O-0-O-0-O-- Год назад +6

    NN実装するときに苦労したのでとても助かる

  • @CURRY_DE_DAIBAKUSHO
    @CURRY_DE_DAIBAKUSHO 4 месяца назад

    最後の勾配のとこわかりやすいー。全データとバッチの学習の違いそういうことか。

  • @toritometo
    @toritometo Год назад +2

    面白い!

  • @徳川慶喜-u6o
    @徳川慶喜-u6o Год назад +2

    11:33
    パイモン達がおこで草

  • @nona9Q_MC_𰻞𱁬𪚥
    @nona9Q_MC_𰻞𱁬𪚥 Год назад +3

    キタ━━━━(゚∀゚)━━━━!!

  • @outawoutau
    @outawoutau Год назад +1

    歌などの音声とAIを絡めたことを将来的にやってみたい者です。
    実際に仕事として使う場合、重み付けを行ういろいろな計算を数学的に理解することは必要でしょうか?
    TAなどの助言もありながら、本動画の重み付けのプログラムは実装できました。
    必要でも不要でも理由があればお聞きしたいです。

    • @npsum-tm8ly
      @npsum-tm8ly Год назад +7

      私自身もエンジニアなわけではないですし,なんならまだ学生ですがAIのモデルを"効率的"に作る・学習させるためには必要だと思っています.例えばモデルを大型化させていくと,うまくトレーニングすることができないことが多々あります(勾配消失:更新のための勾配が途中で小さくなりすぎて重みを更新できなくなること などが代表例ですかね).このような場合にどんな原理でこのようなことが起きるのかわかっていれば,すぐ対処することもできますし(この場合ならBatchNormalizationやskip connectionなどの導入で解決できるかな?),計算リソースの削減などもやりやすくなるかと思います.もちろんニューラルネットワークを0から実装するほどの技能はなくても十分ですが,闇雲に深層学習のフレームワークをいじり倒すより断然効率的に開発などができるので,数学的に理解しておくことは必要かと思います.ただ初めからすべて理解しておく必要性はないかと思っているので,実際にフレームワークなどで使ってみて実際に課題に直面してみての繰り返しでだんだん実用と結び付けられるのがベストかなと考えています.(長文コメント失礼しました.)

  • @eik7572
    @eik7572 10 месяцев назад

    6:58 これは、各層における重みを、そこで大きさが最大となる重みの値×何かしらの定数で規格化した値によって調整するということでしょうか?

  • @cup77jp
    @cup77jp 9 месяцев назад +3

    聞いているときは、何となく分かった気になるんだけど、結局、最小二乗法と何が違うん? 最小二乗法も最急降下法etcで、カイ自乗を最小に持って行くので、違いがわからん。

  • @basees4002
    @basees4002 11 месяцев назад

    動画の作り方も教えてほしいです。何卒よろしくお願いいたします!!

  • @古田真-h7u
    @古田真-h7u 10 месяцев назад

    ruclips.net/video/SgBDx8DqBZw/видео.htmlsi=gRvZt11vMRDex6lz
    勾配関数 コスト関数 
    重み と バイアス