誤差逆伝播と微積分 | Chapter 4, ニューラルネットワークの仕組み
HTML-код
- Опубликовано: 6 дек 2023
- この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。
チャンネル登録と高評価をよろしくお願いいたします。
日本語版Twitter
/ 3b1bjp
元チャンネル(英語)
/ 3blue1brown
元動画(英語)
• Backpropagation calcul...
----------------------------------------
英語版翻訳元チャンネルの支援
/ 3blue1brown
アニメーションはmanimで作られています
github.com/3b1b/manim
英語版公式ソーシャルメディア
Webサイト: www.3blue1brown.com
Twitter: / 3blue1brown
Facebook: / 3blue1brown
Reddit: / 3blue1brown
----------------------------------------
Music by Vincent Rubinetti
Download the music on Bandcamp:
vincerubinetti.bandcamp.com/a...
Stream the music on Spotify:
open.spotify.com/album/1dVyjw...
更新がとても早くて助かります🥲
とてもわかりやすかった!!
投稿お疲れ様です。
まってた。ありがとう😊
最適化の問題にとても良いヒントが得られました♪
助かります!
4:23 なるほど、ここで微分すふからシグモイド関数よりもReLU関数を使った方が計算が簡単になるのか それでReLUの方が上手くいく場合もあるってことね
シグモイドが廃れた理由は他にもあって、層がふえるとシグモイドは勾配がどんどん減っていくので、収束しなくなるんです。
神
こりゃおもろい
理論言語学(Syntax)に興味があって、生成文法など学んでいる高校生です。最近、生成AIが生成文法を使わずになぜ自然な対話ができるのか色々と疑問が湧いてきて、自然言語処理やDeep learning、neural networkについて調べていました。最初はかなり理解するのに時間がかかりましたが、なんとなく仕組みは掴めたような気がします(数日後には忘れてそうw)。
微積分の日本語化待ってます!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
神
神