【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】

Поделиться
HTML-код
  • Опубликовано: 4 фев 2025

Комментарии • 23

  • @void2extern189
    @void2extern189 2 года назад +1

    杉山さん若い。1988年にまだ生まれてない。俺、1998年頃NNに出会った。けど、LeNetなんて2022年になって初めて知った。だれも紹介してなかったのでは無いかと思う。
    この動画、素晴らしいわぁ。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      そうなんですね!
      その頃は今と違った景色があったんだろうなぁと推察します😊
      お褒めに預かり光栄です!
      今後も良き動画を生成できるように頑張りますので、応援よろしくお願いします🎉

  • @takamiyakeiiti7030
    @takamiyakeiiti7030 4 года назад +3

    CNNの歴史ちょうど気になってたから有難い。 できれば物体認識でyoloとかSSDとかの解説もやってくれると嬉しい!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +5

      YOLO はそのうちやります!😍🎉
      SSD も面白そうですね、検討リストに加えておきます😎

    • @eru-sensei
      @eru-sensei 4 года назад +2

      @@AIcia_Solid さん。GAN:敵対的生成ネットワークについても教えてほしいでーす♪あとAIソリッドの
      VRソフトって販売してないんですか?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      GAN もそのうち真面目に扱います!🎉
      デビュー作でも取り扱ってるので、気が向いたらどうぞ(^^)
      ruclips.net/video/Ul5gVsx6dRI/видео.html

    • @eru-sensei
      @eru-sensei 4 года назад +1

      @@AIcia_Solid url有難うございます。さっそく拝見させていただきますね~♪

    • @ken-ichinaitou6614
      @ken-ichinaitou6614 3 года назад

      @@AIcia_Solid yolo楽しみです。rcnn系とyoloの比較も期待したいけど、rcnn系だけも色々あるので大変すぎかな、、、

  • @北穂高
    @北穂高 Год назад +1

    6チャンネルから16チャンネルへのConv +αの工夫が面白いですね。attentionのmulti head化と少し似てる気がします。

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます!
      たしかに!!!
      手動 attention って感じですね👀
      素敵な発想ですね🤩🎉

  • @AA_31415
    @AA_31415 2 года назад

    いつもありがとうございます!
    7:27 で、8×8×2から4×4×4に5×5Convする際のロジックを教えていただきたいです。
    フィルターをチャネル数(4枚)用意して、8×8×2の2枚の画像に適応させてるのでしょうか?
    また、その場合は2枚の画像に適応させた後どのように結合させているのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      ご視聴コメントありがとうございます!(^o^)
      少し分かりづらい説明でしたね、、、!
      8x8x2 に適用する 5x5 conv. は、1チャネル分のパラメタが 5x5x2 だけあります。
      これをつかって、8x8 2つ分の情報を一気に 4x4 に変換します。
      これを4つ用意する感じです!
      つたわりますでしょうか?😊

    • @AA_31415
      @AA_31415 2 года назад +1

      @@AIcia_Solid 伝わりました!
      ありがとうございます!
      最初のConvでは、3×3×1のパラメータ(1チャネル分)、次のConvでは、5×5×2のパラメータ(1チャネル分)という認識であっていますでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      そのとおりです!(^o^)

  • @nire-hj9pe
    @nire-hj9pe 3 года назад +1

    いつもありがとうございます。
    原著論文読んでみましたが、この動画のおかげでさくさく理解できました。
    Average Pooling層にもtrainable parameterがあって、それってchannelの増えない畳み込み層なのでは?と少し不思議に思いました。(感想です)

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      おおー!原著も読まれたのですね🎉
      歴史を感じる論文ですよね😊😊
      Average Pooling のところにも parameter があるのはたぶん、
      当時は活性化関数に sigmoid や tanh を用いていた関係で勾配消失や爆発がシビアで、色んな調整が必要だったことが背景にあるのではないかと思います🤔

    • @nire-hj9pe
      @nire-hj9pe 3 года назад

      @@AIcia_Solid コメントいただいてたんですね!ありがとうございます!
      いつも楽しみにしています!

  • @ken8392
    @ken8392 3 года назад

    input 16×16, kernel size = 3, stride = 2だと最後の2行と2列余ると思うんですが、どのように計算してるのでしょうか?
    ゼロパディングみたいにして、inputを17×17みたいにしてるんですかね...

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      鋭い質問ですね!
      おそらく padding されているのだと思います!(論文では明記されていないので確実ではないですが、、)

  • @salsanotomo
    @salsanotomo 3 года назад

    AIを決めるのに、人々の血のにじむようなトライアンドエラーでやるのが面白いです。どんなモデルがいいかAIが決めてくれるといいですね。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      実はそういうものももう出てきていますよ!
      Neural Architectural Search で調べると楽しいかもです!(^o^)

  • @kazhon1421
    @kazhon1421 4 года назад +3

    マスター若いことに驚きです

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      新鮮なコメントです😍
      マスターにも伝えておきます😋✌️