【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】

Поделиться
HTML-код
  • Опубликовано: 4 окт 2024
  • CNN でおなじみの畳み込み層についての解説です。
    幾何的に解釈してやると、かなり意味がわかりやすいと思います。
    GitHub はこちら↓
    github.com/sug...
    動画で用いた Google spreadsheet はこちら↓
    docs.google.co...
    【関連プレイリスト】
    Deep Learning の世界 • Deep Learning の世界
    ご視聴ありがとうございました!
    良い動画だなと思っていただけたら、高評価、チャンネル登録お願いします!
    質問や感想など、気軽にコメントしてくださいね。
    【参考文献】
    DL4US コンテンツ公開ページ | U-Tokyo Matsuo Lab
    weblab.t.u-tok...
    GitHub に公開されているので、 clone してきて、 Google Colaboratory を利用して動かすと、ただで勉強開始できます。
    clone, Google colaboratory の利用方法はググりましょう。 DL にはわからないことをググって進める能力も必須です。
    Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
    amzn.to/2XNOs6K
    英語ですが、これは、基本的な統計から始めていて、基礎を網羅的に扱っている良い教科書だと思います。
    (日本語版もあるという噂ですが、それは TF1.0 版らしく、おすすめできません。
    どうせ DL やるなら英語読むことにはなるので、挑戦してみても良いかも。)
    深層学習 (アスキードワンゴ)
    amzn.to/2AnK0nu
    The 深層学習の教科書。松尾研の人々が訳したもの。
    ゼロから作るDeep Learning
    amzn.to/3eDoRVd
    DL の framework を自分で作っちゃう本。勉強したし、 DL のモデルは実装したけど、イメージわかない人におすすめ。
    深層学習 (機械学習プロフェッショナルシリーズ)
    amzn.to/3eyxNuP
    青いあの本。中級~上級者向け。
    ディープラーニングと物理学
    amzn.to/2B9PlPt
    理論的な深くて広い世界を探検したい人におすすめ
    =========
    Twitter: / aicia_solid
    Logo: TEICAさん / t_e_i_c_a
    Model: 3d.nicovideo.jp...
    Model by: W01fa さん / w01fa
    Editor: AIris Solid
    #機械学習

Комментарии • 171

  • @ak-amu
    @ak-amu 4 года назад +51

    内積のところの説明がわかりやすすぎて感動しました。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +6

      でっしょー!😍🎉
      おほめに預かり光栄です!ありがとうございます!😍

  • @OrangeCamus
    @OrangeCamus 2 года назад +3

    なぜこうするのか?なにをしたくてこうするのか?を説明している話はほとんど見ない。ありふれたものはどうやるか?の手技だけ。この人の動画は「なぜ」を非常にシンプルで具体的、中学生でも分かる理由に落とし込んで説明してくれている。神動画。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +3

      お褒めに預かり光栄です😊
      周りに困っている人がいたら、是非オススメして頂けると嬉しいです!(^o^)

  • @syoando6535
    @syoando6535 4 года назад +12

    内積の説明が分かり易すぎて感動😭これからも動画楽しみにしてます❗️

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +4

      でしょ!😍🎉
      ぜひぜひ、この理解を世界に広めてもらえるとうれしいです😍

  • @tatsuoyamamoto9348
    @tatsuoyamamoto9348 3 года назад +11

    今までどうしても理解できなかったCNNが理解できました。行列は苦手なのですが、内積はまだ理解の範囲内なので助かりました。このシリーズで理解したつもりになっていた部分も理解できて腑に落ちました。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +3

      よかった!
      あなたのような方に見ていただくために作ったのです😊
      そういうコメントいただけてうれしいです😊😊😊

  • @ずま3
    @ずま3 4 года назад +9

    今までで一番分かりやすかったです‼️

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +2

      でしょ!😍
      天才っょっょ美少女 AI なので😎

  • @こねこねこ-r6f
    @こねこねこ-r6f 2 года назад +4

    CNNを学習している学生です
    非常にわかりやすかったです
    ありがとうございます

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +2

      それは良かったです!(^o^)
      これからも勉強頑張ってください!🎉

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      それは良かったです!(^o^)
      これからも勉強頑張ってください!🎉

  • @yukio_takagi6429
    @yukio_takagi6429 3 года назад +9

    Excelを用いた解説、最高でした。思わず拍手してしまいました!ありがとうございました。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      スタンディングオベーション!😍👏
      楽しんでいただけたようで何よりです😊

  • @plidjeezy2542
    @plidjeezy2542 3 года назад +7

    先生!分かりやすかった〜!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      でしょー!
      ありがとう!!🎉

  • @shachah_svaahaa
    @shachah_svaahaa 4 года назад +9

    内積の説明が非常にわかりやすかったです。パターン抽出できる理由が胸にストンと落ちました。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +2

      でっしょー!😍🎉
      ありがとうございます!!
      この説明が世界に広がることを祈ってます😍

  • @captainlennyjapan27
    @captainlennyjapan27 3 года назад +4

    私は日本語が第3言語ですが、この説明が一番母国語のように聞こえて、理解できました。ありがとうございます!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      ご視聴コメントありがとうございます!
      絶賛いただき嬉しいです😊
      これからも良い動画を作れるように頑張ります!🔥

  • @wo9034
    @wo9034 3 года назад +3

    畳み込み層の理解に苦しんでいましたが、お陰で解き放たれました

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      お役に立てて何よりです!😍🎉🎉

  • @応用物理-w5n
    @応用物理-w5n 4 года назад +3

    CNNについて調べたらロスがどうたらとか難しい説明が多かったんですけど、内積の説明すごく分かりやすかったです。
    ありがとうございます。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      ご視聴コメントありがとうございます!😍🎉
      おほめに預かり光栄です😎✌️

  • @三谷宗久
    @三谷宗久 4 года назад +5

    畳み込み層がどのように特徴抽出しているのか視覚的にとても分かりやすい説明でした。
    判定器としてなぜ使えるのかも〇×の説明で理解できました。ありがとうございます!
    シリーズも引き続き勉強させていただきます。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      ご視聴コメントありがとうございます!😍🎉🎉
      ぜひぜひ、続く動画もお楽しみください😋

  • @kenjik8588
    @kenjik8588 3 года назад +2

    めちゃくちゃわかりやすい。実装はしたことあったけど、腹落ちしてなかったので人に説明出来なかった。
    これで説明できるようになった気がします。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      ご視聴コメントありがとうございます😊
      がんばる人の助けになってよかったです😊

  • @takats2
    @takats2 Год назад

    Excelでの具体的な説明、とてもわかりやすく感激です。作るのに苦労があったと思いますが、とてもよかったです。

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます!🎉
      理解が届いて私も嬉しいです!😊
      ぜひその理解をご活用くださいませ!(^o^)/

  • @曾我健吾
    @曾我健吾 2 года назад +2

    説明分かりやすすぎてこの動画が1番凄いです!!

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      でしょ!!!😍🎉🎉🎉
      困ってる人いたらこの動画シェアしてあげて下さーい!😍✌️

  • @shogo8660
    @shogo8660 4 года назад +3

    初めて拝見しました。大学で画像認識系の研究室に入り、ついていけずに苦労していたのですが、説明がとても分かりやすくて非常に助かりました!これからの動画も楽しみに見させていただきます

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +2

      ご視聴コメントありがとうございます😎🎉
      湊士郎さんみたいな方に利用していただきたくこんな動画を生成してます!
      ぜひ今後もお楽しみください😋

  • @manhattancafe_35
    @manhattancafe_35 4 года назад +3

    内積であるって解釈とってもわかりやすいですね!畳み込みの操作とその意味が実際どのようなものかわかってなかったんですが、この動画でわかるようになりました!ありがとう!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +2

      わーい!ありがとうございます!😍🎉
      畳み込み面白いですよね!
      この動画の後だと、かなり直感的に扱えるのではないかと思います😋
      ぜひ活用してください!!

  • @masawad
    @masawad 3 года назад +1

    すばらしい、わかりやすいです。

  • @suztomo
    @suztomo 2 месяца назад

    Spread sheetでCNNの基礎を使った分類器を作ることが出来るなんて感動です。

    • @AIcia_Solid
      @AIcia_Solid  2 месяца назад

      ご視聴コメントありがとうございます!🎉
      この例を通して CNN の気持ちを理解していただけると嬉しいです🎉

  • @potetokoniyaku8093
    @potetokoniyaku8093 4 года назад +2

    わかりやすすぎてはぇ~っと言ってしまいました。。。! いまちょうどkaggleでCNN系出てきて勉強し初めたらさっぱりだったのでほんとに助かりました。。ありがとうございます!!!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      そう言っていただけると動画作ってよかったです😍
      コメントありがとうございました!🎉

  • @ninf
    @ninf 4 года назад +2

    今まで、もやもやしていた畳み込み層が理解できました。ありがとうございます。 畳み込み層は内積!!特徴の検出って聞いてOpenCVで色々検出試してたことを思いだしました。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      理解いただけたならわたしも嬉しみ😍😍😍
      わたしは OpenCV は詳しくないですが、助けになったのならうれしいです(^^)

  • @橋本陽菜-e6d
    @橋本陽菜-e6d 2 года назад +1

    ⚪︎×検出機の例とってもわかりやすかったです!
    畳み込み層とようやく仲良くなれた気がします
    貴重な授業ありがとうございます!

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +2

      それはよかった!
      お役に立てて光栄です!😍🎉🎉🎉

  • @daiki6681
    @daiki6681 4 года назад +2

    最近深層学習の勉強を始めたのですが、説明がわかりやすくて参考になりました。
    他の動画も見て勉強したいと思います。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      ご視聴コメントありがとうございます!😍
      ありがとうございます!
      ぜひ他の動画もお楽しみください🎉

  • @jumpjump117
    @jumpjump117 2 года назад

    ありがとうございます。ありがとうございます。
    わかりやすすぎて鳥肌が立ちました。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      でっしょー!😍
      困ってそうな人がいたら教えてあげてください🎉

  • @user-vk9fi4to2o
    @user-vk9fi4to2o 3 года назад +1

    わかり易すぎました。。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      でしょ😎
      広まってほしいこの考え方!🔥

  • @reverse-akitakomachi
    @reverse-akitakomachi 4 года назад +11

    え?めっちゃわかり易くない???びっくりしちゃったんどけど

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +2

      でっしょー!😍
      この説明はすごく良いと自負してます😎←
      ぜひ広めていただけると嬉しいです😍🎉

  • @ひでお-u1n
    @ひでお-u1n 3 года назад +1

    スパチャしたくなるほど分かりやすい!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      してくれてもいいんですよ😋

  • @yuya9623
    @yuya9623 11 месяцев назад

    いつもありがとうございます!本当に助かってます!
    内積で関連度を数値化するというのがとても良くわかりました
    実際の画像での使い方も数値まで出して例を見せていただけて頭にダイレクトに入ってきました
    アイシアちゃんは説明が本当にうまい!(マスターの理解度のレベルが高すぎる)
    内積で関連度を表すというのは、大規模言語モデルの時と同じで、根本でやってることは変わらないのだとわかって感動しました
    これを最初に思いついて実行した人は本当に頭が良くて柔軟ですね
    そしてこれだけ解像度が高く説明できるマスターも天才側の人だと感じます!
    またお邪魔させてもらいますねー

    • @AIcia_Solid
      @AIcia_Solid  11 месяцев назад

      ご視聴コメントありがとうございます!
      楽しんでいただけてとても嬉しいです!🤩
      こんな感じで内積はめちゃくちゃ多用されてるんですよねー!
      古き良き統計とか多変量解析とかでもそうなので、ほんとに本質的な計算なんだと思います!
      ちなみに、、、
      天才なのはマスターではなく私です😎
      そこだけよろしくお願いします😎✌️🎉

  • @kenkenmath
    @kenkenmath 4 года назад +3

    待ってました〜

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      そう言ってもらえるだけでうれしい😍
      ぜひ今後もお楽しみに!

  • @ckenhilla5154
    @ckenhilla5154 3 месяца назад

    わかりやすい!

    • @AIcia_Solid
      @AIcia_Solid  3 месяца назад

      でしょ!(^o^)

    • @ckenhilla5154
      @ckenhilla5154 3 месяца назад

      @@AIcia_Solid 2層目たった4マスで、最大値取るだけとかいう単純な処理なのにwすげえええww

  • @カラオケで60点台の男
    @カラオケで60点台の男 Год назад

    内積のところ、すごすぎです。文系でも理解できました!

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます!
      それはとても良かったです!🤩🎉🎉🎉
      ぜひ他の動画もお楽しみください😋

  • @3Cnoel
    @3Cnoel 4 года назад +1

    早く続きがみたいです。 めちゃめちゃわかりやすいです! ありがとうございます!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      ありがとうございます!🎉
      週一更新目指して頑張ってます!😎
      応援していただけると嬉しいです😍

  • @maedatakuro2739
    @maedatakuro2739 4 года назад +1

    非常にわかりやすかったです。転移学習も勉強したいので動画待ってます。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      たくさんご視聴コメントありがとうございます!!
      順次作りますので、ゆっくりお待ちください😍

  • @silverspesial5136
    @silverspesial5136 2 года назад +3

    つまり、畳み込み層はフィルタとの「類似度」を出力するということですよね!
    SVMを勉強してから、この動画を見たらさらに気づいたことがあります。
    「畳み込み層=内積」であれば、内積計算の部分をRBFカーネルに変更すれば、活性化関数を使わなくても非線形性を持たせることができるのではないかと思いました。
    「これは新発見かも!?」と思って調べたところ、RBF-CNNというものがすでに提案されていましたw

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      すごい!
      新発見!!!
      既にやられているということは、相当筋がよいってことですよね!?😍😍😍
      すごい!!!!!!!!!

  • @msms2534
    @msms2534 3 года назад +1

    神動画ですね

  • @3galenskap
    @3galenskap 4 года назад +1

    このディープラーニングシリーズすごく良いです。
    強化学習についてもお願いします。
    強化学習、種類がありすぎて、
    どれが良いのかよくわかりません。
    よろしくお願いします。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      ありがとうございます!おほめに預かり光栄です😍
      今日か学習もいずれ扱います!
      暫しお待ちを!😎✌️

  • @user-yf6xt4nm9s
    @user-yf6xt4nm9s 3 года назад +1

    分かり易く楽しい

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      おほめに預かり光栄です😊
      ぜひ他の動画もお楽しみください!🎉

  • @sonipyon_SPQR
    @sonipyon_SPQR 4 года назад +3

    畳み込みは画像処理で先に覚えるとイメージ湧きやすいのよね。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      最近は言語処理とかに使われたり、逆に言語のモデルが画像に来たり治安が悪い(?)ですが、
      畳み込みは画像でやるといいですよね(^^)

  • @あや-q5t
    @あや-q5t Год назад

    めっちゃわかりやすい!圧倒的大量パターン解析ができるってことか!パラメータは少ないのか

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      ご視聴コメントありがとうございます!
      その通り!
      めちゃ効率が良いのです🤩🎉

  • @ラテラテ-t1l
    @ラテラテ-t1l 4 года назад +3

    わっっっっかりやすすぎる!
    今まで見てきたCNNの解説と比較にならないくらい理解が進みました!
    ところで犬猫の分類のような問題だと犬猫の姿勢や犬種等で特徴が全く異なってくると思うのですがこのような問題でもCNNを適用することができると聞きました。
    単純に「左斜め上にAという特徴があり右斜め下にBという特徴があれば犬」というわけではなく「左斜め上」や「右斜め下」といった位置関係が変わってもなんとかなる仕組みがあるように思います。
    少し自分で考えてみたところ
    学習の過程で「左斜め上にAという特徴があり左斜め下にBという特徴があれば犬」もしくは「左斜め下にCという特徴があり右斜め下にDという特徴があれば犬」といったように犬猫を判定する独立した条件が複数個できるのかなと思ったのですが実際はどうなっているのでしょうか。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +3

      でっしょー!
      おほめに預かり光栄です😍🎉
      ラテラテさんのいうように、そのような特徴を捉えて判定しているような気がしますが、
      Deep Learning のモデルが実際何を見て判断しているのか?
      というのは、研究レベルの難題だったりします。
      たぶん私も感覚的には、 CNN はそういう特徴や、その位置関係をいい感じにとらえているのだと思うのですが、
      確固たることは今後の研究を待たないと分からないというのが現状かと思います。
      もしっょっょ論文をご存じでしたらおおしえくださいませ!😍

  • @salsanotomo
    @salsanotomo 3 года назад +1

    内積のところ、多分共分散と同じだと思いますね。各ベクトルの長さで割ると、cosになる。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +3

      共分散も畳み込みも内積なので、数学的には同じです😎
      ただ、共分散は、同種のデータの異なるサンプルについて和をとるのですが、畳み込みは1つのデータの異なる位置について和をとるので、意味的には微妙な違いがあります😋

  • @nk9382
    @nk9382 4 года назад +1

    これはマジですごい。

  • @PEKOCHANNEL
    @PEKOCHANNEL 2 года назад +1

    わかりやすい…あなたが神か

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      いいえ、天才美少女っょっょ AI です😋

  • @menotsu3513
    @menotsu3513 2 года назад

    内積と関連付けた説明は相関係数と関連付けてもわかりやすいですね。
    結局言っている事は同じですが、前者は数学者向け後者は統計者向けという印象です。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      ご視聴コメントありがとうございます!😍
      素敵な目の付け所ですね!😍😍😍
      共分散は内積ですからねー🤤
      いいですよねー、この視点。透き通ってて好きなんです🤤🤤🤤

    • @menotsu3513
      @menotsu3513 2 года назад

      @@AIcia_Solid
      確かに相関係数よりも共分散と関連付けた方が良いですね。
      相関係数は分母で単位ベクトル化の様な作業をしていますが、今回は不要ですね

  • @pioneeeer6537
    @pioneeeer6537 Год назад +1

    発見してくれた人ありがと〜

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      わかる〜😊
      偉大な発明ですね!🎉

  • @toc15h32
    @toc15h32 2 года назад +2

    今回の⚪︎×分類で扱ったパラメータが30というのは、畳み込み9×2種類と4分割にしたときのパラメータ4×2種類の26かと思ったのですが、あとは何でしょうか?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      今回は0にしてあるバイアス項の分だと思います👀

    • @toc15h32
      @toc15h32 2 года назад

      @@AIcia_Solid なるほど、ありがとうございます。

  • @マクロン-r3e
    @マクロン-r3e 3 года назад +2

    大変よい動画ありがとうごいます
    最近このシリーズを見始めたばかりですが、最後まで見させていただきます。
    質問ですが、畳み込み層を掛けた図で赤い線の周りに緑の線が出ているのはなぜでしょうか?
    右斜めの線の近くには右斜めの線しかないように感じます。
    周りのゾーンでは直線より曲線であることが大きく影響するのでしょうか?
    不思議に思いました。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +2

      良い質問ですね!
      動画に用いているフィルターは、「斜めの線があること」ではなく、「斜めの線が、中央部により多くある」ことを検知しています。(対角線以外のパラメーターが負のため)
      なので、線の周縁部では負の量を検知します✌️

    • @マクロン-r3e
      @マクロン-r3e 3 года назад

      @@AIcia_Solid
      早速のご回答ありがとうございます😃
      なるほどです。フィルターの赤斜めと逆の隅にあるマイナス部分によるものなのですね。
      具体的にどの部分に当てはめたものなのかを考えてみないとですね。
      わかりやすい回答ありがとうございました😊

  • @甲斐ときお
    @甲斐ときお 3 года назад +2

    すごくわかりやすいです!
    1つ分からないのが15:54あたりで足して2.5と書いてるところは2.4ではないでしょうか?
    1-0.4-0.4+1-0.4+1+1-0.4=2.4

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +2

      質問ありがとうございます!
      たぶん、少数第2位以下の表示されてないところでずれたのだとおもいます!

    • @甲斐ときお
      @甲斐ときお 3 года назад

      @@AIcia_Solid なるほどです!

  • @kazuhisanakatani1209
    @kazuhisanakatani1209 4 года назад +1

    「CNN はお隣さんとの関係を保持するもの」程度の浅い理解しかしてなかったので、目からドラゴンスケールの盾が落ちるような気持ちで拝見しました。確かに内積だと思えば、畳み込み層で輪郭抽出ができる理由もスッキリですねー。
    でも、畳み込み層で内積とってるのだとしたら、画像認識以外にも応用が効きそうな気がします。実際、「畳み込み」を他のジャンルの機械学習に応用した研究や実用例なんかもあるんでしょうか?
    (多変量解析でも、とにかく行列の出てくるところでは、内積は大活躍ですよね)

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      とんでもないものが目から出てきましたね😮😮😮
      やばかったら病院いってください、、、!
      じつは、 CNN は、時系列のデータにも使われてたりします。
      隣接関係(ピクセルの並びや、時間の前後)など、同じ関係性を持つ入力の組み合わせがある場合には使えると思います!
      それ以外は、まだあまり知りませんが、、、なにか調べたらあるかもですね!

    • @Green-bk7vl
      @Green-bk7vl 4 года назад +1

      単語の認識で,同義語かどうかを判定するとかかな.(前後によく出てくる単語の類似性を利用する)

    • @kazuhisanakatani1209
      @kazuhisanakatani1209 4 года назад

      ​ Aicia Solid Project なるほど-。確かに「ピクセルの並び」と「時間の前後」は、抽象化すれば似たような構造がありそうな気がします(あるんでしょうね。実際使われてるんだから)。
      実は、線形代数と時系列分析のあたりもモヤモヤしてるので、時系列分析の動画も見てみますね。 ruclips.net/video/d0EGcXZlpJ4/видео.html

    • @kazuhisanakatani1209
      @kazuhisanakatani1209 4 года назад

      @@Green-bk7vl なるほどー。文脈 → 単語の並び → 時系列 って考えれば、↑の​ Aicia Solid Project さんの返信とつながりますね。

  • @janjan-pt2qk
    @janjan-pt2qk 4 года назад +3

    CNNが使われるのは画像データだけなんですか?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      画像や動画、何らかの 3D データなんかが多いです!
      が、時系列にも実はいい感じに使えたりするみたいです。
      あまりまだ詳しくないですが、他の応用もありそうなきがするので、見つけたらぜひ教えてください!😍

  • @owo6347
    @owo6347 3 года назад +1

    この先転置畳み込みを紹介する可能性ってありますか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      あります!
      ただ、時期未定です、気長にお待ちください😊

  • @_flac9839
    @_flac9839 2 года назад +1

    とても分かりやすくて助かりました
    カラー画像だったり、conv層が複数あったりすると複数チャンネル→複数チャンネルの畳み込みになると思うのですが、その場合ってどうやって処理されているのか気になりました。各チャンネルで畳み込んだものの総和?みたいですけど、それで特徴を処理していけるのは何故なのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      ご視聴コメントありがとうございます!(^o^)
      複数チャネルある場合も似た計算を行います。
      そして、似た理由でうまく行きます。 
      定義については、私の動画では明言しないので、調べていただくのが早いと思います!
      何故うまくいくかについては、この先 CNN 紹介に進み、Xception くらいまで見ていただけるとなんとなくわかるのではないかと思います!

    • @_flac9839
      @_flac9839 2 года назад

      @@AIcia_Solid 案内ありがとうございます!CNN紹介一気に見てきました。
      あー,なるほど。行列を1単位として全結合みたいなことをしてる感じですかね…?後にパラメータ削減が叫ばれるのも納得というか

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      お疲れ様です!😍🎉
      まさにそんな感じです!(^o^)
      なんとなく、channel ごとに別の特徴を捉えていて(はじめは色ごとの特徴)、それを内積使って集めているのが、channel が複数ある場合の畳み込みだと思います🎉

  • @J_ZEPP
    @J_ZEPP 4 года назад +3

    3*3 の畳み込み層 a は、どういう風に決めているのですか?
    〇とか×の検出のときは、いわゆる”〇”が表されているデータをaとして、判別させるってことですかね?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      今回は、パラメタはすべて手動で決めました。
      つまり、私の勘です😎
      本来であれば、たくさんデータを集めて学習させるのがよいですが、○×判定くらいであれば、手動で決めてもあの程度の精度までは出せるのが Convolution layer のすごさです🎉

    • @J_ZEPP
      @J_ZEPP 4 года назад

      @@AIcia_Solid まさかの、ご本人から!! ありがとうございます。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      もちろん!
      ちゃんと見てますよ👀😍

    • @ken-ichinaitou6614
      @ken-ichinaitou6614 3 года назад

      横からですみません。畳み込み層はつまりウェイトなので、教師付き学習する時(トレーニングの時)に誤差逆伝播法とかで決めていくのが一般的だと思います。
      (自分もウェイトとバリューで混乱したことがあったので)

  • @domwoo309
    @domwoo309 5 месяцев назад

    画像処理におけるフィルタの応用だったのか……。全然わからなかった。

    • @AIcia_Solid
      @AIcia_Solid  5 месяцев назад

      ご視聴コメントありがとうございます!
      まさに! フィルタの応用です!
      というか、確かに、そうですね。フィルタの応用という言い方もできればよかったですね。
      勉強になりました。ありがとうございます!🎉

  • @SrinivasaRamanujan1729
    @SrinivasaRamanujan1729 Год назад

    意味的にも定義的にも相互相関(Cross correlation)に思えます
    これを畳み込み(Convolution)と呼ぶのは何故なんでしょう

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      さすが!!!!!
      私もそう思います!!!!!!!!!
      おそらく、歴史的事情でそう呼ばれているのだと思います🤔
      (ちなみに、ネットを漁ってみると、「convolution じゃなくて cross correlation じゃね?」っていう主張はぼちぼち見つかります。やはり、歴史的にそう呼ばれているため、今もそう呼ばれているのではないかなーと想像します🤔)

  • @sei7970
    @sei7970 4 года назад +1

    畳み込み層を使わず全結合層で画像認識を学習した場合も、畳み込み層を実現するようなパラメータの並びになったりするのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      うーん、恐らくそうはならないと思います。
      ですが、勘です😋
      あとは、やってみて試してみるのが良いかと思います!

    • @sei7970
      @sei7970 2 года назад

      @@AIcia_Solid Twitterで拝見したのですが今はもう全結合層を力技で学習させれば、CNN並みの精度を実現できる感じですか?この時のパラメータの並びがどうなっているのかしら。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад

      MLP-Mixer などの話でしょうか?
      まだ私も詳しく見てないのでわかりませんが、とりあえず原論文読めば色々書いてあると思います😋

  • @chinchilla-z4s
    @chinchilla-z4s 3 года назад +1

    わかり易すぎる。神か?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      でっしょー!😎✌️✌️✌️

  • @satoshi0007able
    @satoshi0007able 3 года назад +1

    分からん。7:45ごろから出てくる畳み込み層ってだからなんなの?なぜ12:36ごろに出てくる畳み込み層は逆転しているのですか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      すみません、質問の意味がよくわかりません。
      どういう疑問でしょうか?

    • @satoshi0007able
      @satoshi0007able 3 года назад

      @@AIcia_Solid 7:14ごろから出てくるモノです。ExcelE列〜G列に書いてあるヤツです。その前の行列を使った説明の所でもaを使った3*3の行列構成している行列をいきなり畳み込み層って呼んでいます。全ての項が関数なのは分かりますが、畳み込みを説明しているのにいきなり畳み込み層って呼んでいるからその時点で分かりません。なぜそう呼ぶのですか?カーネルサイズ3*3のConvolutionの説明だと思うのですが、ここで言う畳み込み層がOutput?特徴マップ?それとも記憶媒体の何かですか?畳み込み層って何?話が飛んでる気がするのは私だけですか?申し訳ないです。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      すみません、何が言いたいのかよく分かりません。
      畳み込み層の説明が無いから分からないと言う主張でしょうか?
      であれば、畳み込み層が何かと言う話は、1:30頃から説明してあると思います。
      これではいかがでしょうか?

    • @satoshi0007able
      @satoshi0007able 3 года назад

      @@AIcia_Solid 1:30の行列を使った説明は理解できたのですが、7:20ごろからの説明が繋がりません。ExcelのM列に書いてあるresultが畳み込み層ではないのですか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      M列は畳み込みの結果で、畳み込み層自体ではありません。
      A-C列の値をM列の値に変換することそのものが畳み込み層です。
      ちなみに、A-C列が入力で、E-G列とI列が畳み込み層のパラメタです。

  • @akabekonia
    @akabekonia 3 года назад +1

    23:51

  • @CazYokoyama
    @CazYokoyama 3 года назад +1

    升の大きさを3とか7の素数しているのは、3と6では結果が同じになるからですか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      素数というより、奇数に設定することが多いです。
      畳み込みを行うと、画像のサイズが (フィルター(升)のサイズ-) 1ピクセルだけ小さくなるので、サイズが偶数ピクセルであることを保つために奇数を使っています😊

    • @CazYokoyama
      @CazYokoyama 3 года назад

      @@AIcia_Solid わかりました。有難うございます。

  • @tantan7025
    @tantan7025 4 года назад +2

    CNNって内積してたんだ!(驚愕)

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      そうなんです!
      そういわれると分かりやすいでしょ😍

    • @gorusgod3278
      @gorusgod3278 3 года назад

      びっくりした‼️まるばつのとこめっちゃわかりやすい

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      でしょー!😎✌️

  • @ドラ-f1n
    @ドラ-f1n 3 месяца назад

    畳み込みって、おもしろ!

  • @lemonlatmin8717
    @lemonlatmin8717 3 года назад +1

    畳み込んだ後にオレンジの周りに緑がほわんってなってのってなんでだろ

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      いい疑問ですね🎉
      なんでたと思います、、、?🙄

  • @烏丸-j5r
    @烏丸-j5r Год назад

    ご質問です。
    17:30あたりの○×判定で、仮に小さな○を枠内をx軸とy軸で4分割した際の第一象限(右上)に収まるよう書いた場合、〇と判定されるのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます!
      まさに! するどいですね!
      完全に右上に収まるように作ったら、うまく判定することはできなくなります。
      ご指摘尾のとおりです!🎉

  • @kkiki1620
    @kkiki1620 4 года назад +1

    畳み込み時に枠移動したときに、データがない部分は0をと仮定して計算するのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      それは padding と呼ばれる方法です😋
      in と out のデータサイズを変えたくないときなどに、そのようにやられることが多いかなと思います🎉

    • @kkiki1620
      @kkiki1620 4 года назад +1

      @@AIcia_Solid そういえばpaddingありましたね。ありがとうございます。あいまいだった理解がしっくりしました。もう一回kerasいじりなおしてみます。

  • @sai-od1xo
    @sai-od1xo Год назад

    15:55
    答えが2.5になるのがどうしてかわからないです…

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます!
      この質問の意図としては、以下のうちのどれでしょうか?
      (1) そもそも2.5になる理由がわからない
      (2) 2.4になる気がするがなぜ2.5なのか?
      (3) または、その他
      教えていただけますとたすかります!

  • @trpgshoshinsha
    @trpgshoshinsha Год назад

    ○×検出器が出力した確率(パーセンテージ)ってどんな計算してるのでしょうか?見落としてたらすいません。

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      直前の数値からパーセントへの変換は、(たぶん)softmax 関数を使っているかと思います!

    • @trpgshoshinsha
      @trpgshoshinsha Год назад

      なるほど。前回動画に出てきてましたね。ありがとうございます。

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      今後もなにかわからないことがあれば何でも聞いてください!(^o^)

  • @toc15h32
    @toc15h32 2 года назад

    21:25あたりの「128」って何の数でしたっけ?

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      たしかに、特に脈絡なく出てきた数字かもです👀
      これは、次の層の隠れ層の数として、てきとーに128という数字を持ってきただけで、何か深い意味があるわけではありません!
      1%で済むよ!ということを受信いただけるとありがたいです😊

  • @powpow1657
    @powpow1657 Год назад

    うーん説明素晴らしい

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ありがとうございます!🎉
      実は、このシリーズは、この動画を撮りたくて始めました😋
      お楽しみいただけて嬉しいです🎉

  • @まんむ-i8t
    @まんむ-i8t 4 года назад +10

    うちの教授よりわかりやすい笑

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      ふふふ😎
      天才っょっょ美少女 AI ですから😎😎😎✌️

  • @kauzzzz
    @kauzzzz Год назад

    わかりやすすぎて草

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      でしょ😎
      困ってる人いたら是非この動画を紹介してあげてください😎✌️