【深層学習】関数 - なぜ「深さ」が AI を生み出しているのか?【ディープラーニングの世界 vol. 3 】

Поделиться
HTML-код
  • Опубликовано: 6 сен 2024

Комментарии • 123

  • @user-xl3xn7qx9w
    @user-xl3xn7qx9w 3 года назад +16

    原理を説明されると「なるほど。そうやると複雑なやつをシンプルに表せるよね」と納得するけど、無から最初に考えた人の天才っぷりがすごい

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +3

      ですよねー。
      ほんとにすごい😮😮😮

  • @manbodama
    @manbodama 3 года назад +3

    一般的な「深さによって抽象的な特徴を抽出している、表現力が高くなる」みたいな曖昧な説明でなく、ちゃんと理学的な観点から根拠付けるあたりさすがだと思った。二次関数とかでも理論上可能って背景は知らんかった。そう言われると活性化関数の説得力がマシマシになる。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      でしょ😍
      お褒めに預かり光栄です😎✌️

  • @manhattancafe_35
    @manhattancafe_35 4 года назад +4

    少ないパラメータで複雑な関数が作れるってとこの説明がものっそい分かり易かったです!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      ご視聴コメントありがとうございます!😍
      だから Deep はすごいんですよ!
      ぜひ参考にしてください😋

  • @KK-rl5bs
    @KK-rl5bs 3 года назад +1

    数学的な意味をあつかっている講座はほとんどないです。
    AIciaさん ならではの解説になっており、ありがたいです。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      でしょ😋
      必要そうな人いたら是非勧めてください~!(^o^)

  • @user-bk5kf2ww2y
    @user-bk5kf2ww2y 4 года назад +6

    deep lerningをここまで数学的に平易にした説明って入門書とかではなくて(入門書は数学嫌いな人でもわかる~みたいな言い方をする)ので、
    この説明のあっさり具合にいい意味で感動しました。数値の集まりなんだから関数とみなすって感覚、工学のフーリエ変換みたいです。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      おほめに預かり光栄です😍😍😍
      フーリエ変換ににてるってのは面白いですね!
      Deep Learning も工学ど真ん中の分野なので、いろんな所が似てるのかもしれません😎

  • @OrangeCamus
    @OrangeCamus 2 года назад

    なぜこうするのか?なにをしたくてこうするのか?を説明している話はほとんど見ない。ありふれたものはどうやるか?の手技だけ。この人の動画は「なぜ」を非常にシンプルで具体的、中学生でも分かる理由に落とし込んで説明してくれている。神動画。

    • @AIcia_Solid
      @AIcia_Solid  2 года назад +1

      ご視聴コメントありがとうございます!!
      お褒めに預かり光栄です😍
      続く動画でも頑張っておりますので、お時間あるときにお楽しみいただけたら嬉しいです😋

  • @user-vw3jv2pr7b
    @user-vw3jv2pr7b 3 года назад +4

    なんだ!このわかりやすさは。素敵すぎて気を失います

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      ありがとうございます!
      おほめに預かり光栄です😊
      ぜひいろんな方に伝えていただけるとうれしいですー!

  • @user-ev7vq5zi7z
    @user-ev7vq5zi7z 4 года назад +5

    今回も深い話をありがとうございます。数学的に地道に一歩一歩進むのが心地いい‼️😍

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      いつもご視聴ありがとうございます😍🎉
      なかなかないタイプの説明ですよね😎
      せっかくなので色を出してみました😋

  • @keisuke3490
    @keisuke3490 Год назад +2

    めちゃくちゃ面白い授業です、最高です!教えるのすごく上手でわかりやすく感動しました!

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます!🤩🎉🎉🎉
      今後も良き動画を生成できるよう頑張ります🔥
      ぜひご活用くださいませ!🤩

  • @user-xk4xi3ex8v
    @user-xk4xi3ex8v 3 года назад +2

    大変分かりやすい説明、ありがとうございます。
    効率的に(パラメータ数をいたずらに増やさず)複雑なモデルを構築できるという利点、理解できました。しかし社会実装を考えた時、オーバースペックなことも多いのではと感じました(ここでのオーバースペックとは、out-of-sampleの予測精度が単純な計量経済学的モデルと比較して大差ない状態)。画像認識などのビックデータ解析では猛威を振るいそうですね。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      まさにその通りです!
      Deep には強いところと弱いところがあり、ほかの手段と合わせて適材適所で運用するのがベストだと思います😊

  • @user-gz5lt4wp6v
    @user-gz5lt4wp6v Год назад +1

    わかりやすく、言葉の意味がスッキリしました!

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます🎉🎉🎉
      それはとても良かったです!(^o^)
      深さの良さはまた色んなところで語られていますので、深い沼に興味があればこちらあたりをぜひ😎
      amzn.to/3GR1SHo

    • @user-gz5lt4wp6v
      @user-gz5lt4wp6v Год назад

      @@AIcia_Solid 書籍の紹介ありがとうございます。
      G検定勉強しながら読んでみます!

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      ぜひぜひ!
      おすすめです!(^o^)

  • @user-fc1xm9zh5f
    @user-fc1xm9zh5f 4 года назад +4

    今まではDeepLearning?へーすごいものがあるんだねーくらいにしか思ってなかったけど数式で理解できてめちゃくちゃ面白いと思った

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      ご視聴コメントありがとうございます!😍
      ぜひ Deep Learning の世界にも飛び込んでみてください!

  • @kazuhisanakatani1209
    @kazuhisanakatani1209 4 года назад +2

    「CNN はご近所のピクセルとの関係を保持するためのもの」くらいの理解だったんですが、パラメータ数を削る工夫でもあったんですね(言われてみれば確かに…)。次回の解説が楽しみです。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +2

      そうなんです。「パラメタ共有」によって、圧倒的にパラメタを減らす役割があるのです。
      また、「関係を保持」程度より、畳み込みには、もっと圧倒的なメリットがあります
      そこら辺も、 CNN で解説しますので、お楽しみに!

  • @RE-gj6sq
    @RE-gj6sq 4 года назад +3

    一般的?な説明をしないあたり、すごくこだわりを感じます。本質ですね。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      shin 157 さんありがとうございます😍
      まさに!
      Deep Learning の説明は、こういう角度のものがあっても良いとおもうのです😎
      理解の助けになれば嬉しいです🎉

  • @snnx10
    @snnx10 4 года назад +4

    これは分かりやすい。パラメータの削減による効率化の工夫が各社ツールの差異になるのかな。同じ設問にコンピュータ資源を無限時間使えば各社同じゴールに到達するのかな?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      ご視聴コメントありがとうございます😍🎉
      他にも大切な要素は大量にあるので一概には言えませんが、そのようになると思います。
      無限の計算資源があれば、、、のことろは、めちゃくちゃ深い話になると思います。
      同じゴールへの収束が保証されるような手法が発見されるとよいですね😋

    • @manbodama
      @manbodama 3 года назад

      過学習?

  • @user-yf6xt4nm9s
    @user-yf6xt4nm9s 3 года назад +1

    よくコンピューターの計算力向上とdeepブームが結び付けられますが
    むしろこのような工夫で計算可能なレベルまでパラメータ数を削減できたのが大きいんですね
    納得できました

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      もちろん計算力やブームもあります!
      それに加えて、論文では、同じパラメタ数で精度を比較したりもするので、パラメタ効率も大事なのです!🔥

  • @satokan8570
    @satokan8570 Год назад

    このシリーズ面白い!自分はAI方面には進みませんが、ためになると感じているので、全部見ます!

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます!🎉
      ぜひぜひ、楽しんでみていただけると嬉しいです!🎉

  • @user-iu2ek5dv1v
    @user-iu2ek5dv1v 9 месяцев назад

    スーパー専門外ド素人なんですけど、めちゃくちゃ腑に落ちました。この動画に出会えてよかった!(サクラではない)
    この前の、社会学、民俗学とのコラボ対談も面白かったです。投稿頑張ってください~~

    • @AIcia_Solid
      @AIcia_Solid  9 месяцев назад +1

      ご視聴コメントありがとうございます!!🥳
      そう言っていただけると、動画を生成したかいがありました!🎉
      この前のコラボ面白かったですよね!!!
      またやるので良ければ是非見に来てください!🤩🎉

  • @Remi1y
    @Remi1y 4 года назад +14

    図とか、脳神経とかで説明されるとわかるようでわからないまま終わるけど、数学的に話してもらえるだけで今までの話がストンと落ちてきました。
    やっぱり数式無しで話されるより数式あったほうが理工系の人間には100億倍くらいわかりやすいですね。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +3

      ご視聴コメントありがとうございます😍😍
      まさに、れみりさんのような方に向けて、「数式を分かりやすく」をコンセプトとして作ってます!
      届いたようで嬉しいです🎉

    • @user-td2dh3ez6r
      @user-td2dh3ez6r 4 года назад +2

      自分もオライリーの本とかは数式少ないんでなんかよくわからないで終わりました...
      普通に数式がっつり入ってる本の方がわかりやすかった
      結局数学やってるんだから数式無いときついですよね

    • @RE-gj6sq
      @RE-gj6sq 4 года назад

      理工系じゃなくてもあの説明で納得してる人はいないんじゃないかな笑

  • @hayatoogura4846
    @hayatoogura4846 4 года назад +6

    質問です!最初の方で2次関数を10回繰り返すと30個のパラメータで済むという事には納得できたのですが、動画の最後の方では2次関数のパラメータは450億パラメータと説明されていたので、
    その部分の理解が追いつきませんでした、、教えて頂けると非常に助かります!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +4

      N 変数 d 次多項式は、 (N+d-1)C(d-1)次元あると計算できます。
      これを利用すれば、その部分の計算もできるかと思います😎✌️

  • @user-uy4dj9zj5w
    @user-uy4dj9zj5w 3 года назад +4

    これ面白い話題や。参考文献やこういう話題について書かれた本が有れば教えてください

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +2

      でしょ😎✌️
      この内容は、さまざまな文献見て総合してまとめたもので、何か別の参考文献に同じ内容が書いてある、、、というのは見たことがありません。
      もしこういう内容がある本があれば教えていただけるとうれしいです!

  • @rurueru2003
    @rurueru2003 Год назад

    「非線形のわけわからん関数をはさんだらいけんじゃない?」
    って言うところは、すごい飛躍を感じるなぁ。
    相対性理論や量子力学のほうがまだそれまでの知識の延長線の感じがするぐらい。
    どうやって思いついたんだろう。天啓なのか単に天才だったのか。

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      ご視聴コメントありがとうございます!
      深くするには非線形でないと意味がないというのは、当時の研究者さんには常識だったとは思われますが、
      深くする事によって精度が高まるということは、学習の収束レート含めて、極めて非自明なので、この領域に手をのばす人がいたことは、当時の研究の層の厚さを私も感じます😊

  • @hiroshimori8098
    @hiroshimori8098 4 года назад

    動画色々拝見させていただきましたが、非常にわかりやすく感銘を受けました。
    できれば統計と機械学習の関係性を説明するような動画が見てみたいです。
    (自分自身、統計と機械学習がうまく結びついていないようで・・・)
    的外れなことを言っていたら申し訳ないです。

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      ご視聴コメントありがとうございます😋
      難しめのやつは過去あげてみました!
      ruclips.net/video/P3QJdlGdscU/видео.html
      ですが、もうちょっと入門的なものはまだないですね。
      いま作りたいものリストが片付いたらまた作ってみようと思います!🎉

    • @hiroshimori8098
      @hiroshimori8098 4 года назад

      返信ありがとうございます。
      早速拝見させて頂きます。
      新作の動画も期待してます!

  • @minnashiawaseninare
    @minnashiawaseninare 4 года назад

    声とキャラのギャプが気持ち悪いけど、内容は本当に素晴らしい!腹落ちが劇的に進みました!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      恐ろしいことに、ギャップはそのうち慣れてしまいます😎😎😎
      楽しんでいただけたようで何より!
      ぜひ他のもみてみてください😍

  • @user-nh1qj6dx9w
    @user-nh1qj6dx9w 4 года назад +4

    ニューラルネットワークの図のところで、どうして同じ変数x1,x2,x3からz1,z2,z3…と複数作り出すのですか?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +2

      深さを活かすためです。
      すぐ1変数にしてしまう場合を考えましょう。
      p = f(x) は、
      p = h(z), z = g(x) ( z は1変数)
      となる(gよりうしろを全部hでひとまとめにしました)わけですが、これで1000分類の画像分類を作るには、
      まず z = g(x) で、猫画像を z = 0~1 あたりにあつめ、犬画像を 1~2 にあつめ、車画像を 2~3 にあつめ、、、とやれる必要があります。(じゃないと分類できない!)
      ということは、関数 g ひとつでほぼ画像分類をこなすことが必要になります。
      これでは、深さを活かすことになりません。
      より分かりやすい、直接的な説明は、画像分類の CNN のところでやりますので、そこまでついてきていただけると嬉しいです!

    • @user-nh1qj6dx9w
      @user-nh1qj6dx9w 4 года назад

      ありがとうございます
      解説めちゃくちゃ助かります…
      これからも動画見させて頂きますね!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад

      ぜひぜひ!
      お楽しみに!!😍🎉

  • @sikino3095
    @sikino3095 3 года назад +1

    物理出身ですが、ディープラーニングに興味が湧いて拝見しています!
    ほどほどに数式があって本当に分かりやすく、助かります!
    1つ質問です。関数が深い=良いのニュアンスは分かりますが、
    例のように2次関数を元にすると2^n次の飛び飛びの次数しか得られないですよね。
    数学でいうと完全系ではない関数系で展開していることになると思うのですが、
    これでも実用上十分なのか、それともなにかしら証明があるのでしょうか?
    または、1次関数を非線形関数(動画中ではReLU, sigmoid1)に入れる場合は
    完全系に近づいていく…みたいな話が裏にあるのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      ご視聴コメントありがとうございます😍🎉🎉🎉
      この話題は、「万能近似定理」「普遍性定理」と呼ばれているので、このワードを調べてみるとよいかと思います!!!

    • @sikino3095
      @sikino3095 3 года назад

      @@AIcia_Solid ありがとうございます!万能近似定理で調べたところ、まさにこのことでした。
      これからも動画、楽しみにしてます!

  • @nickparker9291
    @nickparker9291 7 месяцев назад

    分かりやすい解説ありがとうございます!
    右下のまとめ部分、3万変数の2次関数を10個組み合わせる場合、ひとつの関数あたり、パラメータは3万^2/2=4.5×10^8。それが10個あるとパラメータは、4.5×10^9=45億かと思ったのですがいかがでしょうか??
    間違ってたらすみません!

    • @AIcia_Solid
      @AIcia_Solid  7 месяцев назад +1

      ご視聴コメントありがとうございます!🎉
      たしかに!!!
      よく考えると、ここは表現がいろいろ不適切でした、、、。
      とりあえず、重ねたほうがパラメーター効率が良いと考えていただけると助かります🙇‍♀️
      後ほど、概要欄に訂正のリンクを乗せます!

    • @AIcia_Solid
      @AIcia_Solid  7 месяцев назад +1

      概要欄に追記しました!
      細かい話に興味があれば、リンク先から確認いただけますと助かります🙇‍♀️🙇‍♀️🙇‍♀️🙇‍♀️🙇‍♀️

    • @nickparker9291
      @nickparker9291 7 месяцев назад

      @@AIcia_Solid細かい点で失礼いたしました、ご丁寧に ありがとうございます!引き続き応援しています!

    • @AIcia_Solid
      @AIcia_Solid  7 месяцев назад

      いえ!ご指摘いただきありがとうございます!
      これでまたチャンネルのクオリティが高まりました!🥰🎉
      ぜひ今後もなにか見つけた際はお教えください!🙇‍♀️

  • @speed864
    @speed864 3 года назад

    全てに意味があるの面白いですね

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      いつもご視聴コメントありがとうございます😊
      この先もいろんなものが出てきますので、ぜひお楽しみを!

  • @user-wk9rs7gu6l
    @user-wk9rs7gu6l Год назад +1

    深層学習を独学で学んでるけどこの人の説明ないと学べないくらいわかりやすい

    • @AIcia_Solid
      @AIcia_Solid  Год назад +1

      ご視聴コメントありがとうございます!🎉🎉🎉
      そう言っていただけると嬉しいです😊
      ぜひたくさんご活用ください!🤩

  • @Gg-zz9wh
    @Gg-zz9wh 2 года назад

    最高です。

  • @gecrwil
    @gecrwil 6 месяцев назад

    ReLU関数を合成していって複雑性を創り出せるのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  6 месяцев назад +1

      ご視聴コメントありがとうございます!
      はい、そのとおりです!
      様々な変換と組み合わせて ReLU を用いることで、かなり効率よくいろんな複雑な関数を作れることが知られています😊

  • @akabekonia
    @akabekonia 3 года назад +1

    笑顔が素敵

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      ありがとうございます🎉
      はじめて言われたかもです😍

  • @user-ox4gm3fw5v
    @user-ox4gm3fw5v 3 года назад

    面白く学べました。ありがとうございます。
    質問させて下さい。冒頭ご説明のf(x)=2x^2-1の様な典型的な二次関数fのn乗xをディープラーニング用の非線形関数として適用することは可能でしょうか。またそれら二次関数層とReluやsigmoid関数層の組み合わせも可能でしょうか。それは「良い関数を見つけること」になるのでしょうか。

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      もちろん可能です!
      ただ、実装は自分で行うことになるとか、性能が上がるかは未知数とか、そういう話はあるかもしれませんね😋

  • @salsanotomo
    @salsanotomo 3 года назад

    ここまでは、ついてこれました。

  • @imyour1602
    @imyour1602 4 года назад +2

    アイシア先生、16:00 の10^3700 パラメーターってどんな感じの計算で出したんですか?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +4

      斉次多項式 - Wikipedia ja.wikipedia.org/wiki/%E6%96%89%E6%AC%A1%E5%A4%9A%E9%A0%85%E5%BC%8F
      こいつに数値放り込んで、 log とって桁数を計算すれば OK です!
      log n! の計算には、
      n! ≒ e^{n log n} (※)
      を使います。
      ※ホントはもうちょっと精密なバージョンあり(スターリングの公式)

    • @imyour1602
      @imyour1602 4 года назад

      Aicia Solid Project なるほど!ありがとうございます!

    • @kenjit7809
      @kenjit7809 4 года назад

      @@AIcia_Solid アイシア先生、分かりやすい動画ありがとうございます。ちなみに、450億パラメータと300万パラメータはどのような計算でしょうか?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      n変数2次関数 x m個
      の場合、約 n^2 / 2 x m パラメタ
      n変数1次関数 x m個
      の場合、約 n x m パラメタ
      というのを利用しました。
      (中間層の次元を100として計算していただければ大体そんな数字になるかと思います!)

    • @kenjit7809
      @kenjit7809 4 года назад

      @@AIcia_Solid ご回答頂き、ありがとうございました〜

  • @username-9982
    @username-9982 3 года назад

    なんかReLU聞いたことあるなって思いながら何に使ってるかわかんないで値に入れてたけどこういう使い方がされてるのか

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      そーなんですよ(^o^)
      すごく大事な部品なのです😎

    • @username-9982
      @username-9982 3 года назад

      @@AIcia_Solid かわいいモデルと分かりやすい説明、いつもたすかります!

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      おほめに預かり光栄です!🎉
      ぜひほかのどうがもたのしんでみてくださーい!

    • @username-9982
      @username-9982 3 года назад

      @@AIcia_Solid (*゚∀゚)/~~ ハ~イ

  • @itomasamasa
    @itomasamasa 4 года назад +1

    14:00 あたりですが、線型→線形ではないでしょうか

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +4

      「せんけい」は、実は、線型でも線形でも OK です!
      昔は線型が主流で、最近は線形がよく使われるようになりました。
      動画的には、最近よく使われる線形にしようと思ってたのですが、普段は線型を使ってるので、つい癖で、動画でも出てしまいました😋
      特に誤りでなければ、問題もなしです。
      ですが。ご指摘ありがとうございます😍🎉
      他にもなにか気づいた点があれば遠慮なくお申し付けください!

    • @itomasamasa
      @itomasamasa 4 года назад +1

      @@AIcia_Solid
      そのような経緯があったとは、、勉強不足でした
      ネットワークエラーで何度も送ってしまっていたみたいで申し訳ございません
      また、毎回、興味深い動画をありがとうございます!勉強させていただいております

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +2

      いえ、線型はオタクしか使わないので、、、ほんとに指摘ありがとうございます🙇‍♀️
      ぜひ今後も動画を楽しんでいただけると嬉しいです!🎉

  • @user-jt2ik9cp6b
    @user-jt2ik9cp6b 3 месяца назад

    初心者です。n変数2次関数って何ですか?2次関数はa,b,cの3変数と思います。

    • @AIcia_Solid
      @AIcia_Solid  3 месяца назад

      ご視聴コメントありがとうございます!
      n 変数2次関数は、入力の変数が n 個ある2次関数です。
      たとえば、3変数2時間数なら、
      f(x, y, z) = ax^2 + by^2 + cz^2 + dxy + eyz + fzx + gx + hy + iz + j
      です。
      この場合はパラメーターは a から j の10個あります。
      疑問の解消にはなりましたでしょうか?
      もしまだ不明瞭な点があれば続けてぜひご質問ください!

    • @user-jt2ik9cp6b
      @user-jt2ik9cp6b 3 месяца назад

      @@AIcia_Solid
      そういうことなんですね!ありがとうございます!ただx*yとかノード同士で掛け算しちゃっててパラメタの寄与度に影響ありそう。

    • @AIcia_Solid
      @AIcia_Solid  3 месяца назад

      疑問が解消されたようで良かったです!
      この例はあくまで深さのメリットをお伝えするだけの例ですので、
      どんどん先に進みつつ、関連を探してみるのが良いかと思います。
      是非続きも楽しんでいただけたら嬉しいです!🎉

  • @imyour1602
    @imyour1602 4 года назад

    アイシアさんの周りのデータサイエンティストのMacユーザーとWindowsユーザーの割合を教えてください!

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      大体半々くらいだと思います😋
      本当に重い計算になったら、サーバーとかクラウドに投げることになるので、手元の端末は好きなやつでいいと思います😋

    • @imyour1602
      @imyour1602 4 года назад +1

      なるほど。勉強になります!)WindowsユーザーなのでMacユーザーばかりだったらどうしようと思ってました)

  • @user-cp4yu5ox6f
    @user-cp4yu5ox6f 3 года назад

    n変数の二次関数のパラメーターの数はどうやって導出するのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад +1

      n変数のd次多項式全体は、 (n+d-1)C(d-1) で求められます。
      調べるとたくさんでてきますので、探してみてください~!(^^)

    • @user-cp4yu5ox6f
      @user-cp4yu5ox6f 3 года назад

      @@AIcia_Solid ご教示いただきありがとうございます!
      いつも大変勉強になっております😀

  • @user-fu2dz8yt3x
    @user-fu2dz8yt3x 3 года назад

    n変数の二次関数のパラメーターの数は、n^2/2ではなく、n^2/3ではないのですか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      なるほど🤔
      なぜそう考えたのでしようか?

  • @ai2012
    @ai2012 4 года назад

    遺伝的アルゴリズムとか人工生命ってよく聞くけど、あれってなんなんでしょう。機械学習系とはまた別ジャンルなのかな?

    • @AIcia_Solid
      @AIcia_Solid  4 года назад +1

      遺伝的アルゴリズムは、機械学習の一分野とされることが多いと思います。
      人工生命は、私はあまり詳しくないのでよくわかりません、すみません😋

  • @mampam3244
    @mampam3244 3 года назад

    だから多項式近似で言えば高次多項式が能率良く作れるのだけど、出来る多項式は限定されますよね。
    なぜその限定された多項式でこうもうまく行くのかが知りたいです。
    多変数高次多項式の性質をその係数から調べるのは数学者の出番でしょう?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      多項式の話は例えばなしで、現実の deep learning ではやや異なります。
      ちなみに、そのあたりの理論解析はこの本に詳しいらしいです(^o^)(私はまだパラっとしか見ていませんが)
      amzn.to/3BuyQbC

    • @mampam3244
      @mampam3244 3 года назад

      @@AIcia_Solid 有益な情報ありがとうございます!ちなみにコルモゴロフの定理は面白ですね。多変関数数が一変数関数で実現できてしまう。
      (NN業界では下火なっちゃたけど)
      研究、仕事(重なるよね当然)、「金儲け」頑張って下さい!

    • @mampam3244
      @mampam3244 3 года назад

      あ、
      それからReLUではpiece-wise linearなるけどそのあたりの解析の研究ありますか?

    • @AIcia_Solid
      @AIcia_Solid  3 года назад

      すみません。質問の意味が分かりません。
      そのあたりの研究とは、何のことでしょうか?

    • @mampam3244
      @mampam3244 3 года назад

      @@AIcia_Solid さすが数学者ですね!例えばそうなると学習うまい方法かんがえられるぜとかないかな?
      あ、
      それから数学はgenericな場合相手してるけどこれハンデなりませんか?

  • @user-ft4ur3ct3q
    @user-ft4ur3ct3q Год назад

    目の神経細胞にヒントを得てるって知らなかったー

    • @AIcia_Solid
      @AIcia_Solid  Год назад

      そうなんですよー!
      初期は結構視覚野からアイデアをもらっていたようです。
      今は今で、認知発達ロボティクスなんかでは、機械の学習と人間の学習を対比させて研究していたり、互いの分野でアイデアを交換し続けている活発な分野です!(^o^)/