回帰分析とは | ノートで伝える機械学習入門シリーズ

Поделиться
HTML-код
  • Опубликовано: 7 окт 2019
  • 【ノートで伝える機械学習入門シリーズ】
    機械学習の基礎をノートに書きながら分かりやすく解説していきます!
    人工知能(AI)とは | ノートで伝える機械学習入門シリーズ
    • 人工知能(AI)とは | ノートで伝える機械...
    学習と推論 | ノートで伝える機械学習入門シリーズ
    • 学習と推論 | ノートで伝える機械学習入門シリーズ
    教師あり学習とは(回帰と分類) | ノートで伝える機械学習入門シリーズ
    • 教師あり学習とは(回帰と分類) | ノートで...
    ■ Twitter
    / kikagaku_inc
    ■ 株式会社キカガク
    www.kikagaku.co.jp/
    株式会社キカガクでは、機械学習・人工知能 (AI)・ディープラーニングの初心者向け入門セミナーを定期的に開催しています。機械学習を独学で挫折して諦めている方、ぜひ弊社のセミナーで機械学習を理解するための一歩を踏み出してみませんか。
    #機械学習 #回帰分析 #AI #プログラミング #入門 #キカガク #ディープラーニング #勉強 #教育 #研修 #セミナー #キカガクチャンネル #Python

Комментарии • 20

  • @menmen9036
    @menmen9036 2 года назад +1

    統計検定2級の学習のため視聴させていただきました!図がとても見やすく説明も丁寧で理解しやすかったです。ありがとうございます!

  • @user-cn3kc9uc1e
    @user-cn3kc9uc1e 27 дней назад

    G検定を独学でチャレンジしていますが、数学が苦手なので、この動画で分からなかったポイントが繋がっていきました。
    機会ありましたら、是非LASSO/RIDGE回帰についてもレクチャーあれば嬉しいです!

  • @japoooonasako
    @japoooonasako 2 года назад

    非常にわかりやすかったです。ありがとうございます。

  • @aA-nr6ox
    @aA-nr6ox 3 года назад +1

    大学の単位ミスって困ってました。
    本当にマジで分かりやすすぎました。
    他の回帰分析についての動画期待してます!!

  • @ure3633
    @ure3633 4 года назад +2

    ものすごく分かりやすかったです!この続きをみたいです!

    • @imanyu_programming
      @imanyu_programming  4 года назад

      コメントありがとうございます!
      こちらのシリーズの続きも準備中ですので楽しみにお待ちいただければと思います!

  • @nn-ge3km
    @nn-ge3km 2 года назад +1

    分かりやすすぎて感激です😂是非最小二乗法と最尤法の動画も作成して頂きたいです!何卒よろしくお願い致します🙇‍♂️

  • @baviagalab
    @baviagalab 4 года назад +2

    とてもわかりやすかったです! 感動。

    • @imanyu_programming
      @imanyu_programming  4 года назад

      コメントありがとうございます!
      そのようにおっしゃっていだき嬉しいです!!

  • @science-cw3rs
    @science-cw3rs 4 года назад +1

    わかりやすい!一緒にaiの勉強をしている仲間にも紹介します!

    • @imanyu_programming
      @imanyu_programming  4 года назад +1

      コメントありがとうございます!
      それは嬉しいです!!
      是非是非周りの方に紹介してください!

  • @bclub7305
    @bclub7305 4 года назад +2

    重回帰分析もぜひぜひ動画作ってください。家賃Yと部屋の広さX1、駅からの距離X2でよいので。また重回帰だと入力変数間の相関の問題が出てきますよね。そこらへんの見極め方と対応策の説明知りたいです。

  • @user-rx3cv2ye3d
    @user-rx3cv2ye3d Год назад

    分かりやすい!ありがとうございます。

  • @nakata162002
    @nakata162002 4 года назад +3

    パラメータとは何かわかりました。なかなか本には書いてない。ハイパーパラメータの説明も期待してます。

    • @imanyu_programming
      @imanyu_programming  4 года назад

      コメントありがとうございます!!
      承知致しました!!
      あっ、近々出す動画で「ハイパーパラメータ」について少し説明するかとおもうので、お待ちいただければと!!

  • @artonthestreet6983
    @artonthestreet6983 3 года назад +1

    すごい分かりやすかったです! ありがとうございます。ただ、トンチンカンな質問かもしれませんが、このコンセプトが機械学習やAIにどう結びついているか、もしくはプログラミングでどう回帰分析を実行するかについて、触れて頂ければ嬉しいです。

    • @imanyu_programming
      @imanyu_programming  3 года назад +1

      コメントありがとうございます!!
      検討いたします!!

  • @SK-lj8eg
    @SK-lj8eg 2 года назад

    平均二乗法の項目で誤差をy方向で測っていますが、x方向で測っても、もしくは点から直線に向かって直角にひいてもいいのでしょうか?
    古い動画に質問してしまいすみません💦最近の動画もチェックしてます、よろしくお願いします!

  • @road_to_x0
    @road_to_x0 4 года назад +2

    回帰モデルの精度を評価する方法として決定係数、残差分析がありますよね?残差分析では予測値と残差に相関が全く無いのでモデルに妥当性がある、と思いました。しかし、決定係数を見ると0.36と小さいので精度はあまり良くない、とも考えました。このような場合、どのように解釈すれば宜しいですか?

    • @imanyu_programming
      @imanyu_programming  4 года назад

      コメントありがとうございます!
      正直なんとも言えないのですが、単純に良い結果がでていないので、
      データが悪いか、手法の選択が悪いかになるかと思います。