Able Programming
Able Programming
  • Видео 37
  • Просмотров 1 008 261

Видео

【機械学習】クラスタリングの実践|スクレイピング、kmeans
Просмотров 8 тыс.5 лет назад
← 次元削減 ruclips.net/video/PDeC1OyO-5I/видео.html ソースコード github.com/TatsuhiroAbe/ml_practice 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【深層学習】誤差逆伝播法|バックプロパゲーション
Просмотров 46 тыс.5 лет назад
← 第3回 損失関数/勾配降下法 ruclips.net/video/eZMpRzECFUM/видео.html → 第5回 深層学習の実装 ruclips.net/video/Vo9Atzozv0w/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【機械学習】次元削減の実践|主成分分析
Просмотров 11 тыс.5 лет назад
動画内で使用したデータ Pokemon with stats www.kaggle.com/abcsds/pokemon House Prices: Advanced Regression Techniques www.kaggle.com/c/house-prices-advanced-regression-techniques ← 分類問題 ruclips.net/video/oMUnMFRaKvg/видео.html → クラスタリング ruclips.net/video/EelVnJlmu1k/видео.html ソースコード github.com/TatsuhiroAbe/ml_practice 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
Просмотров 42 тыс.5 лет назад
← 第2回 活性化関数 ruclips.net/video/mFU63UkmrMc/видео.html →第4回 誤差逆伝播法 ruclips.net/video/X8hK4ovQoLg/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【機械学習】分類問題の実践|アンサンブル学習
Просмотров 7 тыс.5 лет назад
動画内で使用したデータ www.kaggle.com/kemical/kickstarter-projects ← 回帰分析 ruclips.net/video/QuN8JVwAc3o/видео.html → 次元削減 ruclips.net/video/PDeC1OyO-5I/видео.html ソースコード github.com/TatsuhiroAbe/ml_practice 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ
Просмотров 16 тыс.6 лет назад
動画内で使用したデータ www.kaggle.com/c/new-york-city-taxi-fare-prediction → 分類問題 ruclips.net/video/oMUnMFRaKvg/видео.html ソースコード github.com/TatsuhiroAbe/ml_practice 動画内で使用した前処理のソースコード github.com/TatsuhiroAbe/preprocessing 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数
Просмотров 35 тыс.6 лет назад
← 深層学習とは? ruclips.net/video/O3ohRBi5-Og/видео.html → 損失関数/勾配降下法 ruclips.net/video/eZMpRzECFUM/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク
Просмотров 50 тыс.6 лет назад
→ 活性化関数 ruclips.net/video/mFU63UkmrMc/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【位置情報編】位置情報型データの前処理と可視化まとめ
Просмотров 2,6 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/preprocessing ← 時間編 ruclips.net/video/gqiwGP3QpFE/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【時間編】時間型データの前処理と可視化まとめ
Просмотров 3,9 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/preprocessing ← カテゴリ編 ruclips.net/video/ARCgbKIlKuc/видео.html → 位置情報編 ruclips.net/video/C-zPVcL5iJU/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【カテゴリ編】カテゴリ型データの前処理と可視化まとめ
Просмотров 4,9 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/preprocessing ← 数値編 ruclips.net/video/6snZmtL4keg/видео.html → 時間編 ruclips.net/video/gqiwGP3QpFE/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【数値編】数値型データの前処理と可視化まとめ
Просмотров 7 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/preprocessing → カテゴリ編 ruclips.net/video/ARCgbKIlKuc/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門
Просмотров 32 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/libraries_tutorial ← pandas ruclips.net/video/jJtOroFFYxU/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
自由にデータが扱える!!機械学習のためのpandas超入門
Просмотров 45 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/libraries_tutorial ← numpy ruclips.net/video/lMsngWXHZ8A/видео.html → pandas ruclips.net/video/69Rd7GjgiMs/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
これだけは押さえよう!!機械学習のためのnumpy超入門
Просмотров 35 тыс.6 лет назад
これだけは押さえよう!!機械学習のためのnumpy超入門
これでわかる!!Jupyter Notebook超入門
Просмотров 37 тыс.6 лет назад
これでわかる!!Jupyter Notebook超入門
【機械学習】クラスター分析|階層的クラスタリング、k-meansクラスタリング
Просмотров 20 тыс.6 лет назад
【機械学習】クラスター分析|階層的クラスタリング、k-meansクラスタリング
【機械学習】次元削減|教師なし学習、主成分分析
Просмотров 21 тыс.6 лет назад
【機械学習】次元削減|教師なし学習、主成分分析
【機械学習】モデルの改良と前処理 |スケーリング、グリッドサーチ
Просмотров 9 тыс.6 лет назад
【機械学習】モデルの改良と前処理 |スケーリング、グリッドサーチ
【機械学習】モデルの評価と選択 | 交差検証、さまざまな評価基準
Просмотров 13 тыс.6 лет назад
【機械学習】モデルの評価と選択 | 交差検証、さまざまな評価基準
【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング
Просмотров 15 тыс.6 лет назад
【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング
【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
Просмотров 20 тыс.6 лет назад
【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
【機械学習】決定木(CART)| 決定木の理論と実装
Просмотров 24 тыс.6 лет назад
【機械学習】決定木(CART)| 決定木の理論と実装
【機械学習】サポートベクトルマシン(後編)| カーネル法、多クラス分類・回帰問題
Просмотров 21 тыс.6 лет назад
【機械学習】サポートベクトルマシン(後編)| カーネル法、多クラス分類・回帰問題
【Python】英単語テストを自動で作るプログラム!!
Просмотров 71 тыс.6 лет назад
【Python】英単語テストを自動で作るプログラム!!
【機械学習】サポートベクトルマシン(中編)| ラグランジュの未定乗数法、双体問題
Просмотров 20 тыс.6 лет назад
【機械学習】サポートベクトルマシン(中編)| ラグランジュの未定乗数法、双体問題
【機械学習】サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン
Просмотров 37 тыс.6 лет назад
【機械学習】サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン
【機械学習】ロジスティック回帰(後編)| 多項ロジスティック回帰
Просмотров 18 тыс.6 лет назад
【機械学習】ロジスティック回帰(後編)| 多項ロジスティック回帰
【TensorFlow入門】TensorFlowを使ってロジスティック回帰を実装!!
Просмотров 2,4 тыс.6 лет назад
【TensorFlow入門】TensorFlowを使ってロジスティック回帰を実装!!

Комментарии

  • @村木辰吉
    @村木辰吉 2 месяца назад

    神すぎますって!、

  • @ryokryok
    @ryokryok 2 месяца назад

    理論とPython実行により、とても分かりやすいです。勉強になります、ありがとうございます。Python基礎を勉強後、こちらの再生リストを先頭から勉強させていただいております。

  • @ogurahiroto9591
    @ogurahiroto9591 6 месяцев назад

    0:43

  • @ogurahiroto9591
    @ogurahiroto9591 6 месяцев назад

    13:03

  • @ogurahiroto9591
    @ogurahiroto9591 6 месяцев назад

    23:10

  • @ogurahiroto9591
    @ogurahiroto9591 6 месяцев назад

    4:10

  • @road_to_x0
    @road_to_x0 8 месяцев назад

    交差検証法は各種手法の平均スコアの高さからモデル選択する感じなんですね。 同じモデルに対してはk個のモデルができると思いますが(ロジスティック回帰でもパラメータの値が異なるモデルがk個できる)、その中でどのパラメータのロジスティック回帰が最良なのかは判断できないんですか?

  • @zozl5638
    @zozl5638 10 месяцев назад

    現在コンペでスコアアップを目指して試行錯誤しているなか、アンサンブル学習にトライしようと資料を探していたらこちらの動画を発見しました。 とても分かりやすく解説されており、助かっています!

  • @kwa5952
    @kwa5952 11 месяцев назад

    本当にわかりやすくて助かります!

  • @Naru-m7t
    @Naru-m7t Год назад

    わからない人間のための説明 という感じがして素晴らしいと思いました。

  • @opandapanda3478
    @opandapanda3478 Год назад

    学ぶ側の注文が多過ぎるだろ笑 でも有識者のコメントでの訂正はすごい助かる

  • @shtm42
    @shtm42 Год назад

    わかりやすかったです!

  • @sssss-qg6xz
    @sssss-qg6xz Год назад

    勉強になりました!

  • @篤鳥居
    @篤鳥居 Год назад

    いろいろ試行錯誤してるからって正直に言うところがかわいいですね!

  • @satorumiyamoto5509
    @satorumiyamoto5509 Год назад

    めっちゃ分かりやすかったです。有難うございました!!!

  • @篤鳥居
    @篤鳥居 Год назад

    こんな難しい内容を言葉で説明できるってすごい。

  • @kengujin
    @kengujin 2 года назад

    早口だなーわかっている自分ではわかるだろうが、初学者または、分からない人向けではないねー。 難しいところでは、特に声が小さくなりききつらくなりますねー。

  • @岡田一秀-j7s
    @岡田一秀-j7s 2 года назад

    だから、もし要素の(b,a)と言う部分が最後まで、残るにしても、そこの要素も、どんどん変わって行くと捉えていいのでしょうか?(c,e)と言う枝に、dが次に結び付いた時は、(b,a)と言う値はどう言う値として更新されるのだろうか?また、サンプル数かもっと多くて、(b,a)に(d,f)が結びついた場合は、(b,a)はどのように更新されるのでしょうか?解れば、教えてください。

  • @岡田一秀-j7s
    @岡田一秀-j7s 2 года назад

    お世話になっております。どんどん、枝を見つけて行って、この各行列要素が、行番号か列番号が、この場合だとcとeのものとして、短い方を取るとして変更された、どんどんサイズが小さくなって行く筈の新行列(の各要素)は、木が出来るまで、保存されるのでしょうか?

  • @こうすけ-u6y
    @こうすけ-u6y 2 года назад

    とても分かりやすかったです。ありがとうございます!

  • @cup77jp
    @cup77jp 2 года назад

    最小二乗法を機械学習って呼ばないで欲しいw

  • @ryokryok
    @ryokryok 2 года назад

    とてもわかり易いです。ありがとうございました!

  • @_hasune7587
    @_hasune7587 2 года назад

    この動画シリーズが大好きで、何回も見返しております。 質問ですが、9:08頃「間違っていたらゼロ」の部分は「あっていたらゼロ」の理解でよろしでしょうか。

  • @seiji7042
    @seiji7042 2 года назад

    勉強になりました!ありがとうございます。

  • @DominantMotion
    @DominantMotion 2 года назад

    活性化関数が恒等関数でない場合のほうが一般的なのではないでしょうか?「恒等関数とする」というのは単に無いものとするということで、現実のNNの理解をしようとする時に、疑問しか残りません。

  • @うさみみんらでぃんちゃん

    わかりやすくて助かります。

  • @資格合格-h2r
    @資格合格-h2r 2 года назад

    動画分かりやすくて助かります。いつも視聴させていただいています。 ところでxbgoostの正解率を算出した後なので、そのモデルを使って実際のデータを予測はできるのでしょうか。 色々と調べたのですがどのサイトも正解率出して終わり。。。みたいな物が多く実際の活用法が分かりません。 最近投稿されてないようですがもし時間有りましたらご回答いただけるとありがたいです。 able programmingさんは物凄く分かりやすく丁寧になので本当に助かってます。

    • @資格合格-h2r
      @資格合格-h2r 2 года назад

      動画は、もうやってないんですね。。。 最高の教材が1つ無くなっちゃいましたね。。

  • @MJ-qg6jk
    @MJ-qg6jk 2 года назад

    jupiterの説明ありがとうございました。大変参考になりました。

  • @いいいあああ-e4i
    @いいいあああ-e4i 2 года назад

    統計学準1級学習のために視聴しました。とても分かりやすかったです!

  • @5296daisukidesu
    @5296daisukidesu 2 года назад

    一般化と具体例を上手く駆使して説明されているので、すごくわかりやすいです。

  • @akiyoshihagiwara5551
    @akiyoshihagiwara5551 2 года назад

    非常に判りやすい。感動した。

  • @takayu5230
    @takayu5230 3 года назад

    22:03 dL(B)/dBのdL(B)は--> dE(B)だと思います。

  • @doggy9745
    @doggy9745 3 года назад

    19:00あたり?x,y,yのそれぞれでやっている事はわかるのですが、元々関連のない配列のxとy同士をなぜ最後にx[:][y==1]で関連付けることができるのでしょうか?あたかも同じ表に入っているかのように

    • @lah8322
      @lah8322 2 года назад

      yのなかで1である要素の要素番号を抽出してから、xの中のその要素番号の要素をとってきているのだと思いますよ

  • @letskalimba
    @letskalimba 3 года назад

    めちゃめちゃわかりやすい

  • @Go-dn1bi
    @Go-dn1bi 3 года назад

    マージンは最大化したいけどξは最小化したいから、 一つの式でまとめるには両方ともを最大化か最小化に統一しなくちゃいけないので、 今回はマージンの項を逆数にすることで、最小化問題に統一したという解釈で合ってますかね?

  • @hodakamatsuzaki730
    @hodakamatsuzaki730 3 года назад

    こんなに分かりやすい動画を無料で聞けるなんて、、いい時代ですね

  • @アースジェット-p9m
    @アースジェット-p9m 3 года назад

    大変分かりやすかったです。 初心者なので定期的に見に来ます。

  • @yukitel
    @yukitel 3 года назад

    これはDeNA 20卒 のAbeTatsuhiro さん?

  • @森比呂
    @森比呂 3 года назад

    初学者ですが、いつも繰り返し見て参考にさせていただいております!

  • @のりチャンネル-y1c
    @のりチャンネル-y1c 3 года назад

    質問があります。コードは時間かけて作れましたが!日本語が来る選択肢のところだけが印刷前に実行したら出力されず躓いています。meaningsのところもanswers option のところもエラーは発生せず上手く作れたと思ったんですが、まだまだ難しいなぁと感じました。 これで単語や暗記科目のoutput環境は強くなれそうな気がします。

  • @yone1998
    @yone1998 3 года назад

    30:10 wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか? あと、本質的な問いではないかと思いますが、y_1^2を通る経路だけ考えているようにみえるのですが、y_2^2を通る経路も考える必要があるのではないでしょうか?つまりは全微分

  • @yone1998
    @yone1998 3 года назад

    具体例 nはデータの個数: 人のID(1,2,3,4) kはクラス: 服のサイズ(SML) t_{nk}= [0 1 0 0 0 1 0 0 1 1 0 0] y_{nk}= [0.1 0.8 0.1 0.3 0.1 0.6 0.2 0.3 0.5 0.4 0.3 0.3]

  • @haya_1101_te
    @haya_1101_te 3 года назад

    5回以上周回してようやく全体が見えました! 最後のδが逆伝播する様子で鳥肌たってます笑 とても分かり易かったですが、私の能力不足で理解するのに丸一日かかってしまいました

  • @user-ng4rq5xi7v
    @user-ng4rq5xi7v 3 года назад

    人工知能=統計!

  • @まっつ-x1g
    @まっつ-x1g 3 года назад

    素晴らしい

  • @murasso2736
    @murasso2736 3 года назад

    17:15でfor文などを使うときのために、axesを一次元配列にしましたけど、実際にfor文で3つのグラフを書くのはどうすればようでしょうか?単純に fig, axes=plt.subplots(2,2,figsize=(20,12)) for i in range(1,4): axes.ravel()[i-1].plot(x_i,y_i) plot.show() だと、x is not definedというエラーが出ました。

  • @ymysymy4147
    @ymysymy4147 3 года назад

    わかりやすかったです ありがとう(°▽°)

  • @takayamayoshikazu2782
    @takayamayoshikazu2782 3 года назад

    1:38 回帰問題?怪奇問題? なんとも怪奇な単語だ

  • @takayamayoshikazu2782
    @takayamayoshikazu2782 3 года назад

    19:30 なぜ直線に分離出来ないのかサッパリ分からない😅 スライドを動画にして説明して欲しいです

    • @ざわえもん-b6p
      @ざわえもん-b6p 2 года назад

      一本だけ線を引いて赤と青をそれぞれ分類することができないという意味ですね.もしするとしたら曲線になってしまいます

  • @上田勝彦-j4n
    @上田勝彦-j4n 3 года назад

    前のAIの説明画像は理論的なのに、本画像はツールの操作説明になっている 作成したモデルのテストの考え方を最初に説明しないと”技は盗んで覚えろ” という師匠と呼ばれるかたと変わらない説明になっている