- Видео 37
- Просмотров 1 008 261
Able Programming
Добавлен 19 июл 2018
Able Programmingはプログラミングに関する知識を紹介し、プログラミング初学者を支援するチャンネルです。
【深層学習】深層学習の実装|深層学習フレームワーク、Keras
← 第4回 誤差逆伝播法
ruclips.net/video/X8hK4ovQoLg/видео.html
「機械学習をはじめよう」
ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
ruclips.net/video/X8hK4ovQoLg/видео.html
「機械学習をはじめよう」
ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
Просмотров: 31 634
Видео
【機械学習】クラスタリングの実践|スクレイピング、kmeans
Просмотров 8 тыс.5 лет назад
← 次元削減 ruclips.net/video/PDeC1OyO-5I/видео.html ソースコード github.com/TatsuhiroAbe/ml_practice 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【深層学習】誤差逆伝播法|バックプロパゲーション
Просмотров 46 тыс.5 лет назад
← 第3回 損失関数/勾配降下法 ruclips.net/video/eZMpRzECFUM/видео.html → 第5回 深層学習の実装 ruclips.net/video/Vo9Atzozv0w/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【機械学習】次元削減の実践|主成分分析
Просмотров 11 тыс.5 лет назад
動画内で使用したデータ Pokemon with stats www.kaggle.com/abcsds/pokemon House Prices: Advanced Regression Techniques www.kaggle.com/c/house-prices-advanced-regression-techniques ← 分類問題 ruclips.net/video/oMUnMFRaKvg/видео.html → クラスタリング ruclips.net/video/EelVnJlmu1k/видео.html ソースコード github.com/TatsuhiroAbe/ml_practice 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
Просмотров 42 тыс.5 лет назад
← 第2回 活性化関数 ruclips.net/video/mFU63UkmrMc/видео.html →第4回 誤差逆伝播法 ruclips.net/video/X8hK4ovQoLg/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【機械学習】分類問題の実践|アンサンブル学習
Просмотров 7 тыс.5 лет назад
動画内で使用したデータ www.kaggle.com/kemical/kickstarter-projects ← 回帰分析 ruclips.net/video/QuN8JVwAc3o/видео.html → 次元削減 ruclips.net/video/PDeC1OyO-5I/видео.html ソースコード github.com/TatsuhiroAbe/ml_practice 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【機械学習】回帰分析の実践|xgboost、交差検証、グリッドサーチ
Просмотров 16 тыс.6 лет назад
動画内で使用したデータ www.kaggle.com/c/new-york-city-taxi-fare-prediction → 分類問題 ruclips.net/video/oMUnMFRaKvg/видео.html ソースコード github.com/TatsuhiroAbe/ml_practice 動画内で使用した前処理のソースコード github.com/TatsuhiroAbe/preprocessing 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数
Просмотров 35 тыс.6 лет назад
← 深層学習とは? ruclips.net/video/O3ohRBi5-Og/видео.html → 損失関数/勾配降下法 ruclips.net/video/eZMpRzECFUM/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【深層学習】深層学習とは?|ディープラーニングの意味、ニューラルネットワーク
Просмотров 50 тыс.6 лет назад
→ 活性化関数 ruclips.net/video/mFU63UkmrMc/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【位置情報編】位置情報型データの前処理と可視化まとめ
Просмотров 2,6 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/preprocessing ← 時間編 ruclips.net/video/gqiwGP3QpFE/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【時間編】時間型データの前処理と可視化まとめ
Просмотров 3,9 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/preprocessing ← カテゴリ編 ruclips.net/video/ARCgbKIlKuc/видео.html → 位置情報編 ruclips.net/video/C-zPVcL5iJU/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【カテゴリ編】カテゴリ型データの前処理と可視化まとめ
Просмотров 4,9 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/preprocessing ← 数値編 ruclips.net/video/6snZmtL4keg/видео.html → 時間編 ruclips.net/video/gqiwGP3QpFE/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【数値編】数値型データの前処理と可視化まとめ
Просмотров 7 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/preprocessing → カテゴリ編 ruclips.net/video/ARCgbKIlKuc/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
思いのままにグラフが描ける!!機械学習のためのmatplotlib超入門
Просмотров 32 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/libraries_tutorial ← pandas ruclips.net/video/jJtOroFFYxU/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
自由にデータが扱える!!機械学習のためのpandas超入門
Просмотров 45 тыс.6 лет назад
ソースコード github.com/TatsuhiroAbe/libraries_tutorial ← numpy ruclips.net/video/lMsngWXHZ8A/видео.html → pandas ruclips.net/video/69Rd7GjgiMs/видео.html 「機械学習をはじめよう」 ruclips.net/p/PLS0ga_-CwEAryL5_Saiit6CIU1oZS7S4j
【機械学習】クラスター分析|階層的クラスタリング、k-meansクラスタリング
Просмотров 20 тыс.6 лет назад
【機械学習】クラスター分析|階層的クラスタリング、k-meansクラスタリング
【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング
Просмотров 15 тыс.6 лет назад
【機械学習】アンサンブル学習(後編)| AdaBoost、勾配ブースティング
【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
Просмотров 20 тыс.6 лет назад
【機械学習】アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
【機械学習】サポートベクトルマシン(後編)| カーネル法、多クラス分類・回帰問題
Просмотров 21 тыс.6 лет назад
【機械学習】サポートベクトルマシン(後編)| カーネル法、多クラス分類・回帰問題
【機械学習】サポートベクトルマシン(中編)| ラグランジュの未定乗数法、双体問題
Просмотров 20 тыс.6 лет назад
【機械学習】サポートベクトルマシン(中編)| ラグランジュの未定乗数法、双体問題
【機械学習】サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン
Просмотров 37 тыс.6 лет назад
【機械学習】サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン
【TensorFlow入門】TensorFlowを使ってロジスティック回帰を実装!!
Просмотров 2,4 тыс.6 лет назад
【TensorFlow入門】TensorFlowを使ってロジスティック回帰を実装!!
神すぎますって!、
理論とPython実行により、とても分かりやすいです。勉強になります、ありがとうございます。Python基礎を勉強後、こちらの再生リストを先頭から勉強させていただいております。
0:43
13:03
23:10
26:45
4:10
交差検証法は各種手法の平均スコアの高さからモデル選択する感じなんですね。 同じモデルに対してはk個のモデルができると思いますが(ロジスティック回帰でもパラメータの値が異なるモデルがk個できる)、その中でどのパラメータのロジスティック回帰が最良なのかは判断できないんですか?
現在コンペでスコアアップを目指して試行錯誤しているなか、アンサンブル学習にトライしようと資料を探していたらこちらの動画を発見しました。 とても分かりやすく解説されており、助かっています!
本当にわかりやすくて助かります!
わからない人間のための説明 という感じがして素晴らしいと思いました。
学ぶ側の注文が多過ぎるだろ笑 でも有識者のコメントでの訂正はすごい助かる
わかりやすかったです!
勉強になりました!
いろいろ試行錯誤してるからって正直に言うところがかわいいですね!
めっちゃ分かりやすかったです。有難うございました!!!
こんな難しい内容を言葉で説明できるってすごい。
早口だなーわかっている自分ではわかるだろうが、初学者または、分からない人向けではないねー。 難しいところでは、特に声が小さくなりききつらくなりますねー。
だから、もし要素の(b,a)と言う部分が最後まで、残るにしても、そこの要素も、どんどん変わって行くと捉えていいのでしょうか?(c,e)と言う枝に、dが次に結び付いた時は、(b,a)と言う値はどう言う値として更新されるのだろうか?また、サンプル数かもっと多くて、(b,a)に(d,f)が結びついた場合は、(b,a)はどのように更新されるのでしょうか?解れば、教えてください。
お世話になっております。どんどん、枝を見つけて行って、この各行列要素が、行番号か列番号が、この場合だとcとeのものとして、短い方を取るとして変更された、どんどんサイズが小さくなって行く筈の新行列(の各要素)は、木が出来るまで、保存されるのでしょうか?
とても分かりやすかったです。ありがとうございます!
最小二乗法を機械学習って呼ばないで欲しいw
とてもわかり易いです。ありがとうございました!
この動画シリーズが大好きで、何回も見返しております。 質問ですが、9:08頃「間違っていたらゼロ」の部分は「あっていたらゼロ」の理解でよろしでしょうか。
勉強になりました!ありがとうございます。
活性化関数が恒等関数でない場合のほうが一般的なのではないでしょうか?「恒等関数とする」というのは単に無いものとするということで、現実のNNの理解をしようとする時に、疑問しか残りません。
わかりやすくて助かります。
動画分かりやすくて助かります。いつも視聴させていただいています。 ところでxbgoostの正解率を算出した後なので、そのモデルを使って実際のデータを予測はできるのでしょうか。 色々と調べたのですがどのサイトも正解率出して終わり。。。みたいな物が多く実際の活用法が分かりません。 最近投稿されてないようですがもし時間有りましたらご回答いただけるとありがたいです。 able programmingさんは物凄く分かりやすく丁寧になので本当に助かってます。
動画は、もうやってないんですね。。。 最高の教材が1つ無くなっちゃいましたね。。
jupiterの説明ありがとうございました。大変参考になりました。
統計学準1級学習のために視聴しました。とても分かりやすかったです!
一般化と具体例を上手く駆使して説明されているので、すごくわかりやすいです。
非常に判りやすい。感動した。
22:03 dL(B)/dBのdL(B)は--> dE(B)だと思います。
19:00あたり?x,y,yのそれぞれでやっている事はわかるのですが、元々関連のない配列のxとy同士をなぜ最後にx[:][y==1]で関連付けることができるのでしょうか?あたかも同じ表に入っているかのように
yのなかで1である要素の要素番号を抽出してから、xの中のその要素番号の要素をとってきているのだと思いますよ
めちゃめちゃわかりやすい
マージンは最大化したいけどξは最小化したいから、 一つの式でまとめるには両方ともを最大化か最小化に統一しなくちゃいけないので、 今回はマージンの項を逆数にすることで、最小化問題に統一したという解釈で合ってますかね?
こんなに分かりやすい動画を無料で聞けるなんて、、いい時代ですね
大変分かりやすかったです。 初心者なので定期的に見に来ます。
これはDeNA 20卒 のAbeTatsuhiro さん?
初学者ですが、いつも繰り返し見て参考にさせていただいております!
質問があります。コードは時間かけて作れましたが!日本語が来る選択肢のところだけが印刷前に実行したら出力されず躓いています。meaningsのところもanswers option のところもエラーは発生せず上手く作れたと思ったんですが、まだまだ難しいなぁと感じました。 これで単語や暗記科目のoutput環境は強くなれそうな気がします。
30:10 wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか? あと、本質的な問いではないかと思いますが、y_1^2を通る経路だけ考えているようにみえるのですが、y_2^2を通る経路も考える必要があるのではないでしょうか?つまりは全微分
具体例 nはデータの個数: 人のID(1,2,3,4) kはクラス: 服のサイズ(SML) t_{nk}= [0 1 0 0 0 1 0 0 1 1 0 0] y_{nk}= [0.1 0.8 0.1 0.3 0.1 0.6 0.2 0.3 0.5 0.4 0.3 0.3]
5回以上周回してようやく全体が見えました! 最後のδが逆伝播する様子で鳥肌たってます笑 とても分かり易かったですが、私の能力不足で理解するのに丸一日かかってしまいました
人工知能=統計!
素晴らしい
17:15でfor文などを使うときのために、axesを一次元配列にしましたけど、実際にfor文で3つのグラフを書くのはどうすればようでしょうか?単純に fig, axes=plt.subplots(2,2,figsize=(20,12)) for i in range(1,4): axes.ravel()[i-1].plot(x_i,y_i) plot.show() だと、x is not definedというエラーが出ました。
わかりやすかったです ありがとう(°▽°)
1:38 回帰問題?怪奇問題? なんとも怪奇な単語だ
19:30 なぜ直線に分離出来ないのかサッパリ分からない😅 スライドを動画にして説明して欲しいです
一本だけ線を引いて赤と青をそれぞれ分類することができないという意味ですね.もしするとしたら曲線になってしまいます
前のAIの説明画像は理論的なのに、本画像はツールの操作説明になっている 作成したモデルのテストの考え方を最初に説明しないと”技は盗んで覚えろ” という師匠と呼ばれるかたと変わらない説明になっている