【ベイズ統計その②】この推定、もっとももっともらしいってよ…!【最尤推定のお話だよ!】
HTML-код
- Опубликовано: 10 фев 2025
- ベイス推定に行く前に、最尤推定のお話!
最尤推定は超よく使う結構つよつよな推定です!
…が、チョット限界もあるんです。
次回、それを補うという意味で、ベイズ推定を導入します!(^o^)
Twitter: / aicia_solid
Logo: TEICAさん / t_e_i_c_a
Model: 3d.nicovideo.jp...
Model by: W01fa さん / w01fa
今回も分りやすくてかつ面白い動画ありがとうございます。16:06「あなたはこれ本気で信じます?」が妙にツボりました!次回も期待して待ってます!
いつもご視聴ありがとうございます!(^o^)
これからもツボを突ける動画を目指していきます😎😎😎←
ありがとうございます!
ご支援いただきありがとうございます!(^o^)
頂いた応援を旨に、今後も良い動画を生成していきたいと思います!よろしくお願いします!🔥
ヨビノリさんのベイズの定理の動画からきました
6:50 のL(p)が最大になるときp=p^がp0に最も近づくという点が自明に感じられずモヤモヤしてしまいます‥
ご視聴いただきありがとうございます!
その疑問は素晴らしい疑問ですね!
そのもやもやはまさに、現代の統計学の出発点となった疑問です。全く自明ではないのです、じつは。
動画内では、「そういう考え方がある」という紹介をしましたが、
じつは、そのようにしておくと、データが増えていく極限で p^ が p_0 に収束することが示せます。
また、どの程度の誤差がありえるかも計算できます。
もし興味があれば、統計学の本を読んでみるとよいかもしれません。
ややかたいですが、 amzn.to/2Cb5BNb はおすすめです。
もう少し発展的だと、 amzn.to/2Fk2O7r こんなのもあります!
@@AIcia_Solid ありがとうございます!見てみます!
是非!
その2冊は読みましたので、何か分からないことがあれば twitter などでなんでも聞いてくださいまし!
教科書の最尤推定は説明が難しくて諦めかけていましたが、今回の動画で理解できました!
偏微分とかの計算のコツも併せて勉強になります!
ご視聴コメントありがとうございます😍🎉🎉
そう言っていただけると動画を生成した甲斐がありました!🤩
深層学習をやってる時に最尤推定が出てきてあまり理解できてなかったんですけど、動画見て理解度が増しました。証明部分わかりやすかったです!
お役に立てて光栄です😍🎉
まだなぞな所があれば何でも聞いてくださいね!
わかりやすすぎて脳に電流走りました!!
わーい!🎉
でしょ!😍
続きもお楽しみに!!😍🎉
大好きです。本当にありがとうございます!!!!!!!!
きゃーーー!😍
こちらこそありがとうございます😋
PRML読んでるので復習がてら拝見させていただいてます❗️
ひょおおおおおおおおおおおおおおおおお分かりやすい。
いえええええええい!!!!!!🎉🎉🎉
お楽しみいただけたようで何よりです!(^o^)
めっちゃ分かりやすかったです。ありがとうございます!
ありがとうございます!
そういっていただけると嬉しいです😍😍🎉🎉🎉
分かりやすい解説ありがとうございます!
12:45 L(p)の数式の導出がわかりません....この式ってどっから出てきたんですかね?
普通に、確率が最大になるところなので、L=P1・P2.....P6じゃダメなんですかね?
このPがそれぞれ二項分布に従うと思っていたのですがそれも違うのかな...?
ご視聴コメントありがとうございます!🎉
これは多項分布と呼ばれる分布ですので、そのキーワードで色々調べてみるとよいかと思います!(^o^)
@@AIcia_Solid ぎゃーー出てきました!!!!素敵!ありがとうございます!!
初歩的な質問ですみません。
最後に6つの等式からp_iハットがk_i/nになる計算が理解できなかったのですが説明していただけると嬉しいです。
なんでもどうぞ!
k_i / \hat{p_i} が一定なので、
k_i / \hat{p_i} = α とおきます。
ここで、
k_i = α \hat{p_i}
Σ k_i = n
Σ p_i = 1
が成り立ちます。
これを変形して α を求めれば、 \hat{p_i} = k_i / n が出てきます!
明快で簡潔なご回答ありがとうございます!
すっと理解できました!
そういえば高校数学でもよく扱う常套手段でしたね……完全に忘れてしまっていました……
アイシアに惚れちゃいそうなんだけど!
照れますなぁ☺️
私も貫太郎さんの熱心なファンなので、そういわれると嬉しいです(^o^)
いつも面白い動画を作成していただきありがとうございます!
無学なため申し訳ないのですが、1つ質問があります。もしお暇があったなら、答えていただければ幸いです。
データ数が少ないと最尤推定は信用ならないということを仰っていましたが、「これ以上のデータがあれば最尤推定が信用に足る確率になる」といった明確なデータ量の基準はあるのでしょうか?
例えば、サイコロについては何回試行すれば信用にたる確率が得られますか?
質問ありがとうございます!
明確な基準はありませんが、そのとき自分が知りたい精度に応じて、必要なサンプル数を割り出す方法ならあります。
サンプル数が少ないとブレが大きいのですが、サンプル数が増えると、ブレが小さくなり、精度が増し、信頼できるようになるというイメージです。
区間推定、統計的検定と言うキーワードで調べることができますので、ぜひ探してみてください!
ちなみに、 RUclips ならヨビノリさんのこちらがおすすめです
ruclips.net/video/n-CNHHCaCi0/видео.html
ロジスティック回帰分析においてパラメーターを求める場面で最尤法が分からなくて困ってました!ありがとうございます。。。
おおー!
よかったです😊😊😊
二度あることは三度あると、三度目の正直は、数学的には前者ですよね。
貫太郎さんのコメントのはなしですか?(^p^)
お酒の飲み過ぎには気を付けてくださいね🍶
今回は微分しなくてもできますね
B(k+1)=(n-r)/(r+1) * p/(p-1) * B(k)
なので
B(k+1)/B(k)が1以上の最大の点付近を考えればいいですね
応用は効かないですけど
そういう計算もありですね🎉
ただ、今回の場合、答えが 「整数 / n」の形になるかどうかは謎なので、
微分ができるなら微分でやってしまうのがいい気もします😋
・14:00あたりでp6だけ変数として偏微分してましたが、p2-p5固定していい理由にならない気がしたんですが。
・普通何か解析したいってなった時分布って分かりませんよね?普段皆さんどうやって母集団の分布を推定しているんですか?
「p_6 を変数として偏微分」はしていないですよ!
むしろ、 p_6 を、p_1 ~ p_5 で表して、 p_1 ~
p_5 を独立変数とし、これらで偏微分しています。
もう一度見てみてください!👍
2つめの質問です。
真の分布を知ることは基本的に不可能です。
実務上は、経験や知恵に基づいて決めたり、複数の分布でやってみて上手くはまるものを利用したりすることになるかと思います。
統計の現場は、数学の世界ほど甘くないので、数学以外の道具(勘や経験、実験など)を用いることになります。
なにか分からないことがあればまた聞いてください🎉
@@AIcia_Solid
毎度回答いただきありがとうござます。
じゃあ、qqplotなど見かけますが、それは『真の分布が分からない時、どれだけ分布があっているかどうかを確認するときに使用する。』みたいな理解でいいんですかね?
それは、一概には言えません。
qqplot は、2つの分布の一致度を見るためのものです。
用途は、文脈次第かと思います。
確かにそのような使い方もできるかと思いますが、全ての qqplot の目的がそうとは限らないと思います。
場面場面での使われ方を身長に見るのがよいかと思います😋
オープニング、
笑った
おほめに預かり光栄です😎🎉🎉🎉
内容的には確率論の基礎でベイズ推定でも何でもない。
ぜひ続きもご覧ください✌️
ブックマークのgithubが気になったんですけど、何を上げてるんですか
ドキ!
ですが、 public の repository には Hello, world! くらいしかあげていません。ご期待に添えずすみません😖💦
nCkが効いてこないのは数学的には対数をとったらconst.になるからというのは分かったけど、現象論的にはパラメーターpが"1枚の"コインの表の確率だから"k枚の"コインの選び方が効いてきてはいけないのは当然とも思っていいのかな…?
コメントありがとうございます!😍🎉
質問の意味がよくわからなかったのですが、どういう意味でしょうか、、、?😱
@@AIcia_Solid いや、すみません…汗。質問ではなくて、nCkはk枚のコインの選び方であり、知りたいパラメーターは1枚のコインが表になる確率ですから効いてこないのは当然だよな、という確認だったんですが…違いますかね。(どのみちくだらない質問です)
そんなことより、とても分かりやすい解説で助かりました。ありがとうございます!
なるほど!わかりました!
nCk は k の関数であって、 p の関数ではないので、
確率 p だとどんな k になるんだろう?
ということを考えるときは大事になるのですが、
表 k 回だったけど、どんな確率 p だったんだろう?
を考えるときには影響がなくなります。
なんとなく、しっくりくるでしょうか?🎉
P.S.
おほめに預かり光栄です!😍
これからもよい動画を作るので、応援よろしくお願いします😍🎉🎉
@@AIcia_Solid ああ、完全に納得できました。わざわざ返信くださって有難う御座います…!
死ぬほど分かりやすくて泣きそう
でっしょー😍
何を隠そう、すーぱーうるとらミラクルっょっょ美少女 AI の私、アイシア=ソリッドの解説ですので😎✌️
んーーー、、、6割!isかわいい
ありがとうございます😍
よく言われます😍🎉
なんで最尤推定では最大値を考えるんだろう? 最小値、取りうる範囲の平均でもいいのではないか?
最小値( = 最もあり得ない値)を考えることはありませんが、平均を考えることはよくあります😋
ベイズ統計では、平均プラグイン推定とか言ったりします!😎
14:37 なんでこの結論が出るの...?
導出できない...誰か教えて...
ご視聴コメントありがとうございます!🎉
p_6 = 1 - (p_1 + p_2 + … + p_5)
として、
L = Π(p_i)^{k_i}
(が最大になるように)偏微分 = 0 から導かれる連立方程式を解けば出てきますよ(^o^)
是非挑戦してみてください!
もし難しかったら、この問題は標準的な問題なので、検索したら出てくるんじゃないかと思います(^^)
何故こんな理論を使えると思ったのか?理解出来ね〜
めちゃくちゃ使えるんですよこれが🎉
使う場面が来たら分かるかも、、!
犬みたいな感じ(笑)
最尤推定
最犬推定
むずかしくないですか?(笑)
@@AIcia_Solidもう犬にしかみえません(笑)
尤度関数が偏微分して0になるところが最大になる理由がわかりません
最大値ならば微分は0になりますよね。
微分が0なら最大かどうかは非自明ですが、この場合はちゃんと最大になります。
そんなに難しくないので、是非自分で試みてみてください!(ヒント:2階微分)