フィッシャー情報量とクラメールラオの不等式の下限

Поделиться
HTML-код
  • Опубликовано: 2 дек 2024

Комментарии • 4

  • @kurozu7267
    @kurozu7267 2 года назад +1

    バイアスとかフィッシャー情報量、スコア関数あたりが自分の中でごっちゃになっていたのですが、この動画で整理できた気がします。
    ありがとうございました。

    • @はじめての統計学
      @はじめての統計学  2 года назад

      @KuroZu. (くろず) さん
      こんにちは!コメント頂きありがとうございます!
      お役に立ててよかったです!

  • @田中太郎-i6p6l
    @田中太郎-i6p6l 2 года назад

    解説ありがとうございます。
    例題の標本平均ってΣX_i/nのようにnで割っていると思うのですが、I_n(θ)を計算するときにn倍しているだけで良いのはなぜでしょうか?

  • @datte_nanda_mon
    @datte_nanda_mon Год назад

    いつも勉強させていただいております。ありがとうございます。
    1点、質問させてください。
    7:57 の箇所です。
    n件のxに対する対数尤度内の尤度関数f_nのまま、確率変数列Xで積分する扱いをされていますが、確率変数列Xに対する積分[dX(ディー・ラージX)で積分]する方法が分かりません。どんなキーワードでネットを検索すれば勉強できますでしょうか?
    私は、f_nを1件毎のxの尤度関数f_1の掛け算に分解して、対数尤度log(f_1)の和として扱い、各項の期待値の和として求めたところ、1にならずにnになってしまいました。そこで行き詰まりました。
    ご助言をいただけましたら助かります。
    (抽象的に「ラージXで積分(ベクトルXで積分?)」と単純化して考えれば単純な積分の形ですが、数列ラージXに対して積分というのが具体的にどんなものか?が分かれば、私の間違い箇所を特定できるのではないか?と考えています。n件の数列ラージXに対して積分するというのは、n個の積分記号が並んだ状態なのだろうとイメージしております。)