"Математическая статистика", Райгородский А. М. 04.02.2021г.

Поделиться
HTML-код
  • Опубликовано: 8 ноя 2024

Комментарии • 56

  • @juanmatus4781
    @juanmatus4781 3 года назад +113

    Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично

    • @ValOvchinnikov
      @ValOvchinnikov 3 года назад +1

      Только Михайлович :)

    • @juanmatus4781
      @juanmatus4781 3 года назад

      @@ValOvchinnikov благодарю)

  • @TheNewWorld823
    @TheNewWorld823 Год назад +23

    Великое дело, понял сразу три лекции, прошедших в нашем университете, на которых было просто страшно!

  • @ivanily4
    @ivanily4 3 года назад +35

    Постановка задачи 6:00
    точечные оценки 13:00 определение 17:55
    что значит недалекая от истины оценка 23:00
    расчет мат ожидания для дисперсии 44:10
    почему делим на n-1 57:40
    пример в ситуации когда нет несмещенной оценки 1:02:00

  • @15km99
    @15km99 2 года назад +85

    Морфиус пытается выбраться из матрицы

    • @alexsmirn7221
      @alexsmirn7221 6 месяцев назад +3

      Не получилось, матрица оказалась вырожденной

  • @HaykTarkhanyan
    @HaykTarkhanyan 8 месяцев назад

    Огромное спасибо за лекции. А професор Райгородский просто чудо, прекрасный человек и преподаватель.

  • @t.on.y
    @t.on.y 3 года назад +22

    Гений! Отец русской математики!

  • @АнатолийКузнецов-ж6б
    @АнатолийКузнецов-ж6б 3 месяца назад

    Интересная лекция. Этот человек может вернуть мне веру в математику

  • @canis_mjr
    @canis_mjr 3 года назад +21

    Странно начинать с точечных оценок, но подача просто шикарная!

  • @ТимурСоколов-ь7я
    @ТимурСоколов-ь7я 2 года назад +36

    Завидую его студентам!!!!

  • @leonidkonstantinovich3418
    @leonidkonstantinovich3418 3 года назад +13

    лучшее, что есть на ютубе

  • @NeilMiromanov
    @NeilMiromanov Год назад +3

    09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.

    • @alexeyzaa9399
      @alexeyzaa9399 9 месяцев назад +1

      ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала.
      но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные?
      p.s. Андрей Михайлович лучший лектор!

    • @prrsvxt
      @prrsvxt 7 месяцев назад

      СПАСИБО!!! искал пояснение данному моменту, сам запутался, отчего бы им быть разными, а оно вон как…

  • @user-ie2xt4kj2z
    @user-ie2xt4kj2z 3 года назад +13

    Что сказать? Человек попал в вечность.

  • @galinashefer7020
    @galinashefer7020 6 дней назад

    Спасибо большое.

  • @denistalko6585
    @denistalko6585 3 года назад +5

    Отличная лекция! Спасибо огромное!!

  • @KBAHTOP
    @KBAHTOP Год назад +1

    Максимально обаятельный лектор :)

  • @ДимаК-щ3м
    @ДимаК-щ3м 10 месяцев назад +1

    очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.

  • @mustafahaldun6217
    @mustafahaldun6217 2 года назад +1

    В определении состоятельности также необходим квантор всеобщности

  • @kamikadz4
    @kamikadz4 11 месяцев назад +1

    37:00 почему оценка, на которую показывает Андрей Михайлович, является несмещенной? Ведь E(ξ1) = ξ1 - константа, а Тэта это не просто ξ1

  • @dobryialex
    @dobryialex 2 года назад +2

    Подскажите!
    Получается, есть НЕматематическая статистика ?

  • @albat6538
    @albat6538 2 года назад

    Супер! Огромоное спасибо!

  • @tetraphobie
    @tetraphobie 11 месяцев назад

    Искал доказательство почему n-1 для несмещённой дисперсии в выборках и получил. 🥹 Спасибо!

  • @janereed4219
    @janereed4219 3 года назад +3

    11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?

    • @janereed4219
      @janereed4219 3 года назад

      @@tomas_shelby3301 они же одинаково распределены

    • @janereed4219
      @janereed4219 3 года назад

      @@tomas_shelby3301 о, теперь понятно! большое спасибо:)

  • @samgatzhaishylyk5504
    @samgatzhaishylyk5504 Год назад

    Спасибо преподавателю

  • @ДаниилСоловьев-н7г
    @ДаниилСоловьев-н7г 3 года назад +2

    Спасибо за лекцию!
    В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p".
    Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)

    • @mipt_study
      @mipt_study  3 года назад

      Андрей Михаилович тут к сожалению не отвечает , попробуйте написать ему на почту с указанием таймкода

    • @ДаниилСоловьев-н7г
      @ДаниилСоловьев-н7г 3 года назад

      @@mipt_study Хорошо :)

    • @KirillTsaregorodtsev
      @KirillTsaregorodtsev 3 года назад +1

      Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.

    • @ДаниилСоловьев-н7г
      @ДаниилСоловьев-н7г 3 года назад +1

      @@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним.
      "

  • @annann6940
    @annann6940 2 года назад

    Спасибо большое за лекцию!!!

  • @anatoliizhuk5718
    @anatoliizhuk5718 2 года назад +1

    Есть ли практические занятия, которые относятся к этим лекциям на этом youtube-канале? Если есть, не могли бы указать как найти?

    • @mipt_study
      @mipt_study  2 года назад +1

      Анатолий, в плейлисте есть записи семинаров по этому курсу. Записи разбора домашних заданий не выкладываются по просьбе преподавателей.

  • @ТимурСоколов-ь7я
    @ТимурСоколов-ь7я 2 года назад +1

    Респект лектору!

  • @RockrideR6666
    @RockrideR6666 2 года назад +3

    Просто Иисус математики.

  • @roman_roman_roman
    @roman_roman_roman 3 года назад +2

    А почему логарифм не может равняться многочлену? Подскажите, кто-нибудь, где про это почитать)

    • @namespace17
      @namespace17 2 года назад +2

      Так как производная большого порядка от многочлена равна 0, а от логарифма все производные не равны 0

    • @skyline1771771
      @skyline1771771 2 года назад

      Потому что равняется бесконечной сумме многочленов, почитать можно про ряды Тейлора

  • @AlexAlex-go9hg
    @AlexAlex-go9hg Год назад

    Райгородский великолепен

  • @АленаБалаганская-ж7к
    @АленаБалаганская-ж7к 2 года назад +1

    "Товарищи, всё понятно, что происходит?" - "Нет, капитан!"🤯

  • @gulfstream1800
    @gulfstream1800 3 года назад

    Спасибо!

  • @beautifulmadness8206
    @beautifulmadness8206 3 года назад +1

    Хороший курс

  • @DykyKryl
    @DykyKryl 3 года назад +1

    Подскажите а как посмотреть предыдущую лекцию гле базовые.понятия обьясняются?
    Закон больших чисел и итд

    • @namespace17
      @namespace17 2 года назад +1

      Наберите в поиске RUclips Дистанционные занятия МФТИ Теория Вероятностей

  • @kamranabdulkhaev1767
    @kamranabdulkhaev1767 3 года назад +5

    Я плачу

  • @gmaxegor
    @gmaxegor Год назад

    Ну он тащер жесткий