Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично
Постановка задачи 6:00 точечные оценки 13:00 определение 17:55 что значит недалекая от истины оценка 23:00 расчет мат ожидания для дисперсии 44:10 почему делим на n-1 57:40 пример в ситуации когда нет несмещенной оценки 1:02:00
09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.
ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала. но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные? p.s. Андрей Михайлович лучший лектор!
очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.
11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?
Спасибо за лекцию! В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p". Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)
Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.
@@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним. "
Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично
Только Михайлович :)
@@ValOvchinnikov благодарю)
Великое дело, понял сразу три лекции, прошедших в нашем университете, на которых было просто страшно!
Морфиус пытается выбраться из матрицы
Не получилось, матрица оказалась вырожденной
Гений! Отец русской математики!
Постановка задачи 6:00
точечные оценки 13:00 определение 17:55
что значит недалекая от истины оценка 23:00
расчет мат ожидания для дисперсии 44:10
почему делим на n-1 57:40
пример в ситуации когда нет несмещенной оценки 1:02:00
добавили
Огромное спасибо за лекции. А професор Райгородский просто чудо, прекрасный человек и преподаватель.
Странно начинать с точечных оценок, но подача просто шикарная!
Интересная лекция. Этот человек может вернуть мне веру в математику
Завидую его студентам!!!!
Так ты тоже считай его студент. Рукой конечно не потрогаешь, но это на любителя, мне кажется.
лучшее, что есть на ютубе
Отличная лекция! Спасибо огромное!!
Что сказать? Человек попал в вечность.
Максимально обаятельный лектор :)
09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.
ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала.
но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные?
p.s. Андрей Михайлович лучший лектор!
СПАСИБО!!! искал пояснение данному моменту, сам запутался, отчего бы им быть разными, а оно вон как…
Спасибо большое.
37:00 почему оценка, на которую показывает Андрей Михайлович, является несмещенной? Ведь E(ξ1) = ξ1 - константа, а Тэта это не просто ξ1
Удалось разобраться?
В определении состоятельности также необходим квантор всеобщности
Спасибо преподавателю
Супер! Огромоное спасибо!
Респект лектору!
Искал доказательство почему n-1 для несмещённой дисперсии в выборках и получил. 🥹 Спасибо!
Спасибо большое за лекцию!!!
очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.
А почему логарифм не может равняться многочлену? Подскажите, кто-нибудь, где про это почитать)
Так как производная большого порядка от многочлена равна 0, а от логарифма все производные не равны 0
Потому что равняется бесконечной сумме многочленов, почитать можно про ряды Тейлора
11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?
@@tomas_shelby3301 они же одинаково распределены
@@tomas_shelby3301 о, теперь понятно! большое спасибо:)
Подскажите!
Получается, есть НЕматематическая статистика ?
Есть ли практические занятия, которые относятся к этим лекциям на этом youtube-канале? Если есть, не могли бы указать как найти?
Анатолий, в плейлисте есть записи семинаров по этому курсу. Записи разбора домашних заданий не выкладываются по просьбе преподавателей.
Просто Иисус математики.
Спасибо за лекцию!
В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p".
Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)
Андрей Михаилович тут к сожалению не отвечает , попробуйте написать ему на почту с указанием таймкода
@@mipt_study Хорошо :)
Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.
@@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним.
"
Райгородский великолепен
Спасибо!
"Товарищи, всё понятно, что происходит?" - "Нет, капитан!"🤯
Подскажите а как посмотреть предыдущую лекцию гле базовые.понятия обьясняются?
Закон больших чисел и итд
Наберите в поиске RUclips Дистанционные занятия МФТИ Теория Вероятностей
Хороший курс
Я плачу
Спасибо, где получить?
Ну он тащер жесткий