Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично
Постановка задачи 6:00 точечные оценки 13:00 определение 17:55 что значит недалекая от истины оценка 23:00 расчет мат ожидания для дисперсии 44:10 почему делим на n-1 57:40 пример в ситуации когда нет несмещенной оценки 1:02:00
09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.
ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала. но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные? p.s. Андрей Михайлович лучший лектор!
очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.
11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?
Спасибо за лекцию! В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p". Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)
Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.
@@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним. "
Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично
Только Михайлович :)
@@ValOvchinnikov благодарю)
Великое дело, понял сразу три лекции, прошедших в нашем университете, на которых было просто страшно!
Постановка задачи 6:00
точечные оценки 13:00 определение 17:55
что значит недалекая от истины оценка 23:00
расчет мат ожидания для дисперсии 44:10
почему делим на n-1 57:40
пример в ситуации когда нет несмещенной оценки 1:02:00
добавили
Морфиус пытается выбраться из матрицы
Не получилось, матрица оказалась вырожденной
Огромное спасибо за лекции. А професор Райгородский просто чудо, прекрасный человек и преподаватель.
Гений! Отец русской математики!
Интересная лекция. Этот человек может вернуть мне веру в математику
Странно начинать с точечных оценок, но подача просто шикарная!
Завидую его студентам!!!!
Так ты тоже считай его студент. Рукой конечно не потрогаешь, но это на любителя, мне кажется.
лучшее, что есть на ютубе
09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.
ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала.
но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные?
p.s. Андрей Михайлович лучший лектор!
СПАСИБО!!! искал пояснение данному моменту, сам запутался, отчего бы им быть разными, а оно вон как…
Что сказать? Человек попал в вечность.
Спасибо большое.
Отличная лекция! Спасибо огромное!!
Максимально обаятельный лектор :)
очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.
В определении состоятельности также необходим квантор всеобщности
37:00 почему оценка, на которую показывает Андрей Михайлович, является несмещенной? Ведь E(ξ1) = ξ1 - константа, а Тэта это не просто ξ1
Удалось разобраться?
Подскажите!
Получается, есть НЕматематическая статистика ?
Супер! Огромоное спасибо!
Искал доказательство почему n-1 для несмещённой дисперсии в выборках и получил. 🥹 Спасибо!
11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?
@@tomas_shelby3301 они же одинаково распределены
@@tomas_shelby3301 о, теперь понятно! большое спасибо:)
Спасибо преподавателю
Спасибо за лекцию!
В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p".
Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)
Андрей Михаилович тут к сожалению не отвечает , попробуйте написать ему на почту с указанием таймкода
@@mipt_study Хорошо :)
Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.
@@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним.
"
Спасибо большое за лекцию!!!
Есть ли практические занятия, которые относятся к этим лекциям на этом youtube-канале? Если есть, не могли бы указать как найти?
Анатолий, в плейлисте есть записи семинаров по этому курсу. Записи разбора домашних заданий не выкладываются по просьбе преподавателей.
Респект лектору!
Просто Иисус математики.
А почему логарифм не может равняться многочлену? Подскажите, кто-нибудь, где про это почитать)
Так как производная большого порядка от многочлена равна 0, а от логарифма все производные не равны 0
Потому что равняется бесконечной сумме многочленов, почитать можно про ряды Тейлора
Райгородский великолепен
"Товарищи, всё понятно, что происходит?" - "Нет, капитан!"🤯
Спасибо!
Хороший курс
Подскажите а как посмотреть предыдущую лекцию гле базовые.понятия обьясняются?
Закон больших чисел и итд
Наберите в поиске RUclips Дистанционные занятия МФТИ Теория Вероятностей
Я плачу
Спасибо, где получить?
Ну он тащер жесткий