Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично
Постановка задачи 6:00 точечные оценки 13:00 определение 17:55 что значит недалекая от истины оценка 23:00 расчет мат ожидания для дисперсии 44:10 почему делим на n-1 57:40 пример в ситуации когда нет несмещенной оценки 1:02:00
09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.
ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала. но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные? p.s. Андрей Михайлович лучший лектор!
11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?
очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.
Спасибо за лекцию! В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p". Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)
Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.
@@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним. "
Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично
Только Михайлович :)
@@ValOvchinnikov благодарю)
Великое дело, понял сразу три лекции, прошедших в нашем университете, на которых было просто страшно!
Постановка задачи 6:00
точечные оценки 13:00 определение 17:55
что значит недалекая от истины оценка 23:00
расчет мат ожидания для дисперсии 44:10
почему делим на n-1 57:40
пример в ситуации когда нет несмещенной оценки 1:02:00
добавили
Гений! Отец русской математики!
лучшее, что есть на ютубе
Морфиус пытается выбраться из матрицы
Не получилось, матрица оказалась вырожденной
Огромное спасибо за лекции. А професор Райгородский просто чудо, прекрасный человек и преподаватель.
Странно начинать с точечных оценок, но подача просто шикарная!
Завидую его студентам!!!!
Так ты тоже считай его студент. Рукой конечно не потрогаешь, но это на любителя, мне кажется.
Интересная лекция. Этот человек может вернуть мне веру в математику
Что сказать? Человек попал в вечность.
09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.
ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала.
но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные?
p.s. Андрей Михайлович лучший лектор!
СПАСИБО!!! искал пояснение данному моменту, сам запутался, отчего бы им быть разными, а оно вон как…
Максимально обаятельный лектор :)
Отличная лекция! Спасибо огромное!!
Отместенаа Fantastic!
11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?
@@tomas_shelby3301 они же одинаково распределены
@@tomas_shelby3301 о, теперь понятно! большое спасибо:)
37:00 почему оценка, на которую показывает Андрей Михайлович, является несмещенной? Ведь E(ξ1) = ξ1 - константа, а Тэта это не просто ξ1
Удалось разобраться?
В определении состоятельности также необходим квантор всеобщности
Респект лектору!
Супер! Огромоное спасибо!
Спасибо большое.
очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.
Спасибо большое за лекцию!!!
Спасибо преподавателю
А почему логарифм не может равняться многочлену? Подскажите, кто-нибудь, где про это почитать)
Так как производная большого порядка от многочлена равна 0, а от логарифма все производные не равны 0
Потому что равняется бесконечной сумме многочленов, почитать можно про ряды Тейлора
Искал доказательство почему n-1 для несмещённой дисперсии в выборках и получил. 🥹 Спасибо!
Подскажите!
Получается, есть НЕматематическая статистика ?
Райгородский великолепен
Спасибо за лекцию!
В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p".
Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)
Андрей Михаилович тут к сожалению не отвечает , попробуйте написать ему на почту с указанием таймкода
@@mipt_study Хорошо :)
Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.
@@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним.
"
Просто Иисус математики.
Спасибо!
Хороший курс
Есть ли практические занятия, которые относятся к этим лекциям на этом youtube-канале? Если есть, не могли бы указать как найти?
Анатолий, в плейлисте есть записи семинаров по этому курсу. Записи разбора домашних заданий не выкладываются по просьбе преподавателей.
ln(p)=ln(1-q); Taylor expansion There will be only failures!!-impossible for the mean
"Товарищи, всё понятно, что происходит?" - "Нет, капитан!"🤯
There is one advantage of Covid-the lectures on youtube of Profesor Raigorodski
Я плачу
Спасибо, где получить?
ln(1-q)=...
Подскажите а как посмотреть предыдущую лекцию гле базовые.понятия обьясняются?
Закон больших чисел и итд
Наберите в поиске RUclips Дистанционные занятия МФТИ Теория Вероятностей
indicators in fact
Ну он тащер жесткий
Те зависими