A.4.9 Матожидание, дисперсия, ковариация и корреляция: общий случай

Поделиться
HTML-код
  • Опубликовано: 17 ноя 2024

Комментарии • 46

  • @romangasumov2885
    @romangasumov2885 4 года назад +1

    Посмотрел до конца - автор красавец. Отлично помогает закрепить материал. Максимально подробно все расписал (хотя ему пришлось немало пописать).

    • @dudvstud9081
      @dudvstud9081  4 года назад

      Красавец, что до конца! :)

  • @anzarsh
    @anzarsh Год назад +1

    Минитанец в конце) спасибо за столь подробные выкладки)

  • @marlanivanovich1828
    @marlanivanovich1828 2 года назад +1

    Спасибо! Вышло в меру доступно и наглядно. Увы, прикладные курсы тервер&матстат (Гмурман, Кремер и пр.) не уделяют подобного внимания выводу формул. Доходит до того, что более очевидные и простые вещи они расписывают дотошно, тогда как в менее очевидные просят уверовать.

    • @dudvstud9081
      @dudvstud9081  2 года назад

      Спасибо за отзыв! :)

  • @zv7802
    @zv7802 Год назад +1

    А я все голову ломал, для чего он нужен "первый центральный момент"?! Думал, вся польза со второго начинается. А оно вон как... Спасибо огромное!!!

    • @dudvstud9081
      @dudvstud9081  Год назад

      И Вам спасибо за отзыв! :)

  • @УчебныйКанал-з1ю
    @УчебныйКанал-з1ю Год назад +3

    В целом вывод формул понятен, однако сам я бы вывести не смог. Спасибо большое за урок.

    • @dudvstud9081
      @dudvstud9081  Год назад

      Спасибо за отзыв! Я тоже когда-то не мог :) Но дорогу осилит идущий ;)

  • @funcoding1071
    @funcoding1071 4 года назад +2

    Большое спасибо за труд! Как раз то, что искал.

  • @dmitriyobidin6049
    @dmitriyobidin6049 4 года назад +4

    Спасибо за труд который вы делаете. Жаль только целевая аудитория либо находится не на этом ресурсе, либо не находит этот канал...

    • @dudvstud9081
      @dudvstud9081  4 года назад +1

      Спасибо за отзыв! я думаю, со временем аудитория наберется :)

  • @vermichel5021
    @vermichel5021 4 года назад

    После просмотра видео осталось пару вопросов:
    1) а) 11:32 -- 12:05 подразумевается ли, что событие B НЕ является невозможным?
    б) Если бы оно было невозможным, то можно ли его было проигнорировать во всех формулах, выведенных в видео?
    2) 34:36 откуда мы взяли 2-е большое слагаемое. Если пользоваться той маленькой шпаргалкой (30:17) которую Вы вывели, то тогда на 34:36 должно хватить и только первого слагаемого.

    • @dudvstud9081
      @dudvstud9081  4 года назад +1

      Спасибо за отзыв!
      1) событие b в общем случае действительно не является невозможным;
      2) второе слагаемое появилось в результате раскрытия большого квадрата в предыдущей строчке.

  • @СтепанЦыбин-ю9д
    @СтепанЦыбин-ю9д 4 года назад +1

    На Ваш взгляд , есть ли спрос сейчас на специалистов в области ML?
    Что будет с сферой в кризис?)

    • @dudvstud9081
      @dudvstud9081  4 года назад

      Я думаю, что будет развиваться. Благодаря карантину сейчас виртуальный мир получил ускорение в развитии :)

  • @alexeylaugha1371
    @alexeylaugha1371 3 года назад +1

    Совместная вероятность Pij это произведение двух вероятностей?

    • @dudvstud9081
      @dudvstud9081  3 года назад +2

      Только в случае, если события независимы. Нпример, Вы кидаете две кости. Вероятность того, что выпадет 3 + 3 равна 1/6 * 1/6. Но если события зависимы между собой, то уже надо использовать условные вероятности.

  • @MadKingRPS
    @MadKingRPS 4 года назад +3

    Почему бы не оформить это в курс на Stepik?) и аудитория сразу наберется. Материал очень полезный

    • @dudvstud9081
      @dudvstud9081  4 года назад

      Спасибо за рекомендацию, я подумаю!

    • @chert6668
      @chert6668 4 года назад +3

      плюсую, если это постепенно выльется в дата саенс, который мы заслужили (деревья, регрессии туда-сюда, нейронки, бустинги), и это будет настолько же хорошо, как то что вы делаете сейчас, то вероятность успеха очень высока, поскольку в ру сегменте очень мало хороших курсов.

    • @dudvstud9081
      @dudvstud9081  4 года назад

      Математическую базу мы точно пройдём на ютубе, а там посмотрим :)

    • @dudvstud9081
      @dudvstud9081  4 года назад +1

      @@chert6668, то что Вы перечисляете: бустинг, деревья, регрессии и прочее - это машинное обучение. Что, в свою очередь, является только частью датасайегса. То есть, датасайнс ещё шире, чем регрессии и деревья: там ещё интерполяции статистические анализ, кластеризации и т. д. То есть, это ещё интересее, чем одно только машинное обучение. И все это будет. Но не раньше 2021 года. Пока только математические основы. Что было на основании чего датасайнс строить.

  • @DoskarinMarlen
    @DoskarinMarlen 4 года назад +2

    Вячеслав, а вы не хотите в параллель делать видосы по дата саенсу? Мне кажется народу будет очень интересно, особенно вкупе с тем, что вы уже преподаёте. На примере проектов было бы ещё круче

    • @dudvstud9081
      @dudvstud9081  4 года назад +2

      Датасайнс будет позже. Сначала мы пройдем всю математику.
      Во-первых, так будет проще объяснять алгоритмы, когда можно делать отсылки к математическим фактам.
      Во-вторых, там будут совсем другие темы, не получится "параллелить".

  • @angryworm80
    @angryworm80 4 года назад +2

    Вывод формул просто крошит мозг :))) но я осилил

    • @dudvstud9081
      @dudvstud9081  4 года назад

      Это круто! Если практиковаться, то будет легче с каждым разом :)

  • @applepixlife9286
    @applepixlife9286 10 месяцев назад +1

    Здравсвтуйте! Мне не понятен один момент,почему сумма вероятностей по индексу j прибавляет вероятность только к событиям j,а не ко всем Pib...j. Просто вроде как с точки зрения знака суммы мы ведь объединяем события Pib...j друг с другом меняя только событие j. Так почему в итоге мы работаем только с событиями j а не со всеми вероятностями?

    • @dudvstud9081
      @dudvstud9081  10 месяцев назад

      Дайте, пожалуйста, время, где эта формула. А то я уже не помню деталей :)

    • @applepixlife9286
      @applepixlife9286 10 месяцев назад +1

      @@dudvstud90818:00

    • @dudvstud9081
      @dudvstud9081  9 месяцев назад

      А, вот о чем! Тут дело в том, что вероятность всех исходов события b мы перебираем как переменные, а остальные множители (вероятности исходов остальных событий) остаются неизменными и мы их выносим за скобки. А в скобка остается "ИЛИ" всех исходов b (11:31) с вероятностью 1.

    • @applepixlife9286
      @applepixlife9286 9 месяцев назад +1

      @@dudvstud9081 понятно, я в принципе догадался до такой мысли,просто с формой записи запутался немного,спасибо вам

  • @ВячеславБеляев-к9п
    @ВячеславБеляев-к9п 4 года назад +1

    у меня вопрос немножко не по теме) будем ли мы проходить обучение на несбалансированных классах?

    • @dudvstud9081
      @dudvstud9081  4 года назад

      пока не могу сказать, так далеко еще не составлял учебную программу :)

  • @applepixlife9286
    @applepixlife9286 6 месяцев назад +1

    34:15 разве впереди 2 не надо поставить?

    • @dudvstud9081
      @dudvstud9081  6 месяцев назад

      Да, там должен быть коэффициент 2

    • @applepixlife9286
      @applepixlife9286 6 месяцев назад +1

      @@dudvstud9081спасибо за ответ,решил тоже порешать просто,но забыл алгоритм действий и решил подсмотреть у вас

  • @ВячеславБеляев-к9п
    @ВячеславБеляев-к9п 4 года назад +1

    что-то я не осилил этот материал. видимо мне не попасть в data science и я навсегда останусь тестировщиком

    • @dudvstud9081
      @dudvstud9081  4 года назад

      Оууу!! Зачем же сразу сдаваться? Я готов ответить на дополнительные вопросы. Что именно непонятно? Или с какого момента перестало быть понятно?

    • @ВячеславБеляев-к9п
      @ВячеславБеляев-к9п 4 года назад +1

      @@dudvstud9081 ну что такое ковариация и корреляция мне более менее понятно. я не осилил выведение формул матожидания и дисперсии. формулы большие, мы что-то там фиксировали, что-то ассоциировали. вобщем я не понял как выводить формулы матожидания и дисперсии суммы зависимых случайных величин

    • @dudvstud9081
      @dudvstud9081  4 года назад

      @@ВячеславБеляев-к9п можно пойти дальше и через какое-то время вернуться. главное, что сами формулы понятны, значит и вывод со временем освоится :)

    • @ВячеславБеляев-к9п
      @ВячеславБеляев-к9п 4 года назад +1

      @@dudvstud9081 формулы то мне понятны. я тоже надеюсь что остальное я потом пойму

    • @dudvstud9081
      @dudvstud9081  4 года назад +1

      @@ВячеславБеляев-к9п если сформулируются конкретные вопросы - с удовольствием отвечу

  • @ВячеславБеляев-к9п
    @ВячеславБеляев-к9п 4 года назад +1

    похоже у тебя завёлся хейтер) на многих видео по одному дизлайку

    • @dudvstud9081
      @dudvstud9081  4 года назад

      Это хорошо, а то все как-то слишком радостно :) До 3%. Дизлайков вполне допустимо :))