Спасибо! Вышло в меру доступно и наглядно. Увы, прикладные курсы тервер&матстат (Гмурман, Кремер и пр.) не уделяют подобного внимания выводу формул. Доходит до того, что более очевидные и простые вещи они расписывают дотошно, тогда как в менее очевидные просят уверовать.
После просмотра видео осталось пару вопросов: 1) а) 11:32 -- 12:05 подразумевается ли, что событие B НЕ является невозможным? б) Если бы оно было невозможным, то можно ли его было проигнорировать во всех формулах, выведенных в видео? 2) 34:36 откуда мы взяли 2-е большое слагаемое. Если пользоваться той маленькой шпаргалкой (30:17) которую Вы вывели, то тогда на 34:36 должно хватить и только первого слагаемого.
Спасибо за отзыв! 1) событие b в общем случае действительно не является невозможным; 2) второе слагаемое появилось в результате раскрытия большого квадрата в предыдущей строчке.
Только в случае, если события независимы. Нпример, Вы кидаете две кости. Вероятность того, что выпадет 3 + 3 равна 1/6 * 1/6. Но если события зависимы между собой, то уже надо использовать условные вероятности.
плюсую, если это постепенно выльется в дата саенс, который мы заслужили (деревья, регрессии туда-сюда, нейронки, бустинги), и это будет настолько же хорошо, как то что вы делаете сейчас, то вероятность успеха очень высока, поскольку в ру сегменте очень мало хороших курсов.
@@chert6668, то что Вы перечисляете: бустинг, деревья, регрессии и прочее - это машинное обучение. Что, в свою очередь, является только частью датасайегса. То есть, датасайнс ещё шире, чем регрессии и деревья: там ещё интерполяции статистические анализ, кластеризации и т. д. То есть, это ещё интересее, чем одно только машинное обучение. И все это будет. Но не раньше 2021 года. Пока только математические основы. Что было на основании чего датасайнс строить.
Вячеслав, а вы не хотите в параллель делать видосы по дата саенсу? Мне кажется народу будет очень интересно, особенно вкупе с тем, что вы уже преподаёте. На примере проектов было бы ещё круче
Датасайнс будет позже. Сначала мы пройдем всю математику. Во-первых, так будет проще объяснять алгоритмы, когда можно делать отсылки к математическим фактам. Во-вторых, там будут совсем другие темы, не получится "параллелить".
Здравсвтуйте! Мне не понятен один момент,почему сумма вероятностей по индексу j прибавляет вероятность только к событиям j,а не ко всем Pib...j. Просто вроде как с точки зрения знака суммы мы ведь объединяем события Pib...j друг с другом меняя только событие j. Так почему в итоге мы работаем только с событиями j а не со всеми вероятностями?
А, вот о чем! Тут дело в том, что вероятность всех исходов события b мы перебираем как переменные, а остальные множители (вероятности исходов остальных событий) остаются неизменными и мы их выносим за скобки. А в скобка остается "ИЛИ" всех исходов b (11:31) с вероятностью 1.
@@dudvstud9081 ну что такое ковариация и корреляция мне более менее понятно. я не осилил выведение формул матожидания и дисперсии. формулы большие, мы что-то там фиксировали, что-то ассоциировали. вобщем я не понял как выводить формулы матожидания и дисперсии суммы зависимых случайных величин
Посмотрел до конца - автор красавец. Отлично помогает закрепить материал. Максимально подробно все расписал (хотя ему пришлось немало пописать).
Красавец, что до конца! :)
Минитанец в конце) спасибо за столь подробные выкладки)
Спасибо! Вышло в меру доступно и наглядно. Увы, прикладные курсы тервер&матстат (Гмурман, Кремер и пр.) не уделяют подобного внимания выводу формул. Доходит до того, что более очевидные и простые вещи они расписывают дотошно, тогда как в менее очевидные просят уверовать.
Спасибо за отзыв! :)
А я все голову ломал, для чего он нужен "первый центральный момент"?! Думал, вся польза со второго начинается. А оно вон как... Спасибо огромное!!!
И Вам спасибо за отзыв! :)
В целом вывод формул понятен, однако сам я бы вывести не смог. Спасибо большое за урок.
Спасибо за отзыв! Я тоже когда-то не мог :) Но дорогу осилит идущий ;)
Большое спасибо за труд! Как раз то, что искал.
Спасибо за отзыв!
Спасибо за труд который вы делаете. Жаль только целевая аудитория либо находится не на этом ресурсе, либо не находит этот канал...
Спасибо за отзыв! я думаю, со временем аудитория наберется :)
После просмотра видео осталось пару вопросов:
1) а) 11:32 -- 12:05 подразумевается ли, что событие B НЕ является невозможным?
б) Если бы оно было невозможным, то можно ли его было проигнорировать во всех формулах, выведенных в видео?
2) 34:36 откуда мы взяли 2-е большое слагаемое. Если пользоваться той маленькой шпаргалкой (30:17) которую Вы вывели, то тогда на 34:36 должно хватить и только первого слагаемого.
Спасибо за отзыв!
1) событие b в общем случае действительно не является невозможным;
2) второе слагаемое появилось в результате раскрытия большого квадрата в предыдущей строчке.
На Ваш взгляд , есть ли спрос сейчас на специалистов в области ML?
Что будет с сферой в кризис?)
Я думаю, что будет развиваться. Благодаря карантину сейчас виртуальный мир получил ускорение в развитии :)
Совместная вероятность Pij это произведение двух вероятностей?
Только в случае, если события независимы. Нпример, Вы кидаете две кости. Вероятность того, что выпадет 3 + 3 равна 1/6 * 1/6. Но если события зависимы между собой, то уже надо использовать условные вероятности.
Почему бы не оформить это в курс на Stepik?) и аудитория сразу наберется. Материал очень полезный
Спасибо за рекомендацию, я подумаю!
плюсую, если это постепенно выльется в дата саенс, который мы заслужили (деревья, регрессии туда-сюда, нейронки, бустинги), и это будет настолько же хорошо, как то что вы делаете сейчас, то вероятность успеха очень высока, поскольку в ру сегменте очень мало хороших курсов.
Математическую базу мы точно пройдём на ютубе, а там посмотрим :)
@@chert6668, то что Вы перечисляете: бустинг, деревья, регрессии и прочее - это машинное обучение. Что, в свою очередь, является только частью датасайегса. То есть, датасайнс ещё шире, чем регрессии и деревья: там ещё интерполяции статистические анализ, кластеризации и т. д. То есть, это ещё интересее, чем одно только машинное обучение. И все это будет. Но не раньше 2021 года. Пока только математические основы. Что было на основании чего датасайнс строить.
Вячеслав, а вы не хотите в параллель делать видосы по дата саенсу? Мне кажется народу будет очень интересно, особенно вкупе с тем, что вы уже преподаёте. На примере проектов было бы ещё круче
Датасайнс будет позже. Сначала мы пройдем всю математику.
Во-первых, так будет проще объяснять алгоритмы, когда можно делать отсылки к математическим фактам.
Во-вторых, там будут совсем другие темы, не получится "параллелить".
Вывод формул просто крошит мозг :))) но я осилил
Это круто! Если практиковаться, то будет легче с каждым разом :)
Здравсвтуйте! Мне не понятен один момент,почему сумма вероятностей по индексу j прибавляет вероятность только к событиям j,а не ко всем Pib...j. Просто вроде как с точки зрения знака суммы мы ведь объединяем события Pib...j друг с другом меняя только событие j. Так почему в итоге мы работаем только с событиями j а не со всеми вероятностями?
Дайте, пожалуйста, время, где эта формула. А то я уже не помню деталей :)
@@dudvstud90818:00
А, вот о чем! Тут дело в том, что вероятность всех исходов события b мы перебираем как переменные, а остальные множители (вероятности исходов остальных событий) остаются неизменными и мы их выносим за скобки. А в скобка остается "ИЛИ" всех исходов b (11:31) с вероятностью 1.
@@dudvstud9081 понятно, я в принципе догадался до такой мысли,просто с формой записи запутался немного,спасибо вам
у меня вопрос немножко не по теме) будем ли мы проходить обучение на несбалансированных классах?
пока не могу сказать, так далеко еще не составлял учебную программу :)
34:15 разве впереди 2 не надо поставить?
Да, там должен быть коэффициент 2
@@dudvstud9081спасибо за ответ,решил тоже порешать просто,но забыл алгоритм действий и решил подсмотреть у вас
что-то я не осилил этот материал. видимо мне не попасть в data science и я навсегда останусь тестировщиком
Оууу!! Зачем же сразу сдаваться? Я готов ответить на дополнительные вопросы. Что именно непонятно? Или с какого момента перестало быть понятно?
@@dudvstud9081 ну что такое ковариация и корреляция мне более менее понятно. я не осилил выведение формул матожидания и дисперсии. формулы большие, мы что-то там фиксировали, что-то ассоциировали. вобщем я не понял как выводить формулы матожидания и дисперсии суммы зависимых случайных величин
@@ВячеславБеляев-к9п можно пойти дальше и через какое-то время вернуться. главное, что сами формулы понятны, значит и вывод со временем освоится :)
@@dudvstud9081 формулы то мне понятны. я тоже надеюсь что остальное я потом пойму
@@ВячеславБеляев-к9п если сформулируются конкретные вопросы - с удовольствием отвечу
похоже у тебя завёлся хейтер) на многих видео по одному дизлайку
Это хорошо, а то все как-то слишком радостно :) До 3%. Дизлайков вполне допустимо :))