Вернулся! Да!! Я за это время успел аналитиком стать по твоим лекциям!😃 спасибо, я реально конспектировал твои видео, и пользуюсь этими записями до сих пор😀
Глеб жыв! Не, ну это святой человек, конечно Мало того, что тонна бесплатных туториалов на канале топового качества, так он ещё и куски платных курсов заливает в открытый доступ Бесконечные респект и уважуха Храни господь таких людей
Кайф 😎 очень круто и понятно. С большим удовольствием посмотрел. Подача стала однозначно лучше, однако шуточек стало поменьше))) спасибо и с возвращением 🎉
Я встал на путь леопарда, сейчас исследую Ваши плейлисты по статистике и Python. Это видео было как раз то, что нужно в данный момент. Спасибо Вам большое. Стану продуктовым аналитиком, отдам дань царю леопардов. Благодарю Вас. Иногда не с первого раза доходит, А когда повторяете, но уже с другой стороны, тогда в голове появляется понимание )
Глеб!, Спасибо тебе. Ты очень мне помог! Умеешь подавать материал доступно каждому - До сих пор люблю пересматривать твои видосы по Статистике, они мои самые любимые - шутки про "Виноградный День" просто легендарны!👈💣. Купил 2 твоих курса на Степике, обязательно куплю этот!. Продолжай заниматься тем чем занимаешься: таков путь настоящего Леопарда🐆!💜💜💜💜💜💜💜
Вернулся!!! Я ждал и не отписывался! Переживал, что пропал насовсем. Видео еще не посмотрел, но лайк заблаговременно! Обязательно к просмотру в ближайшее время. Очень рад!
Добрый день, спасибо за видео. Цитата: 1:35:20 Не согласен. Если наблюдаемой разницы между А и B нет, то тест не скажет, что она есть. Все что может сказать тест - это является ли наблюдаемая разница статистически значимой или нет.
Как обычно, очень крутое видео. За знания с трех курсов Глеба всякие скиллбоксы, Яндексы и тд взяли бы тысяч сто и объяснили бы не так хорошо. Глеб, именно благодаря тебе я работаю в области аналитики данных P.s: да какие блин еще скидки, курс стоит копейки
Кто может объяснить, при расчете размера выборки, почему чем больше базовый уровень конверсии, тем больше выборка требуется для эксперимента? Например baseline: 0.03, mde: 0.02 - требуется 1484 значений, а если baseline 0.33, а mde: 0.02, то уже требуется 8805 значений?
@GlebMikhaylov Большое спасибо за "нескучный контент"! А какое минимальное количество наблюдений дб для применения бутстрапа? Его ж применяют не только при перекошенном распределении, но также если наблюдений не хватает для "классических" критериев. Right?
Это минимальное количество можно бутстрепом и определить, посмотри как я тестирую тест начиная с 2:21:39 и также можешь определять размеры выборок для бутстрепа. Перекошенное распределение и нехватка размера выборки это по сути одна и та же проблема. Это значит что ЦПТ не работает, т.к. ей не хватает размера выборки, и чем кривее распределение чем больше нужно наблюдений чтобы ЦПТ заработала
Глеб, а почему не рассказываешь ни о дисперсиях, доверительных интервалах? Почему все только и говорят о них, когда мы тестируем гипотезы, а тебе удалось это все объяснить без данной статистической терминологии?
Вернулся! Да!! Я за это время успел аналитиком стать по твоим лекциям!😃 спасибо, я реально конспектировал твои видео, и пользуюсь этими записями до сих пор😀
Глеб жыв!
Не, ну это святой человек, конечно
Мало того, что тонна бесплатных туториалов на канале топового качества, так он ещё и куски платных курсов заливает в открытый доступ
Бесконечные респект и уважуха
Храни господь таких людей
Чувак - это улет!!! Огромное спасибо за такой качественный материал🔥🔥🔥
Глеб, жду твоих видосов больше остальных. Самый годный канал для изучения данной индрустрии. Надеюсь в ближайщем времени будут легендарные стримы!!💪💪🐆
Глебу всегда говорю спасибо
Легенда возвращается!
Глеб, огромная благодарность за то что ты делаешь! ❤
Урааааааа, новый видос от Глеба. Спасибо большое
Кайф 😎 очень круто и понятно. С большим удовольствием посмотрел. Подача стала однозначно лучше, однако шуточек стало поменьше))) спасибо и с возвращением 🎉
Я встал на путь леопарда, сейчас исследую Ваши плейлисты по статистике и Python. Это видео было как раз то, что нужно в данный момент. Спасибо Вам большое. Стану продуктовым аналитиком, отдам дань царю леопардов. Благодарю Вас.
Иногда не с первого раза доходит, А когда повторяете, но уже с другой стороны, тогда в голове появляется понимание )
Глеб!, Спасибо тебе. Ты очень мне помог! Умеешь подавать материал доступно каждому - До сих пор люблю пересматривать твои видосы по Статистике, они мои самые любимые - шутки про "Виноградный День" просто легендарны!👈💣. Купил 2 твоих курса на Степике, обязательно куплю этот!. Продолжай заниматься тем чем занимаешься: таков путь настоящего Леопарда🐆!💜💜💜💜💜💜💜
Офигенно. Первое видео, и как же предельно ясно. Уважуха.
С возвращением! Очень ждал новый видос
Самое понятное объяснение, как всегда у Глеба.
На курс тоже записался, в телеграмм вступил. Времени проходить сейчас нет, но записаться точно надо!
Леопард всегда возвращается, это просто какой-то виноградный день! =)
Глебасик, с возвращением!
Все очень подробно и понятно! Спасибо!
Вернулся!!! Я ждал и не отписывался! Переживал, что пропал насовсем. Видео еще не посмотрел, но лайк заблаговременно! Обязательно к просмотру в ближайшее время. Очень рад!
Добрый день, спасибо за видео.
Цитата:
1:35:20
Не согласен.
Если наблюдаемой разницы между А и B нет, то тест не скажет, что она есть.
Все что может сказать тест - это является ли наблюдаемая разница статистически значимой или нет.
Спасибо, что вернулся!
С кайфом, Глеб!
Глеб ван лав❤ спасибо!
Воу! Спасибо большое за материал, надо будет купить курс какой-нибудь у тебя)
спасибо за доброе дело!
Как обычно, очень крутое видео. За знания с трех курсов Глеба всякие скиллбоксы, Яндексы и тд взяли бы тысяч сто и объяснили бы не так хорошо. Глеб, именно благодаря тебе я работаю в области аналитики данных
P.s: да какие блин еще скидки, курс стоит копейки
Бешено плюсую. Могу сравнивать
Кроме курсова Глеба что еще проходил?
О, вот и главный леопард вернулся! Обязательно куплю курс как поступит ЗП👌🏿🔥😁
Лучший!
С возвращением) Тему с RFM-score использую до сих пор) Очень клевая штука)
Спасибо!
2:40:26 Хейт на калькулятор Евана Миллера :D
Глеб, куда пропал, плохо без твоих стримов.
Еееее, леопард вернулся!!)))
спасибо
а почему число повторений эксперимента n = 1000? или больше, там какая логика заложена?
Только тебя вспоминал недавно, когда решал задачки в leetcode
Спасибо, как всегда прекрасная лекция.
Глеб жги дружище вперед хэхэй хэхэй хэй
Добрый день!
Было бы очень интересно послушать про множественное тестирование и как считать размер выборки, когда тестируемых групп больше 2.
Кто может объяснить, при расчете размера выборки, почему чем больше базовый уровень конверсии, тем больше выборка требуется для эксперимента? Например baseline: 0.03, mde: 0.02 - требуется 1484 значений, а если baseline 0.33, а mde: 0.02, то уже требуется 8805 значений?
Купил курс себе и другу (он берет тесты на ковид) 🤝
выложил 3 часа из 7 , щедровато
легендарный камбек
Спасибо! Лучший преподаватель!
А будет ли данный курс на udemy ?
Спасибо! Да, скоро выложу
@GlebMikhaylov Большое спасибо за "нескучный контент"! А какое минимальное количество наблюдений дб для применения бутстрапа? Его ж применяют не только при перекошенном распределении, но также если наблюдений не хватает для "классических" критериев. Right?
Это минимальное количество можно бутстрепом и определить, посмотри как я тестирую тест начиная с 2:21:39 и также можешь определять размеры выборок для бутстрепа.
Перекошенное распределение и нехватка размера выборки это по сути одна и та же проблема. Это значит что ЦПТ не работает, т.к. ей не хватает размера выборки, и чем кривее распределение чем больше нужно наблюдений чтобы ЦПТ заработала
Прошедшим курс уже вручаются леопардовые трусы или по прежнему их самим на алике покупать?
Глеб, привет! Планируешь сделать курс по работе с Chat GPT? Установка, настройка, работа? Дотягивает ли на твой взгляд YandexGPT до уровня ChatGPT?
Пока не планировал). ЯндексGPT тоже не тестил пока , не знаю какой у него уровень
можно будет купить курс на UDEMY?
Подскажите пожалуйста, предсказанные данные на 39:31 - это вы уже сделали модель сами? Как в ваших уроках про машинное обучение?
Я эти данные сгенирил с помощью случайных чисел, просто чтобы их тут поанализировать
@@GlebMikhaylov спасибо. Поняла.
Леопард Винаграднович ворвался на интуиции!
😀😀😀
Привет, что скажешь про книгу Доверительное А/б тестирование? Стоит прочитать?
не читал ее, не знаю
Глеб, а почему не рассказываешь ни о дисперсиях, доверительных интервалах? Почему все только и говорят о них, когда мы тестируем гипотезы, а тебе удалось это все объяснить без данной статистической терминологии?
Это уже более технический уровень пониманию. С той интуицией что я здесь даю понять это будет гораздо легче
Так интересно что кажется, гипотетически, даже если бы ты футболки менял во время лекции, то и не заметил бы!
Это курс для леопардов или нет?
Абсолютно