Data Mining in Action
Data Mining in Action
  • Видео 23
  • Просмотров 230 490
Data Mining In Action. Рекомендательные системы
Открытый курс по машинному обучению и анализу данных "Data Mining In Action"
Илья Ирхин
Группа ВК: data_mining_in_action
Репозиторий курса на гитхабе: github.com/applied-data-science/Data_Mining_in_Action_2018_Spring
Просмотров: 3 855

Видео

Data Mining In Action. Предиктивная аналитика
Просмотров 4,4 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Эмели Драль Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/applied-data-science/Data_Mining_in_Action_2018_Spring
Data Mining In Action. Проверка статистических гипотез и A/B тестирование
Просмотров 6 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Илья Ирхин Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/applied-data-science/Data_Mining_in_Action_2018_Spring
Data Mining In Action. Оценка моделей на исторических данных
Просмотров 2,1 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Виктор Кантор Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/applied-data-science/Data_Mining_in_Action_2018_Spring
Data Mining In Action. Обучение без учителя
Просмотров 2,1 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Виктор Кантор Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/applied-data-science/Data_Mining_in_Action_2018_Spring
Data Mining In Action. Обучение с учителем (решающие деревья и ансамбли)
Просмотров 2,3 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Виктор Кантор Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/Data_Mining_in_Action_2018_Spring
Data Mining In Action. Обучение с учителем (часть 1)
Просмотров 3,6 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Виктор Кантор Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/Data_Mining_in_Action_2018_Spring
Data Mining In Action. Вводная лекция
Просмотров 6 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Виктор Кантор Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/Data_Mining_in_Action_2018_Spring
Лекция 5. Спортивный анализ данных
Просмотров 2,2 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Александр Гущин Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/MIPT_Data_Mining_In_Action_2016
Лекция 4. Работа с признаками и метрики качества
Просмотров 5 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Давид Дале Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/MIPT_Data_Mining_In_Action_2016
Лекция 2. Обучение с учителем
Просмотров 3,5 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Виктор Кантор Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/MIPT_Data_Mining_In_Action_2016
Лекция 3. Обучение без учителя
Просмотров 4,4 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Эмели Драль Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/MIPT_Data_Mining_In_Action_2016
Лекция 1. Машинное обучение: основные понятия и области применения
Просмотров 6 тыс.6 лет назад
Открытый курс по машинному обучению и анализу данных "Data Mining In Action" Виктор Кантор Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/MIPT_Data_Mining_In_Action_2016
Лекция 10 Прогнозирование временных рядов
Просмотров 97 тыс.7 лет назад
Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/MIPT_Data_Mining_In_Action_2016
Лекция 9 Case Study: Прогнозирование оттока пользователей
Просмотров 4,9 тыс.7 лет назад
Группа ВК: data_mining_in_action Репозиторий курса на гитхабе: github.com/vkantor/MIPT_Data_Mining_In_Action_2016
Лекция 8 "Рекомендательные системы"
Просмотров 9 тыс.7 лет назад
Лекция 8 "Рекомендательные системы"
Лекция 7. Deep Learning for Data with Sequence Structure
Просмотров 2,6 тыс.7 лет назад
Лекция 7. Deep Learning for Data with Sequence Structure
Лекция 6. Introduction in deep learning
Просмотров 4 тыс.7 лет назад
Лекция 6. Introduction in deep learning
Лекция 5. Введение в Text Mining
Просмотров 4,6 тыс.7 лет назад
Лекция 5. Введение в Text Mining
Лекция 4. Преобразование признаков
Просмотров 4,7 тыс.7 лет назад
Лекция 4. Преобразование признаков
Лекция 3. Кластеризация
Просмотров 14 тыс.7 лет назад
Лекция 3. Кластеризация
Лекция 2. Методы решения задачи классификации и регрессии
Просмотров 10 тыс.7 лет назад
Лекция 2. Методы решения задачи классификации и регрессии
Лекция 1. Примеры применения анализа данных, стандартные задачи и методы
Просмотров 27 тыс.7 лет назад
Лекция 1. Примеры применения анализа данных, стандартные задачи и методы

Комментарии

  • @котякотя
    @котякотя 2 месяца назад

    57:55

  • @ivanafanaskin6216
    @ivanafanaskin6216 3 месяца назад

    Речь лектора и картинки презентации расходятся по времени

  • @MaxZaikin
    @MaxZaikin 5 месяцев назад

    Евгений, замечательная лекция. Пару замечаний, не хватает примеров, которые аудитория могла бы повторить в лабораторных условиях, чтобы понять как работают те или иные алгоритмы и в чем их преимущества или недостатки перед другими. Хотелось бы иметь ссылку на саму презентацию, чтобы почитать отдельно, а так же хотелось бы иметь ссылку на Jupiter notebook, где можно было бы поработать с примерами из лекции. А в целом 5/5 желаю успехов в научной деятельности. С Уважением, Макс.

  • @Pedrochenko
    @Pedrochenko 5 месяцев назад

    Мое почтение, выдать на голубом глазу «сокровищница США» и даже не запнуться 😂😂😂

  • @maxg2371
    @maxg2371 7 месяцев назад

    Когда что-либо делаешь не сам, а сдираешь с англоязычного источника, то не надо позориться тупыми переводами, такими как "сокровищница" (это всегда было казначейство). Позор!

    • @Pedrochenko
      @Pedrochenko 5 месяцев назад

      Поделитесь ссылочкой?

    • @maxg2371
      @maxg2371 5 месяцев назад

      @@Pedrochenko это вы того болвана, который криво переводит, спрашивайте

  • @denisusachev4816
    @denisusachev4816 7 месяцев назад

    7:55 значение автокорреляции во временных рядах

  • @Иван-о3ъ6ь
    @Иван-о3ъ6ь 7 месяцев назад

    у меня есть друг Денис и вот он сказал, что хочет пососать этому лектору

  • @wayer5204
    @wayer5204 8 месяцев назад

    Нифига себе чел могёт, ппц мощный

  • @jacksonbond9403
    @jacksonbond9403 8 месяцев назад

    а что с каналом случилось?

  • @user-ko9dn2ve9e
    @user-ko9dn2ve9e 10 месяцев назад

    Хотим: ARIMAX и VARIMA!

  • @chichackles
    @chichackles 11 месяцев назад

    Жаль, что вопросов не слышно :( Можно было бы их субтитрами дать.

  • @evgenyjagushinsky6695
    @evgenyjagushinsky6695 Год назад

    Для говно-товаров нет толку применять рекомендации, т к товары говнище и теперь такие повсеместно.

  • @artemsukhov
    @artemsukhov Год назад

    Добрый день! Подскажите, где найти Вашу презентацию. На гите не нашел, а говорили, что выложите. Спасибо!

  • @СергейГужов-ы1в

    А как зовут лектора? Может есть ссылки на его статьи или место работы?

    • @nik2513
      @nik2513 4 месяца назад

      Он больше в России не работает. К сожалению, из за политики путинского режима умные люди уезжают из нашей страны.

  • @Felix-og7pd
    @Felix-og7pd Год назад

    3:00 Предсказательный интервал 7:00 регрессия. автокореляция пирсона 8:00 компоненты ВР: тренд. Сезонность. Цикл. Ошибка 12:00 18:00 значимость автокореляции. Критерий стьюдента. Льюнга-бокса. 20:00 стационарность 25:00 статистические критерии. KPSS. Дики-фуллера 27:00 стабилизация дисперсии. Преопрозование Бокса-кокса 29:00 дифференцированние 33:00 авторегрессия. Скользящие среднее. ARMA. ARIMA. SARMA. SARIMA 47:00 подбор параметров функции. Dd, Qq, Pp, AICe, BIC, Bias tradeoff 1:00:00 как построить прогноз? Насыщенность. Стационарность. Неавтокореруемость. 1:08:00 построение Предсказательного интервала. Python vs R. Сложная сезонность (Праздники, domen knowledge) SARIMAX. Регресионные признаки 1:15:00 проблемы прогнозирования. ARIMA не нужна? features 1:20:00 Массовое прогнозирование 1:25:00 литература Наука не нужна? Коридор значимости?

  • @AliBaba__
    @AliBaba__ Год назад

    Что-за безсвязный диструктив !? С каких пор соплякам дано право учить !!?

  • @torcher5023
    @torcher5023 Год назад

    А Фурье чем не устроил?

  • @stukituk.clever3656
    @stukituk.clever3656 Год назад

    Почему-то на прогнозирование временных рядов тяжело найти много информации в одном месте. В частности базовую информацию. Но это видео исключение из этого правила. Спасибо, очень полезная лекция для понимания основ!

  • @Regressor14
    @Regressor14 Год назад

    надеюсь его не мобилизовали

  • @tlitt6521
    @tlitt6521 Год назад

    Я искал коинтеграцию Почему выпало это видео?

  • @sergeyvolnov8332
    @sergeyvolnov8332 Год назад

    Супер видос - столько смысла в одном видео я давно не видел🔥

  • @_AbUser
    @_AbUser 2 года назад

    Как на приеме у психиатора... Просто сплошным текстом метется все что в голову придет.. Любой ролик по ЦОС за 5 -10 минут введет во все то же самое в том же объеме без лишней терминологии и часовых лирических отступлений... Накидать слов по больше и по умнее - не есть оптимальная форма подачи..

  • @coolbrain
    @coolbrain 2 года назад

    Слайды отстают на 1 .

  • @dmitrydudrin2606
    @dmitrydudrin2606 2 года назад

    Прекрасно и крайне полезно!

  • @igordanilov1004
    @igordanilov1004 2 года назад

    Я одного не понял: Мы сначала ухудшаем скоррелированность ряда путем дифференцирования (это видно на графиках автокорр ф-ии) , а потом к такому низкоскоррелированному ряду лепим авторегрессию. Умно? А может не нужно дифференцировать чтобы получилась хорошая корреляция на ряд в прошлом?

    • @Valeria-sx7uv
      @Valeria-sx7uv Год назад

      Дифференцировать или нет - определяется моделью Дикки-Фуллера (поиск стационарности). Если у вас ряд стационарен без дифференцирования - все классно и так, можно ARIMA крутить

  • @soulmma2542
    @soulmma2542 2 года назад

    Я тупой

  • @everlastingsummer2044
    @everlastingsummer2044 2 года назад

    18:41 проверка значимости автокорреляции 24:57 статистические критерии на стационарность 27:27 стабилизация дисперсии

  • @suspiciousgoose7904
    @suspiciousgoose7904 2 года назад

    Интересный видос, спасибо 😊

  • @anatolykruglov7991
    @anatolykruglov7991 2 года назад

    Блин, офигенно!)))👍👍👍👍🤟🤟🤟🤟

  • @askuznecoff
    @askuznecoff 2 года назад

    Я тоже понял) красавчик лектор

  • @izogelia2277
    @izogelia2277 2 года назад

    так что в итоге? нафиг все эти модели - строим регрессию как раньше?

  • @СергейПетрович-т9п

    Бл.дь. тупо потерял время.

  • @ivanaaa6049
    @ivanaaa6049 3 года назад

    Какой аккуратно сложыенный мальчик. Хочется всклокочить его волосы и потом долго смотреть в его умные глаза.

  • @oldzas
    @oldzas 3 года назад

    Большое спасибо, просто и доступным языком

  • @andregogiko2163
    @andregogiko2163 3 года назад

    Лекция хорошая, но некоторые слайды сильно отстают и выходит что докладчик что-то объясняет, а слайд предыдущий и приходится включать фантазию и придумывать будущее изображение

    • @AleckBoronnikov
      @AleckBoronnikov 3 года назад

      На самом деле это тонкая психологическая подготовка к анализу и предсказанию временного ряда )))

  • @tka400
    @tka400 3 года назад

    19:35 перед двоечкой знак суммы не нужен?

  • @tka400
    @tka400 3 года назад

    12:45 интересно, что показали А/В тесты при применении модели с ошибкой в коде.

  • @MIRG-f7n
    @MIRG-f7n 3 года назад

    Спасибо

  • @aldadm
    @aldadm 3 года назад

    Спасибо за данную лекцию,осень помогает в понимании

  • @retiber1
    @retiber1 3 года назад

    Эх, видел бы я эту лекцию 3 года назад, когда только начинал изучать ариму...

  • @АйгульМусульманкулова

    Благодарю за лекцию!

  • @Русланутлакаев
    @Русланутлакаев 4 года назад

    Сработавшаяся команда готова к новым задачам по разметке, ds, ИИ. Заинтересованных лиц просьба писать в личку.

  • @misheltilver3072
    @misheltilver3072 4 года назад

    Спасибо за ролик, только начали изучать тему про метрики. Вот еще интересная статья ppc.world/articles/izmeryaem-effektivnost-internet-magazina-3-osnovnyh-urovnya-metrik/

  • @slavpetrovich32
    @slavpetrovich32 4 года назад

    Что-то Том Холланд поплыл к середине лекции: начал путать прогноз с подгонкой модели, перепутал разностный и лаговый операторы. Разностный оператор - штука, берущая конечную разность между соседними значениями ряда, используется при построении аримы. А это лаговый оператор (оператор сдвига), который просто берет соседнее значение

  • @eugeneivanin4646
    @eugeneivanin4646 4 года назад

    лучший

  • @vadimuzbekov6018
    @vadimuzbekov6018 4 года назад

    19:57 крайне топорное, неинформативное исследование. Два человека с одинаковым ростом и весом могут иметь совсем разное телосложение, процент жира всё-таки варьируется в широких пределах, и было бы более корректно измерять именно его

    • @eugene9271
      @eugene9271 3 года назад

      тут про корреляцию вероятность априори выше что высокий человек больше весит чем низкий

  • @АрсенийПроценко-ь2л

    Как за 4 года похорошел python при Собянине и statsmodels

  • @alexandram1460
    @alexandram1460 4 года назад

    офигенная лекция! даже идиоту типа меня многое стало понятнее

  • @dmitryantonov3577
    @dmitryantonov3577 4 года назад

    Спасибо! 👍

  • @konstantinphd2366
    @konstantinphd2366 4 года назад

    Уважаемый Лектор, Вы на слайдах показываете результат оценки ряда, грубо говоря, решая задачу апроксимации. Так вот в этом ничего сложного нет, т.к. реализация случайного процесса это уже неслучайный ряд и поэтому его не сложно аппроксимировать. Вы бы показали пример решения задачи экстраполяции, вот тогда был бы интерес, а так все это тривиальные вещи, к сожалению... С уважением, Константин.