Лекция 10 Прогнозирование временных рядов

Поделиться
HTML-код
  • Опубликовано: 23 дек 2016
  • Группа ВК: data_mining_in_action
    Репозиторий курса на гитхабе: github.com/vkantor/MIPT_Data_...

Комментарии • 63

  • @user-xe9iv5sm6s
    @user-xe9iv5sm6s 4 года назад +85

    Как за 4 года похорошел python при Собянине и statsmodels

  • @stukituk.clever3656
    @stukituk.clever3656 Год назад +16

    Почему-то на прогнозирование временных рядов тяжело найти много информации в одном месте. В частности базовую информацию. Но это видео исключение из этого правила. Спасибо, очень полезная лекция для понимания основ!

  • @sergeyvolnov8332
    @sergeyvolnov8332 Год назад +13

    Супер видос - столько смысла в одном видео я давно не видел🔥

  • @Felix-og7pd
    @Felix-og7pd Год назад +17

    3:00 Предсказательный интервал
    7:00 регрессия. автокореляция пирсона
    8:00 компоненты ВР: тренд. Сезонность. Цикл. Ошибка
    12:00
    18:00 значимость автокореляции. Критерий стьюдента. Льюнга-бокса.
    20:00 стационарность
    25:00 статистические критерии. KPSS. Дики-фуллера
    27:00 стабилизация дисперсии. Преопрозование Бокса-кокса
    29:00 дифференцированние
    33:00 авторегрессия. Скользящие среднее. ARMA. ARIMA. SARMA. SARIMA
    47:00 подбор параметров функции. Dd, Qq, Pp, AICe, BIC, Bias tradeoff
    1:00:00 как построить прогноз? Насыщенность. Стационарность. Неавтокореруемость.
    1:08:00 построение Предсказательного интервала. Python vs R. Сложная сезонность (Праздники, domen knowledge) SARIMAX. Регресионные признаки
    1:15:00 проблемы прогнозирования. ARIMA не нужна? features
    1:20:00 Массовое прогнозирование
    1:25:00 литература
    Наука не нужна?
    Коридор значимости?

  • @denispashnev912
    @denispashnev912 5 лет назад +18

    Прекрасная лекция! Спасибо

  • @oldzas
    @oldzas 2 года назад +7

    Большое спасибо, просто и доступным языком

  • @everlastingsummer2044
    @everlastingsummer2044 2 года назад +10

    18:41 проверка значимости автокорреляции
    24:57 статистические критерии на стационарность
    27:27 стабилизация дисперсии

  • @user-of3ni8iy5d
    @user-of3ni8iy5d 3 года назад +3

    Благодарю за лекцию!

  • @dmitrydudrin2606
    @dmitrydudrin2606 Год назад +6

    Прекрасно и крайне полезно!

  • @retiber1
    @retiber1 3 года назад +8

    Эх, видел бы я эту лекцию 3 года назад, когда только начинал изучать ариму...

  • @DianaDiana-et8ox
    @DianaDiana-et8ox 5 лет назад +4

    Большое спасибо!

  • @user-xl1zq2ic5f
    @user-xl1zq2ic5f 7 лет назад +9

    Очень годный материал

  • @mith888
    @mith888 5 лет назад +15

    Отличная лекция!!!!

  • @dmitryantonov3577
    @dmitryantonov3577 4 года назад +5

    Спасибо! 👍

  • @RudolfEremyan
    @RudolfEremyan 5 лет назад +3

    Otlichnaya lekciya!

  • @MaxZaikin
    @MaxZaikin Месяц назад

    Евгений,
    замечательная лекция. Пару замечаний, не хватает примеров, которые аудитория могла бы повторить в лабораторных условиях, чтобы понять как работают те или иные алгоритмы и в чем их преимущества или недостатки перед другими. Хотелось бы иметь ссылку на саму презентацию, чтобы почитать отдельно, а так же хотелось бы иметь ссылку на Jupiter notebook, где можно было бы поработать с примерами из лекции.
    А в целом 5/5 желаю успехов в научной деятельности.
    С Уважением,
    Макс.

  • @user-dr5ou3lc6y
    @user-dr5ou3lc6y 3 года назад +1

    Спасибо

  • @yarmiksyarmiks9543
    @yarmiksyarmiks9543 7 лет назад +8

    Хороший доклад. Понятно стало)

    • @karabaskruger
      @karabaskruger 5 лет назад

      Понятно то понятно. Заработал чё нить на прогнозах?

    • @lizardking640
      @lizardking640 4 года назад

      @@karabaskruger да

    • @wadyn95
      @wadyn95 3 года назад +3

      @@karabaskruger А-А-АЗИНА ТРИ ТАПАРА ПАДНЯЛ БАБЛА

  • @Pedrochenko
    @Pedrochenko Месяц назад

    Мое почтение, выдать на голубом глазу «сокровищница США» и даже не запнуться 😂😂😂

  • @sergueirus9239
    @sergueirus9239 7 лет назад +22

    наконец-то все становится на свои места в моей голове. Самое главное, нет этих западных криков и бешенного типа, а также дешевых шуток.

  • @wayer5204
    @wayer5204 3 месяца назад

    Нифига себе чел могёт, ппц мощный

  • @gornostai4ik_lol
    @gornostai4ik_lol 5 лет назад +7

    1:09:20 auto arima

  • @ivanaaa6049
    @ivanaaa6049 2 года назад +5

    Какой аккуратно сложыенный мальчик. Хочется всклокочить его волосы и потом долго смотреть в его умные глаза.

  • @artemsukhov
    @artemsukhov 11 месяцев назад +1

    Добрый день! Подскажите, где найти Вашу презентацию. На гите не нашел, а говорили, что выложите. Спасибо!

  • @andregogiko2163
    @andregogiko2163 3 года назад +8

    Лекция хорошая, но некоторые слайды сильно отстают и выходит что докладчик что-то объясняет, а слайд предыдущий и приходится включать фантазию и придумывать будущее изображение

    • @AleckBoronnikov
      @AleckBoronnikov 3 года назад +13

      На самом деле это тонкая психологическая подготовка к анализу и предсказанию временного ряда )))

  • @denisusachev4816
    @denisusachev4816 3 месяца назад

    7:55 значение автокорреляции во временных рядах

  • @saitaro
    @saitaro 7 лет назад +23

    Спасибо. Но имя лектора неплохо бы указать. Всё-таки старался человек=)

  • @user-sv1em4jc7i
    @user-sv1em4jc7i 4 года назад +6

    1:00:54 Непонятно сто из чего вычитать. Откуда берутся эти остатки? Мы из реальных значений вычитаем значения на которые получились при обучении?

    • @nobody826
      @nobody826 4 года назад +2

      Думаю, да, по-другому, никак.

  • @igordanilov1004
    @igordanilov1004 Год назад +2

    Я одного не понял: Мы сначала ухудшаем скоррелированность ряда путем дифференцирования (это видно на графиках автокорр ф-ии) , а потом к такому низкоскоррелированному ряду лепим авторегрессию. Умно? А может не нужно дифференцировать чтобы получилась хорошая корреляция на ряд в прошлом?

    • @Valeria-sx7uv
      @Valeria-sx7uv Год назад +3

      Дифференцировать или нет - определяется моделью Дикки-Фуллера (поиск стационарности). Если у вас ряд стационарен без дифференцирования - все классно и так, можно ARIMA крутить

  • @torcher5023
    @torcher5023 Год назад +2

    А Фурье чем не устроил?

  • @user-kw4hg4xk7r
    @user-kw4hg4xk7r Год назад +1

    А как зовут лектора? Может есть ссылки на его статьи или место работы?

    • @nik2513
      @nik2513 25 дней назад

      Он больше в России не работает. К сожалению, из за политики путинского режима умные люди уезжают из нашей страны.

  • @izogelia2277
    @izogelia2277 2 года назад +4

    так что в итоге? нафиг все эти модели - строим регрессию как раньше?

  • @chichackles
    @chichackles 7 месяцев назад

    Жаль, что вопросов не слышно :( Можно было бы их субтитрами дать.

  • @tlitt6521
    @tlitt6521 Год назад +2

    Я искал коинтеграцию
    Почему выпало это видео?

  • @user-ko9dn2ve9e
    @user-ko9dn2ve9e 6 месяцев назад

    Хотим: ARIMAX и VARIMA!

  • @coolbrain
    @coolbrain Год назад +2

    Слайды отстают на 1 .

  • @slavpetrovich32
    @slavpetrovich32 4 года назад +5

    Что-то Том Холланд поплыл к середине лекции: начал путать прогноз с подгонкой модели, перепутал разностный и лаговый операторы. Разностный оператор - штука, берущая конечную разность между соседними значениями ряда, используется при построении аримы. А это лаговый оператор (оператор сдвига), который просто берет соседнее значение

  • @Regressor14
    @Regressor14 Год назад +1

    надеюсь его не мобилизовали

  • @konstantinphd2366
    @konstantinphd2366 4 года назад +6

    Уважаемый Лектор, Вы на слайдах показываете результат оценки ряда, грубо говоря, решая задачу апроксимации. Так вот в этом ничего сложного нет, т.к. реализация случайного процесса это уже неслучайный ряд и поэтому его не сложно аппроксимировать. Вы бы показали пример решения задачи экстраполяции, вот тогда был бы интерес, а так все это тривиальные вещи, к сожалению... С уважением, Константин.

  • @soulmma2542
    @soulmma2542 2 года назад +1

    Я тупой

  • @ilyasikm
    @ilyasikm 4 года назад +7

    Я конечно извиняюсь, но как математик скажу, доцент либо сознательно лукавит, либо для галочки проводит лекцию. Все его модели которые он показывает ни одна на реальных данных не будет работать, это тупой подгон значений под модель. Если растянуть временной ряд, то увидим что прогнозированная кривая строится по прошлым y-1 , т.е. Это уже не прогноз, а рисовалка по прошлым данным, а в реале она будет перерисовываться.

    • @gmragga
      @gmragga 4 года назад +4

      сначала поблагодарю лектора, тк как чисто учебный материал, лекция прекрасна. лайк, подписка.
      что касается критики, хорошая критика. интересно что ответит автор. я бы еще добавил: если я своим умом проанализировал все фичи, зачем мне вообще предсказательная функция? я нвпример могу на бирже торговать в ручном режиме. мой мозг уже обучен этим фичам, т.е. особенностям предметной области.
      интересно же иметь некий достаточно черный ящик, типа ИИ который Сам обучится всем фичам и всем особенностям данных предметной области.

    • @ilyasikm
      @ilyasikm 4 года назад +4

      gmragga я кстати эту критику тоже пишу на основе 10 летнего опыта анализа данных рынка как акций так валюты. Там такие алгоритмы и подходы не работают.

    • @user-gu1yp7if7z
      @user-gu1yp7if7z 4 года назад +2

      Поддерживаю! Ссылаясь на тренд и периодичность, можно предсказать все что подчиняется упомянутым " тренд и периодичность". О чем бред????!!! Зачем предсказывать то что является предсказуемым. Чисто для галочки балоболит. И, кстати, прочитал положительные отзывы - тошнота заказная.

    • @kolomasov
      @kolomasov 4 года назад +23

      @@user-gu1yp7if7z Не совсем ясно, а чего вы ожидали от обучающей лекции по прогнозированию временных рядов? Основная теория по авторегрессионным моделям (ARIMA и иже с ними), с заходом в конце лекции на современные подходы, когда вместо авторегрессионных моделей используются стандартные ML методы регрессии (линейные: Rige, Lasso или ансаблевые: xgboost, lgbm и т.д.) на большом объеме входных фитчей, использующих в том числе и авто-регрессию в качестве входных фитч. Подсказка что можно использовать стекинг моделей. Для общеобразовательной лекции - самое оно. Дал неплохие источники информации. Описанные им методы уже сейчас хорошо работают для прогнозирования спроса в ритейле, прогнозирования складских запасов, даже иногда для хэджирования рисков при закупке сырья. При чем тут "прогноз на глаз" - 10 000 позиций для сети хотя бы из 100 магазинов на глаз будете в эксельке заполнять что ли? Скорее всего ваши претензии что биткоин не очень такими методами прогнозируется - но это проблемы биткоина (и ваши в конце концов) - но не методов. Для других задач они вполне хорошо работают.

    • @roman_orlov
      @roman_orlov 3 года назад +3

      Ну, дык у любого инструмента есть границы применимости. Если использовать метод там, где не было дано гарантий, что он будет работать, зачем же потом жаловаться, что метод нерабочий, если он применяется к другим задачам.

  • @_AbUser
    @_AbUser Год назад +2

    Как на приеме у психиатора... Просто сплошным текстом метется все что в голову придет.. Любой ролик по ЦОС за 5 -10 минут введет во все то же самое в том же объеме без лишней терминологии и часовых лирических отступлений... Накидать слов по больше и по умнее - не есть оптимальная форма подачи..

  • @user-gu1yp7if7z
    @user-gu1yp7if7z 4 года назад +3

    Бред! Отзывы от группы таких же бездарей.

  • @maxg2371
    @maxg2371 3 месяца назад

    Когда что-либо делаешь не сам, а сдираешь с англоязычного источника, то не надо позориться тупыми переводами, такими как "сокровищница" (это всегда было казначейство). Позор!

    • @Pedrochenko
      @Pedrochenko Месяц назад

      Поделитесь ссылочкой?

    • @maxg2371
      @maxg2371 Месяц назад

      @@Pedrochenko это вы того болвана, который криво переводит, спрашивайте

  • @AliBaba__
    @AliBaba__ Год назад +1

    Что-за безсвязный диструктив !? С каких пор соплякам дано право учить !!?