Лекция 10 Прогнозирование временных рядов

Поделиться
HTML-код
  • Опубликовано: 20 сен 2024
  • Группа ВК: data_mi...
    Репозиторий курса на гитхабе: github.com/vka...

Комментарии • 64

  • @АрсенийПроценко-ь2л
    @АрсенийПроценко-ь2л 4 года назад +91

    Как за 4 года похорошел python при Собянине и statsmodels

  • @Felix-og7pd
    @Felix-og7pd Год назад +21

    3:00 Предсказательный интервал
    7:00 регрессия. автокореляция пирсона
    8:00 компоненты ВР: тренд. Сезонность. Цикл. Ошибка
    12:00
    18:00 значимость автокореляции. Критерий стьюдента. Льюнга-бокса.
    20:00 стационарность
    25:00 статистические критерии. KPSS. Дики-фуллера
    27:00 стабилизация дисперсии. Преопрозование Бокса-кокса
    29:00 дифференцированние
    33:00 авторегрессия. Скользящие среднее. ARMA. ARIMA. SARMA. SARIMA
    47:00 подбор параметров функции. Dd, Qq, Pp, AICe, BIC, Bias tradeoff
    1:00:00 как построить прогноз? Насыщенность. Стационарность. Неавтокореруемость.
    1:08:00 построение Предсказательного интервала. Python vs R. Сложная сезонность (Праздники, domen knowledge) SARIMAX. Регресионные признаки
    1:15:00 проблемы прогнозирования. ARIMA не нужна? features
    1:20:00 Массовое прогнозирование
    1:25:00 литература
    Наука не нужна?
    Коридор значимости?

  • @stukituk.clever3656
    @stukituk.clever3656 Год назад +16

    Почему-то на прогнозирование временных рядов тяжело найти много информации в одном месте. В частности базовую информацию. Но это видео исключение из этого правила. Спасибо, очень полезная лекция для понимания основ!

  • @sergeyvolnov8332
    @sergeyvolnov8332 Год назад +14

    Супер видос - столько смысла в одном видео я давно не видел🔥

  • @everlastingsummer2044
    @everlastingsummer2044 2 года назад +10

    18:41 проверка значимости автокорреляции
    24:57 статистические критерии на стационарность
    27:27 стабилизация дисперсии

  • @retiber1
    @retiber1 3 года назад +9

    Эх, видел бы я эту лекцию 3 года назад, когда только начинал изучать ариму...

  • @denispashnev912
    @denispashnev912 5 лет назад +19

    Прекрасная лекция! Спасибо

  • @oldzas
    @oldzas 3 года назад +7

    Большое спасибо, просто и доступным языком

  • @dmitrydudrin2606
    @dmitrydudrin2606 2 года назад +6

    Прекрасно и крайне полезно!

  • @MaxZaikin
    @MaxZaikin 5 месяцев назад

    Евгений,
    замечательная лекция. Пару замечаний, не хватает примеров, которые аудитория могла бы повторить в лабораторных условиях, чтобы понять как работают те или иные алгоритмы и в чем их преимущества или недостатки перед другими. Хотелось бы иметь ссылку на саму презентацию, чтобы почитать отдельно, а так же хотелось бы иметь ссылку на Jupiter notebook, где можно было бы поработать с примерами из лекции.
    А в целом 5/5 желаю успехов в научной деятельности.
    С Уважением,
    Макс.

  • @ivanaaa6049
    @ivanaaa6049 3 года назад +5

    Какой аккуратно сложыенный мальчик. Хочется всклокочить его волосы и потом долго смотреть в его умные глаза.

  • @andregogiko2163
    @andregogiko2163 3 года назад +8

    Лекция хорошая, но некоторые слайды сильно отстают и выходит что докладчик что-то объясняет, а слайд предыдущий и приходится включать фантазию и придумывать будущее изображение

    • @AleckBoronnikov
      @AleckBoronnikov 3 года назад +14

      На самом деле это тонкая психологическая подготовка к анализу и предсказанию временного ряда )))

  • @sergueirus9239
    @sergueirus9239 7 лет назад +23

    наконец-то все становится на свои места в моей голове. Самое главное, нет этих западных криков и бешенного типа, а также дешевых шуток.

  • @mith888
    @mith888 6 лет назад +15

    Отличная лекция!!!!

  • @АйгульМусульманкулова

    Благодарю за лекцию!

  • @АлександрДергилёв-п8х

    Очень годный материал

  • @yarmiksyarmiks9543
    @yarmiksyarmiks9543 7 лет назад +8

    Хороший доклад. Понятно стало)

    • @karabaskruger
      @karabaskruger 5 лет назад

      Понятно то понятно. Заработал чё нить на прогнозах?

    • @lizardking640
      @lizardking640 5 лет назад

      @@karabaskruger да

    • @wadyn95
      @wadyn95 4 года назад +3

      @@karabaskruger А-А-АЗИНА ТРИ ТАПАРА ПАДНЯЛ БАБЛА

  • @artemsukhov
    @artemsukhov Год назад +1

    Добрый день! Подскажите, где найти Вашу презентацию. На гите не нашел, а говорили, что выложите. Спасибо!

  • @dmitryantonov3577
    @dmitryantonov3577 4 года назад +5

    Спасибо! 👍

  • @DianaDiana-et8ox
    @DianaDiana-et8ox 5 лет назад +4

    Большое спасибо!

  • @saitaro
    @saitaro 7 лет назад +23

    Спасибо. Но имя лектора неплохо бы указать. Всё-таки старался человек=)

  • @denisusachev4816
    @denisusachev4816 7 месяцев назад

    7:55 значение автокорреляции во временных рядах

  • @Pedrochenko
    @Pedrochenko 5 месяцев назад

    Мое почтение, выдать на голубом глазу «сокровищница США» и даже не запнуться 😂😂😂

  • @wayer5204
    @wayer5204 8 месяцев назад

    Нифига себе чел могёт, ппц мощный

  • @gornostai4ik_lol
    @gornostai4ik_lol 5 лет назад +7

    1:09:20 auto arima

  • @torcher5023
    @torcher5023 Год назад +2

    А Фурье чем не устроил?

  • @ДенисСафронов-п3е
    @ДенисСафронов-п3е 4 года назад +6

    1:00:54 Непонятно сто из чего вычитать. Откуда берутся эти остатки? Мы из реальных значений вычитаем значения на которые получились при обучении?

    • @nobody826
      @nobody826 4 года назад +2

      Думаю, да, по-другому, никак.

  • @igordanilov1004
    @igordanilov1004 2 года назад +2

    Я одного не понял: Мы сначала ухудшаем скоррелированность ряда путем дифференцирования (это видно на графиках автокорр ф-ии) , а потом к такому низкоскоррелированному ряду лепим авторегрессию. Умно? А может не нужно дифференцировать чтобы получилась хорошая корреляция на ряд в прошлом?

    • @Valeria-sx7uv
      @Valeria-sx7uv Год назад +3

      Дифференцировать или нет - определяется моделью Дикки-Фуллера (поиск стационарности). Если у вас ряд стационарен без дифференцирования - все классно и так, можно ARIMA крутить

  • @tlitt6521
    @tlitt6521 Год назад +2

    Я искал коинтеграцию
    Почему выпало это видео?

  • @RudolfEremyan
    @RudolfEremyan 5 лет назад +3

    Otlichnaya lekciya!

  • @chichackles
    @chichackles 11 месяцев назад

    Жаль, что вопросов не слышно :( Можно было бы их субтитрами дать.

  • @izogelia2277
    @izogelia2277 2 года назад +4

    так что в итоге? нафиг все эти модели - строим регрессию как раньше?

  • @СергейГужов-ы1в
    @СергейГужов-ы1в Год назад +1

    А как зовут лектора? Может есть ссылки на его статьи или место работы?

    • @nik2513
      @nik2513 4 месяца назад

      Он больше в России не работает. К сожалению, из за политики путинского режима умные люди уезжают из нашей страны.

  • @MIRG-f7n
    @MIRG-f7n 3 года назад +1

    Спасибо

  • @coolbrain
    @coolbrain 2 года назад +2

    Слайды отстают на 1 .

  • @ivanafanaskin6216
    @ivanafanaskin6216 3 месяца назад

    Речь лектора и картинки презентации расходятся по времени

  • @slavpetrovich32
    @slavpetrovich32 4 года назад +5

    Что-то Том Холланд поплыл к середине лекции: начал путать прогноз с подгонкой модели, перепутал разностный и лаговый операторы. Разностный оператор - штука, берущая конечную разность между соседними значениями ряда, используется при построении аримы. А это лаговый оператор (оператор сдвига), который просто берет соседнее значение

  • @user-ko9dn2ve9e
    @user-ko9dn2ve9e 10 месяцев назад

    Хотим: ARIMAX и VARIMA!

  • @konstantinphd2366
    @konstantinphd2366 4 года назад +6

    Уважаемый Лектор, Вы на слайдах показываете результат оценки ряда, грубо говоря, решая задачу апроксимации. Так вот в этом ничего сложного нет, т.к. реализация случайного процесса это уже неслучайный ряд и поэтому его не сложно аппроксимировать. Вы бы показали пример решения задачи экстраполяции, вот тогда был бы интерес, а так все это тривиальные вещи, к сожалению... С уважением, Константин.

  • @soulmma2542
    @soulmma2542 2 года назад +2

    Я тупой

  • @Regressor14
    @Regressor14 Год назад +1

    надеюсь его не мобилизовали

  • @ilyasikm
    @ilyasikm 4 года назад +7

    Я конечно извиняюсь, но как математик скажу, доцент либо сознательно лукавит, либо для галочки проводит лекцию. Все его модели которые он показывает ни одна на реальных данных не будет работать, это тупой подгон значений под модель. Если растянуть временной ряд, то увидим что прогнозированная кривая строится по прошлым y-1 , т.е. Это уже не прогноз, а рисовалка по прошлым данным, а в реале она будет перерисовываться.

    • @gmragga
      @gmragga 4 года назад +4

      сначала поблагодарю лектора, тк как чисто учебный материал, лекция прекрасна. лайк, подписка.
      что касается критики, хорошая критика. интересно что ответит автор. я бы еще добавил: если я своим умом проанализировал все фичи, зачем мне вообще предсказательная функция? я нвпример могу на бирже торговать в ручном режиме. мой мозг уже обучен этим фичам, т.е. особенностям предметной области.
      интересно же иметь некий достаточно черный ящик, типа ИИ который Сам обучится всем фичам и всем особенностям данных предметной области.

    • @ilyasikm
      @ilyasikm 4 года назад +4

      gmragga я кстати эту критику тоже пишу на основе 10 летнего опыта анализа данных рынка как акций так валюты. Там такие алгоритмы и подходы не работают.

    • @АндрейБойко-г7у
      @АндрейБойко-г7у 4 года назад +2

      Поддерживаю! Ссылаясь на тренд и периодичность, можно предсказать все что подчиняется упомянутым " тренд и периодичность". О чем бред????!!! Зачем предсказывать то что является предсказуемым. Чисто для галочки балоболит. И, кстати, прочитал положительные отзывы - тошнота заказная.

    • @kolomasov
      @kolomasov 4 года назад +23

      @@АндрейБойко-г7у Не совсем ясно, а чего вы ожидали от обучающей лекции по прогнозированию временных рядов? Основная теория по авторегрессионным моделям (ARIMA и иже с ними), с заходом в конце лекции на современные подходы, когда вместо авторегрессионных моделей используются стандартные ML методы регрессии (линейные: Rige, Lasso или ансаблевые: xgboost, lgbm и т.д.) на большом объеме входных фитчей, использующих в том числе и авто-регрессию в качестве входных фитч. Подсказка что можно использовать стекинг моделей. Для общеобразовательной лекции - самое оно. Дал неплохие источники информации. Описанные им методы уже сейчас хорошо работают для прогнозирования спроса в ритейле, прогнозирования складских запасов, даже иногда для хэджирования рисков при закупке сырья. При чем тут "прогноз на глаз" - 10 000 позиций для сети хотя бы из 100 магазинов на глаз будете в эксельке заполнять что ли? Скорее всего ваши претензии что биткоин не очень такими методами прогнозируется - но это проблемы биткоина (и ваши в конце концов) - но не методов. Для других задач они вполне хорошо работают.

    • @roman_orlov
      @roman_orlov 3 года назад +3

      Ну, дык у любого инструмента есть границы применимости. Если использовать метод там, где не было дано гарантий, что он будет работать, зачем же потом жаловаться, что метод нерабочий, если он применяется к другим задачам.

  • @АндрейБойко-г7у
    @АндрейБойко-г7у 4 года назад +3

    Бред! Отзывы от группы таких же бездарей.

  • @_AbUser
    @_AbUser 2 года назад +2

    Как на приеме у психиатора... Просто сплошным текстом метется все что в голову придет.. Любой ролик по ЦОС за 5 -10 минут введет во все то же самое в том же объеме без лишней терминологии и часовых лирических отступлений... Накидать слов по больше и по умнее - не есть оптимальная форма подачи..

  • @maxg2371
    @maxg2371 7 месяцев назад

    Когда что-либо делаешь не сам, а сдираешь с англоязычного источника, то не надо позориться тупыми переводами, такими как "сокровищница" (это всегда было казначейство). Позор!

    • @Pedrochenko
      @Pedrochenko 5 месяцев назад

      Поделитесь ссылочкой?

    • @maxg2371
      @maxg2371 5 месяцев назад

      @@Pedrochenko это вы того болвана, который криво переводит, спрашивайте

  • @AliBaba__
    @AliBaba__ Год назад +1

    Что-за безсвязный диструктив !? С каких пор соплякам дано право учить !!?