Лекция 10 Прогнозирование временных рядов

Поделиться
HTML-код
  • Опубликовано: 29 ноя 2024

Комментарии • 65

  • @stukituk.clever3656
    @stukituk.clever3656 Год назад +18

    Почему-то на прогнозирование временных рядов тяжело найти много информации в одном месте. В частности базовую информацию. Но это видео исключение из этого правила. Спасибо, очень полезная лекция для понимания основ!

  • @АрсенийПроценко-ь2л
    @АрсенийПроценко-ь2л 4 года назад +92

    Как за 4 года похорошел python при Собянине и statsmodels

  • @sergeyvolnov8332
    @sergeyvolnov8332 2 года назад +14

    Супер видос - столько смысла в одном видео я давно не видел🔥

  • @Felix-og7pd
    @Felix-og7pd Год назад +21

    3:00 Предсказательный интервал
    7:00 регрессия. автокореляция пирсона
    8:00 компоненты ВР: тренд. Сезонность. Цикл. Ошибка
    12:00
    18:00 значимость автокореляции. Критерий стьюдента. Льюнга-бокса.
    20:00 стационарность
    25:00 статистические критерии. KPSS. Дики-фуллера
    27:00 стабилизация дисперсии. Преопрозование Бокса-кокса
    29:00 дифференцированние
    33:00 авторегрессия. Скользящие среднее. ARMA. ARIMA. SARMA. SARIMA
    47:00 подбор параметров функции. Dd, Qq, Pp, AICe, BIC, Bias tradeoff
    1:00:00 как построить прогноз? Насыщенность. Стационарность. Неавтокореруемость.
    1:08:00 построение Предсказательного интервала. Python vs R. Сложная сезонность (Праздники, domen knowledge) SARIMAX. Регресионные признаки
    1:15:00 проблемы прогнозирования. ARIMA не нужна? features
    1:20:00 Массовое прогнозирование
    1:25:00 литература
    Наука не нужна?
    Коридор значимости?

  • @everlastingsummer2044
    @everlastingsummer2044 2 года назад +10

    18:41 проверка значимости автокорреляции
    24:57 статистические критерии на стационарность
    27:27 стабилизация дисперсии

  • @denispashnev912
    @denispashnev912 5 лет назад +19

    Прекрасная лекция! Спасибо

  • @oldzas
    @oldzas 3 года назад +7

    Большое спасибо, просто и доступным языком

  • @MaxZaikin
    @MaxZaikin 8 месяцев назад +1

    Евгений,
    замечательная лекция. Пару замечаний, не хватает примеров, которые аудитория могла бы повторить в лабораторных условиях, чтобы понять как работают те или иные алгоритмы и в чем их преимущества или недостатки перед другими. Хотелось бы иметь ссылку на саму презентацию, чтобы почитать отдельно, а так же хотелось бы иметь ссылку на Jupiter notebook, где можно было бы поработать с примерами из лекции.
    А в целом 5/5 желаю успехов в научной деятельности.
    С Уважением,
    Макс.

  • @dmitrydudrin2606
    @dmitrydudrin2606 2 года назад +6

    Прекрасно и крайне полезно!

  • @retiber1
    @retiber1 4 года назад +9

    Эх, видел бы я эту лекцию 3 года назад, когда только начинал изучать ариму...

  • @mith888
    @mith888 6 лет назад +15

    Отличная лекция!!!!

  • @sergueirus9239
    @sergueirus9239 7 лет назад +22

    наконец-то все становится на свои места в моей голове. Самое главное, нет этих западных криков и бешенного типа, а также дешевых шуток.

  • @АйгульМусульманкулова

    Благодарю за лекцию!

  • @yarmiksyarmiks9543
    @yarmiksyarmiks9543 7 лет назад +8

    Хороший доклад. Понятно стало)

    • @karabaskruger
      @karabaskruger 6 лет назад

      Понятно то понятно. Заработал чё нить на прогнозах?

    • @lizardking640
      @lizardking640 5 лет назад

      @@karabaskruger да

    • @wadyn95
      @wadyn95 4 года назад +3

      @@karabaskruger А-А-АЗИНА ТРИ ТАПАРА ПАДНЯЛ БАБЛА

  • @АлександрДергилёв-п8х

    Очень годный материал

  • @wayer5204
    @wayer5204 10 месяцев назад

    Нифига себе чел могёт, ппц мощный

  • @dmitryantonov3577
    @dmitryantonov3577 4 года назад +5

    Спасибо! 👍

  • @ivanaaa6049
    @ivanaaa6049 3 года назад +5

    Какой аккуратно сложыенный мальчик. Хочется всклокочить его волосы и потом долго смотреть в его умные глаза.

  • @DianaDiana-et8ox
    @DianaDiana-et8ox 5 лет назад +4

    Большое спасибо!

  • @RudolfEremyan
    @RudolfEremyan 5 лет назад +3

    Otlichnaya lekciya!

  • @gornostai4ik_lol
    @gornostai4ik_lol 5 лет назад +7

    1:09:20 auto arima

  • @Pedrochenko
    @Pedrochenko 8 месяцев назад

    Мое почтение, выдать на голубом глазу «сокровищница США» и даже не запнуться 😂😂😂

  • @andregogiko2163
    @andregogiko2163 3 года назад +8

    Лекция хорошая, но некоторые слайды сильно отстают и выходит что докладчик что-то объясняет, а слайд предыдущий и приходится включать фантазию и придумывать будущее изображение

    • @AleckBoronnikov
      @AleckBoronnikov 3 года назад +14

      На самом деле это тонкая психологическая подготовка к анализу и предсказанию временного ряда )))

  • @denisusachev4816
    @denisusachev4816 9 месяцев назад

    7:55 значение автокорреляции во временных рядах

  • @saitaro
    @saitaro 7 лет назад +23

    Спасибо. Но имя лектора неплохо бы указать. Всё-таки старался человек=)

  • @artemsukhov
    @artemsukhov Год назад +1

    Добрый день! Подскажите, где найти Вашу презентацию. На гите не нашел, а говорили, что выложите. Спасибо!

  • @ДенисСафронов-п3е
    @ДенисСафронов-п3е 5 лет назад +6

    1:00:54 Непонятно сто из чего вычитать. Откуда берутся эти остатки? Мы из реальных значений вычитаем значения на которые получились при обучении?

    • @nobody826
      @nobody826 4 года назад +2

      Думаю, да, по-другому, никак.

  • @MIRG-f7n
    @MIRG-f7n 3 года назад +1

    Спасибо

  • @igordanilov1004
    @igordanilov1004 2 года назад +2

    Я одного не понял: Мы сначала ухудшаем скоррелированность ряда путем дифференцирования (это видно на графиках автокорр ф-ии) , а потом к такому низкоскоррелированному ряду лепим авторегрессию. Умно? А может не нужно дифференцировать чтобы получилась хорошая корреляция на ряд в прошлом?

    • @Valeria-sx7uv
      @Valeria-sx7uv 2 года назад +3

      Дифференцировать или нет - определяется моделью Дикки-Фуллера (поиск стационарности). Если у вас ряд стационарен без дифференцирования - все классно и так, можно ARIMA крутить

  • @torcher5023
    @torcher5023 Год назад +2

    А Фурье чем не устроил?

  • @chichackles
    @chichackles Год назад

    Жаль, что вопросов не слышно :( Можно было бы их субтитрами дать.

  • @izogelia2277
    @izogelia2277 2 года назад +4

    так что в итоге? нафиг все эти модели - строим регрессию как раньше?

  • @СергейГужов-ы1в
    @СергейГужов-ы1в Год назад +1

    А как зовут лектора? Может есть ссылки на его статьи или место работы?

    • @nik2513
      @nik2513 7 месяцев назад

      Он больше в России не работает. К сожалению, из за политики путинского режима умные люди уезжают из нашей страны.

  • @tlitt6521
    @tlitt6521 2 года назад +2

    Я искал коинтеграцию
    Почему выпало это видео?

  • @ЛюдмилаКшнясева-я5ш

    Хотим: ARIMAX и VARIMA!

  • @slavpetrovich32
    @slavpetrovich32 4 года назад +5

    Что-то Том Холланд поплыл к середине лекции: начал путать прогноз с подгонкой модели, перепутал разностный и лаговый операторы. Разностный оператор - штука, берущая конечную разность между соседними значениями ряда, используется при построении аримы. А это лаговый оператор (оператор сдвига), который просто берет соседнее значение

  • @coolbrain
    @coolbrain 2 года назад +2

    Слайды отстают на 1 .

  • @ivanafanaskin6216
    @ivanafanaskin6216 5 месяцев назад

    Речь лектора и картинки презентации расходятся по времени

  • @konstantinphd2366
    @konstantinphd2366 4 года назад +6

    Уважаемый Лектор, Вы на слайдах показываете результат оценки ряда, грубо говоря, решая задачу апроксимации. Так вот в этом ничего сложного нет, т.к. реализация случайного процесса это уже неслучайный ряд и поэтому его не сложно аппроксимировать. Вы бы показали пример решения задачи экстраполяции, вот тогда был бы интерес, а так все это тривиальные вещи, к сожалению... С уважением, Константин.

  • @Regressor14
    @Regressor14 2 года назад +1

    надеюсь его не мобилизовали

  • @soulmma2542
    @soulmma2542 2 года назад +1

    Я тупой

  • @ilyasikm
    @ilyasikm 5 лет назад +7

    Я конечно извиняюсь, но как математик скажу, доцент либо сознательно лукавит, либо для галочки проводит лекцию. Все его модели которые он показывает ни одна на реальных данных не будет работать, это тупой подгон значений под модель. Если растянуть временной ряд, то увидим что прогнозированная кривая строится по прошлым y-1 , т.е. Это уже не прогноз, а рисовалка по прошлым данным, а в реале она будет перерисовываться.

    • @gmragga
      @gmragga 5 лет назад +4

      сначала поблагодарю лектора, тк как чисто учебный материал, лекция прекрасна. лайк, подписка.
      что касается критики, хорошая критика. интересно что ответит автор. я бы еще добавил: если я своим умом проанализировал все фичи, зачем мне вообще предсказательная функция? я нвпример могу на бирже торговать в ручном режиме. мой мозг уже обучен этим фичам, т.е. особенностям предметной области.
      интересно же иметь некий достаточно черный ящик, типа ИИ который Сам обучится всем фичам и всем особенностям данных предметной области.

    • @ilyasikm
      @ilyasikm 5 лет назад +4

      gmragga я кстати эту критику тоже пишу на основе 10 летнего опыта анализа данных рынка как акций так валюты. Там такие алгоритмы и подходы не работают.

    • @АндрейБойко-г7у
      @АндрейБойко-г7у 5 лет назад +2

      Поддерживаю! Ссылаясь на тренд и периодичность, можно предсказать все что подчиняется упомянутым " тренд и периодичность". О чем бред????!!! Зачем предсказывать то что является предсказуемым. Чисто для галочки балоболит. И, кстати, прочитал положительные отзывы - тошнота заказная.

    • @kolomasov
      @kolomasov 4 года назад +23

      @@АндрейБойко-г7у Не совсем ясно, а чего вы ожидали от обучающей лекции по прогнозированию временных рядов? Основная теория по авторегрессионным моделям (ARIMA и иже с ними), с заходом в конце лекции на современные подходы, когда вместо авторегрессионных моделей используются стандартные ML методы регрессии (линейные: Rige, Lasso или ансаблевые: xgboost, lgbm и т.д.) на большом объеме входных фитчей, использующих в том числе и авто-регрессию в качестве входных фитч. Подсказка что можно использовать стекинг моделей. Для общеобразовательной лекции - самое оно. Дал неплохие источники информации. Описанные им методы уже сейчас хорошо работают для прогнозирования спроса в ритейле, прогнозирования складских запасов, даже иногда для хэджирования рисков при закупке сырья. При чем тут "прогноз на глаз" - 10 000 позиций для сети хотя бы из 100 магазинов на глаз будете в эксельке заполнять что ли? Скорее всего ваши претензии что биткоин не очень такими методами прогнозируется - но это проблемы биткоина (и ваши в конце концов) - но не методов. Для других задач они вполне хорошо работают.

    • @roman_orlov
      @roman_orlov 3 года назад +3

      Ну, дык у любого инструмента есть границы применимости. Если использовать метод там, где не было дано гарантий, что он будет работать, зачем же потом жаловаться, что метод нерабочий, если он применяется к другим задачам.

  • @maxg2371
    @maxg2371 9 месяцев назад

    Когда что-либо делаешь не сам, а сдираешь с англоязычного источника, то не надо позориться тупыми переводами, такими как "сокровищница" (это всегда было казначейство). Позор!

    • @Pedrochenko
      @Pedrochenko 8 месяцев назад

      Поделитесь ссылочкой?

    • @maxg2371
      @maxg2371 7 месяцев назад

      @@Pedrochenko это вы того болвана, который криво переводит, спрашивайте

  • @_AbUser
    @_AbUser 2 года назад +2

    Как на приеме у психиатора... Просто сплошным текстом метется все что в голову придет.. Любой ролик по ЦОС за 5 -10 минут введет во все то же самое в том же объеме без лишней терминологии и часовых лирических отступлений... Накидать слов по больше и по умнее - не есть оптимальная форма подачи..

  • @АндрейБойко-г7у
    @АндрейБойко-г7у 5 лет назад +3

    Бред! Отзывы от группы таких же бездарей.

  • @AliBaba__
    @AliBaba__ Год назад +1

    Что-за безсвязный диструктив !? С каких пор соплякам дано право учить !!?