6 ключевых методов предсказания временных рядов в одном коде: MA, LR, K_near , ARIMA, Prophet, LSTM

Поделиться
HTML-код
  • Опубликовано: 5 дек 2022
  • 6 ключевых методов предсказания временных рядов в одном коде: MA, LR, K_near , ARIMA, Prophet, LSTM. Испытания проводятся на дневных котировках акций MSFT

Комментарии • 31

  • @Vik_lioness
    @Vik_lioness Месяц назад +3

    Подача может и не совсем обычная для многих комментаторов, но основная инфа для понимания чего-то есть. В русскоязычных ресурсах не так просто найти подобное и простое

    • @Pythoncode-daily
      @Pythoncode-daily  Месяц назад

      Большое спасибо, Виктория! Если мне и хотелось внести какой-то вклад в информационное пространство , то скорее именно такой слабый, ограниченный и несовершенный. Чтобы каждый мог посмотреть и прикинуть - "Ну если у этого чела с его тараканами получается в этом разбираться, то я то уж сделаю это гораздо эффективнее, быстрее и лучше!"

  • @konstantinphd2366
    @konstantinphd2366 Год назад +2

    Спасибо! Интересно.

  • @lammer_ok
    @lammer_ok 2 месяца назад +2

    Интересное видео! Спасибо.

  • @alexnatalchenko4471
    @alexnatalchenko4471 6 месяцев назад +2

    СПАСИБО!

  • @dicloniusN35
    @dicloniusN35 Год назад +2

    Все сразу настроить нормально и скрестить

  • @AlexeyLukyanchuk
    @AlexeyLukyanchuk 9 месяцев назад +3

    2.5 часа это очень быстро! У меня бывало на одну статью по 4 часа уходило.

  • @tima_net3289
    @tima_net3289 Год назад +4

    Для ARIMA нужно множество условий выполнения, потому и не раьотает, да и далеко не лучше LSTM, попробуйте еще xgboost

    • @Pythoncode-daily
      @Pythoncode-daily  Год назад +1

      Огромное спасибо! С удовольствием последую Вашему совету!

    • @dicloniusN35
      @dicloniusN35 Год назад +1

      а не знаете почему sarimax орет что памяти не хватает если сезонность большая? 52+ сезонность сжирает 32 гига памяти постепенно и вылетает)) арима только на короткосрок работает именно из за своей сути + все в видео надо ж настраивать и из коробки не работает норм

  • @kelleronik
    @kelleronik 5 месяцев назад +3

    Сначала и не понял, это видео про политику или про программирование)
    С одной стороны спасибо, что затронули известные популярные подходы. С другой стороны - вот эти отхождения от темы кринжовенько выглядят.

    • @Pythoncode-daily
      @Pythoncode-daily  5 месяцев назад

      Согласен! Но не получается жить в обществе и быть свободным от общества. Мне не хотелось бы лукавить - у меня есть определенная точка зрения на ситуацию и скрывать ее было бы лукавством. Если в вопросе противостояния России и НАТО я на стороне России - то пусть те, кто смотрит мои видео знают об этом. Тем более, что другие видео, направленные на анализ интенсивности и эффективности СВО куда более политизированы.

    • @kelleronik
      @kelleronik 5 месяцев назад +1

      ​@@Pythoncode-daily гражданская позиция это хорошо, но ведь это видео о программировании, а не о разборе СВО 🤷

    • @Pythoncode-daily
      @Pythoncode-daily  5 месяцев назад

      Я и не спорю

  • @aslgrlah
    @aslgrlah 11 месяцев назад +5

    RMSE - чем меньше, тем лучше, да. Это корень из среднеквадратичной ошибки.
    "Фантастический" результат lstm связан с неправильной методикой предсказаний: если я правильно понял код, его автор разбивает датасет на окна в 40 свечей - и для каждой свечи предсказывает 1 следующее значение. Затем окно смещается на 1 свечу, и так далее. Такое решение встречается чаще всего, но для практических целей оно бесполезно - нейросеть просто предсказывает +- близкое значение относительно последней цены, не более( А при множественном выводе такой точности нет и близко.

    • @sergeyzinchenko9718
      @sergeyzinchenko9718 6 месяцев назад

      привет.а как надо правильно подготавливать данные 'tensor' перед обучением. пришли гаиды или практику лучшуу. я щас етим занимаюсь

    • @andreiantipov6943
      @andreiantipov6943 Месяц назад

      @@sergeyzinchenko9718 Там в блоке предсказания нужно было предсказывать для первой 40-ки и для последующей 40-ки брать ранее предсказанное, а там берется известная цена valid. Как итог мухлежа - график чудесным образом рядом с реальной ценой

  • @user-sy4zm9km5o
    @user-sy4zm9km5o 9 месяцев назад +1

    Выложите пожалуйста ссылку на ноутбук с кодом.

    • @Pythoncode-daily
      @Pythoncode-daily  9 месяцев назад

      К сожалению, я писал этот код на нотбуке с которого утратил доступ к эккаунту. Могу только поделиться ссылкой на исходный код с которого я и писал свой. www.kaggle.com/code/paramarthasengupta/microsoft-stocks-price-prediction

  • @legendarzayexe9404
    @legendarzayexe9404 23 дня назад +1

    А где ссылка на статью, или блокнот colab?

    • @Pythoncode-daily
      @Pythoncode-daily  23 дня назад

      Код брал по этой ссылке www.kaggle.com/code/paramarthasengupta/microsoft-stocks-price-prediction

  • @leowhynot
    @leowhynot 2 месяца назад +1

    Автор решил взяться за предсказание временных рядов, не утруждая себя пониманием сути алгоритмов. Судя по всему, для него MA, Prophet и LSTM - это всё равно что волшебные палочки, только махни - и готово предсказание. Что ж, амбиции похвальны

    • @Pythoncode-daily
      @Pythoncode-daily  2 месяца назад

      Здорово! Вы очень точно описали мое поверхностное понимание этих сущностей. Причем, как тогда, так и сейчас! ) Извиняет меня лишь то, что даже сильноумные мире сего типа Карпатного ( надеюсь я не исказил его фамилию) и многих других, тоже полагают, что машинное обучение все еще выдает кофейную гущу, на которой приходится гадать. А смена ингредиентов и их долей лишь меняет характер самой гущи. Неопределенность трансформируется, но не устраняется. С этим придется жить! )

    • @leowhynot
      @leowhynot 2 месяца назад +1

      @@Pythoncode-daily Чем больше понимания данных и алгоритмов - тем меньше неопределенности

    • @Pythoncode-daily
      @Pythoncode-daily  2 месяца назад

      Судя по мнениям многих крупнейших разработчиков на их страницах в Х в части машинного обучения такой прогресс не столь уж достижим! Люди, которые потратили на эту область знаний десятки лет жизни и достигли высочайшего уровня оплаты и общественного признания, частенько сокрушаются о том, что малейшие изменения в параметрах моделей часто приводят к колоссальным изменениям данных на выходе. Что не позволяет надеяться на достижение определенности и построение привычных для человеческого мозга причино-следственных связей. Похоже, что напрасно мы называем искусственным интеллектом комбинаторные игры на векторном пространстве.

    • @leowhynot
      @leowhynot 2 месяца назад +1

      @@Pythoncode-dailyразве успех алгоритмов(LLM например), успешно решающих задачи за пределами их первоначального назначения, не свидетельствует об их адаптивности и потенциале? И если модель способна проходить различные тесты, имитирующие человеческие реакции и поведение, не говорит ли это о ее способности к глубокому пониманию устройства нашего мира? Да, малейшие изменения в параметрах могут привести к значительным колебаниям в результатах, но это также подчеркивает сложность и тонкость настройки моделей, а не их ограниченность. В этих сложностях и кроется потенциал для дальнейших открытий и улучшений

    • @Pythoncode-daily
      @Pythoncode-daily  2 месяца назад

      Вы правы! Если бы в этом не было смысла, то на это не было потрачено теперь уже сотен миллиардов долларов. Но если Вы проводите миллиарды тренировок модели, то периодически на выходе Вы будете получать потрясающие результаты. Но будут ли они гарантировать, что применение модели будет столь же эффективным и в других экспериментах. Я не предполагал, что эти попытки нужно остановить ( тем более в них вложены такие огромные деньги, что никто на это никогда не решится).. Я лишь предостерегал от обольщения успехами, которые могут носить комбинаторную основу. Но это лишь субъективный взгляд на эти процессы, за который я не стану держаться.
      Что меня действительно смущает, это то, что если бы такие ресурсы, как тратятся на обучение только одной современной модели были потрачены на другие области человеческой жизнедеятельности, то их эффективность была бы в сотни раз выше. Они могли бы спасти или улучшить жизни. Но из них не получилось бы раздуть пузырь и загнать капитализацию NVDA на немыслимые высоты.

  • @musicforyou1380
    @musicforyou1380 5 месяцев назад +3

    у вас стырили деньги? о чем вы? конечно дизлайк за такую риторику....глупо и стыдно

    • @Pythoncode-daily
      @Pythoncode-daily  5 месяцев назад +1

      Я не был столь категоричен в своих оценках. Но Вы правы - на месте Фейсбук ( Меты) вкладывать деньги в продукт, который дает столь нелепые прогнозы как Prophet - это и глупо и стыдно! Ведь, под влиянием авторитета разработчика, люди могут использовать их для решения важных задач. А это чревато непредсказуемыми последствиями..

  • @user-hg4dk5no7o
    @user-hg4dk5no7o 10 месяцев назад +1

    Странный формат, комментирует чужой код без конкретики и объяснений. Как распаковка посылок с алика))) Тема интересная, но видео бестолковое.

    • @Pythoncode-daily
      @Pythoncode-daily  10 месяцев назад +3

      Спасибо за ответ! Вы правы , Евгений! Однако, хотим мы того или нет, но в 99.999999% случаев нам приходится пользоваться элементами кода, который уже давно был кем-то создан. Даже значительная часть бизнеса Майкрософт построенна на коде "притыренном" у разработчиков на GitHub. Для меня написание кода - это комбинаторная игра, в которой мы сочетаем различные известные элементы кода для того, чтобы в последствии получать нужный нам результат. В данном видео мне было важно понять стоит ли тратить время на то, чтобы использовать раскрученные методы предсказания временных рядов в той предметной области, которая меня интересовала. Полученный отрицательный ( по сути) результат тоже полезный результат. Он сэкономил мне огромное колличество времени.