Как обучается дерево решений для регрессии. Decision Tree Regressor.

Поделиться
HTML-код
  • Опубликовано: 24 дек 2024

Комментарии •

  • @TheRudolfSchnaps
    @TheRudolfSchnaps Год назад +15

    Девочка, какая радость была тебя найти. Спасибо большое. Твоя лекция в виде блокнота шедевральна!

  • @theodoreneighboure
    @theodoreneighboure 2 года назад +17

    Огромное спасибо.лучшее что удалось посмотреть за многие дни поиска информации.

  • @Denzi33
    @Denzi33 Год назад +2

    Солнышко, заячка, дай Бог здоровья Тебе.

  • @dr.sartorius8855
    @dr.sartorius8855 3 месяца назад

    Так доступно еще никто не объяснял. Спасибо)

  • @foo52ru
    @foo52ru 2 года назад +3

    Прекрасно объясняете, просмотрел на одном дыхании, все непонятные моменты раскрыты.

    • @Diabolic9595
      @Diabolic9595 Год назад

      Не ожидал вас тут увидеть) У вас тоже очень интересные и познавательные ролики

  • @hinomuratomisaburo4901
    @hinomuratomisaburo4901 2 года назад +2

    умная девочка все подробно и на доступном языке )

  • @ekaterinakazakovskaya9239
    @ekaterinakazakovskaya9239 2 года назад +8

    очень доступные объяснения, спасибо

  • @evb9248
    @evb9248 2 года назад +4

    Спасибо!
    Всё понятно! А-то я чуть не заблудился среди этих решающих деревьев...

  • @ЕвгенийФёдоров-у9ь
    @ЕвгенийФёдоров-у9ь 2 года назад +2

    Спасибо большое. Лучше и объяснить было нельзя

  • @КириллКонстантинов-у6б

    Замечательно объяснение, все подробно и понятно. Спасибо!

  • @МихаилШевелев-м4я

    Лучшее объяснение, которое нашел!! Спасибо большое

  • @doniyordjon_pro
    @doniyordjon_pro Год назад +1

    Можете сделать для CatBoost и XGB также. Много видео смотрел в просторах интернета, но так понятно как вы это сделали ни у кого

  • @paveltimofeev5686
    @paveltimofeev5686 Год назад +2

    Как же всё понятно!

  • @VideosByDr1m
    @VideosByDr1m 2 года назад +1

    Случайно наткнулся, очень понравился контент. Спасибо!

    • @machine_learrrning
      @machine_learrrning  2 года назад

      Очень рада, что контент понравился :)

  • @Frumish
    @Frumish 19 дней назад

    12:10 в расчете MSE опечатка?
    Во второй скобке первое число 3.521 (target index 2), по идее должно быть 3.585 (target index 1)

  • @aboba98159
    @aboba98159 2 года назад +2

    Все максимально доступно и понятно, большое вам спасибо

  • @IvanSedov-i7f
    @IvanSedov-i7f Год назад +2

    Большое спасибо, все понятно

  • @blessedponica8030
    @blessedponica8030 Год назад +1

    Большое спасибо! Очень понятное изложение материала!

  • @thomascromwell2083
    @thomascromwell2083 Год назад

    Отличное объяснение!

  • @t.voronova
    @t.voronova Год назад +2

    Огромное спасибо! Самое лучшее объяснение, которое я нашла!🙂

  • @osvab000
    @osvab000 5 месяцев назад +1

    Не понятно, - почему в первом узле вопрос меньше или равно 409? Не 410, не 525, а именно 409???

  • @TheOneDesteny
    @TheOneDesteny 2 года назад +3

    Здорово. Очень интерактивно. Нужно было, имхо, только упомянуть, что доведение разбиений до листьев, где лежат уникальные элементы - плохое дело, которое ведет к переобучению. Но это уже другой разговор)

    • @machine_learrrning
      @machine_learrrning  2 года назад

      безусловно, это плохое дело)
      вот в этом видео как раз-таки про это и говорю ruclips.net/video/aWEdaXAZ01M/видео.html

  • @alexandrg5721
    @alexandrg5721 2 года назад +1

    Большое спасибо! Всё доступно и понятно!!

  • @kirillgrossberg6950
    @kirillgrossberg6950 2 года назад +1

    Это очень хорошо
    Большое спасибо за видео!!!

  • @YakatoSaku
    @YakatoSaku Месяц назад

    Спасибо🙏

  • @igorgordiy7709
    @igorgordiy7709 2 года назад +1

    Умница!

  • @НикитаКуцепалов-и2д
    @НикитаКуцепалов-и2д 2 года назад +3

    А как именно формулируется вопрос в ноде?
    Например почему в верхней (корневой, 1ой) ноде именно 409, а не скажем 410)

    • @machine_learrrning
      @machine_learrrning  2 года назад +1

      Вопросы строятся перебором:
      если есть признак f со значениями 409, 411, 413, то мы можем задать следующие вопросы:
      1. f

    • @НикитаКуцепалов-и2д
      @НикитаКуцепалов-и2д 2 года назад

      @@machine_learrrning, то что вопросы в ноде можно задать различные - понятно.
      Не понятно, почему модель остановилась именно на этом конкретном значении в вопросе ноды, это не медиана и не среднее. Это както связано с criterion в процессе перебора?

    • @machine_learrrning
      @machine_learrrning  2 года назад +1

      @@НикитаКуцепалов-и2д модель остановилась на этом вопросе, потому что при его использовании прирост информации получился максимальным нежели при других вопросах
      значит данный вопрос лучше помогает разбивать выборку на две части

    • @НикитаКуцепалов-и2д
      @НикитаКуцепалов-и2д 2 года назад

      @@machine_learrrning а как "максимальный прирост информации" формально (строго) определен.
      Подскажите, что почитать/посмотреть можно?

    • @machine_learrrning
      @machine_learrrning  2 года назад +1

      @@НикитаКуцепалов-и2д в видео говорю про него ruclips.net/video/0mMeaC3gjNI/видео.html
      Плюсом можете почитать эту статью: habr.com/ru/company/ods/blog/322534/

  • @user-vl9km6ot1h
    @user-vl9km6ot1h 9 месяцев назад

    От души) очень понравилось обьяснение. На 12:06 не понял откуда в правых скобках взялось число 3.521(наверное описка, должно быть 4.526)

  • @alexwhite252
    @alexwhite252 Год назад

    Отлично! Спасибо!

  • @kosby5963
    @kosby5963 Год назад

    Как всегда топ!❤

  • @gunner1163
    @gunner1163 5 месяцев назад

    спасибо👍

  • @zhuk2205
    @zhuk2205 3 года назад

    Большое спасибо за очень доступное объяснения!!! Насколько я понял, мы сначала ищем IG для корневого элемента, потом след. ветку (в которой очень большая MSE) считаем за корневую и начинаем заново просчет. И так до конца, пока по большинству элементов дерева не будет либо нулевая ошибка, либо допустимая для нас.

    • @machine_learrrning
      @machine_learrrning  3 года назад +1

      Да, такая реализация возможна. В этом случае построение разбиений будет по листьям с наибольшей ошибкой, подход называет leaf wise growth.

  • @delkaaaa
    @delkaaaa Год назад

    А можете подсказать, почему когда, мы считаем MSE по левой выборке в House...у нас (3.585-4.0555)^2+(3.521-4.0555)^2....вот почему 3.521, если у нас значение ypred там 4.526? А в случае когда у меня разные признаки может быть такое что 1 вопрос, например, был про цену дома с каким то порогом, второй потом например, по местоположению дома, а 3, например, опять про цену дома? тоесть признаки могут комбинироваться в зависимости от прироста?

  • @LS-oh6po
    @LS-oh6po Год назад

    Интересно, а ИИ и градиентный бустинг может решать задачу выбора оптимального значения из массива? То есть есть массив из которого надо выбрать лучшее значение по каким-то признакам. Например, 1000 жителей которые обладают критериями - пол, вес, возраст и т.д. из которых надо выбрать лучшего. При этом присваивая важность критериям.

  • @andreyo.945
    @andreyo.945 2 года назад +2

    Спасибо большое!. А можно по всем классическим моделям так?)

  • @alex_zvet-q9o
    @alex_zvet-q9o 7 месяцев назад

    Объяснение топ, но кажется вы немного напутали с цифрами!!!

  • @levonabgaryan304
    @levonabgaryan304 Год назад

    Спасибо за видео очень ясно, очееень, я понял почти все, есть 2 вопросика(если не лень) .Когда модель будет менять тип вопроса с перва он задает вопрос про Population, а когда он решает ,что надо менять вопрос?И когда мы рекурсивно все это делаем, и брейкаем когда у нас MSE == 0 , но в это время у нас остается один value и этот value из датасета, потому что средное одного числа это етого же число, и таким образом в test датах получим переобучение , вот как это работает правильно? Заранее спасибо.

  • @Тима-щ2ю
    @Тима-щ2ю 10 месяцев назад

    Подскажите, правильно ли понимаю, если например признаков = 100 и уникальных значений у каждого признака например = 10,000, тогда на каждом шаге мы рассматриваем примерно 100 * 10,000 разбиений? Кажется такие алгоритмы должны довольно медленно работать?

  • @Mihail_Titov068
    @Mihail_Titov068 2 года назад +1

    Подскажите, max_features - число признаков, по которым ищется разбиение. Вот если я укажу 3 из 10, то как берутся признаки? (Поочереди или рандомно) и можно ли посмотреть какие взялись?

    • @machine_learrrning
      @machine_learrrning  2 года назад +1

      max_features берутся случайно на каждом вопросе, так что если указали 3 признака, то при каждом новом разбиении будут браться случайные 3 признака
      Посмотреть можно только при визуализации через plot_tree, какие же там вопросы выбрались, как самые лучшие

  • @oxydora
    @oxydora 3 года назад

    Спасибо за видео! Очень доступно и понятно. Подскажите, пожалуйста, Вы сказали, что разбор критериев останова будет в следующем видео. Оно не вышло? Просто интересно узнать насчет критерия останова и как все-таки происходит дальнейшее прогнозирование на новых данных

    • @machine_learrrning
      @machine_learrrning  3 года назад +1

      Очень рада, что понравилось видео! По критериям останова пока ещё не сформировала материал, но раз хочется это услышать, то ускорюсь с этим процессом :)

    • @machine_learrrning
      @machine_learrrning  2 года назад +1

      Наконец-то могу поделиться ссылкой на видео про критерии останова в дереве решений: ruclips.net/video/aWEdaXAZ01M/видео.html

  • @ЕкатеринаА-л6ц
    @ЕкатеринаА-л6ц 2 года назад +1

    Привет! Спасибо за видео, очень понятно и полезно) Получается, в задаче регрессии мы рассчитываем IG и принимаем решение на основе MSE. А для задачи классификации на основе чего?

    • @machine_learrrning
      @machine_learrrning  2 года назад +3

      Привет!
      В задаче классификации смотрим на критерии информативности Энтропия или Критерий Джини.
      Планирую ещё подготовить видео про обучение дерева решений для задачи классификации.

    • @machine_learrrning
      @machine_learrrning  2 года назад +1

      Вот как раз ссылка на дерево решений для задачи классификации: ruclips.net/video/j8L07nuns2Y/видео.html

  • @SofaSofa-fw2bz
    @SofaSofa-fw2bz Год назад +2

    а зачем если голодный гулять? наоборот надо быстрей домой чтобы поесть 🤔🤔

  • @samSosiska
    @samSosiska 6 месяцев назад

    322.0 это 322

  • @TheMasterNumberSeven
    @TheMasterNumberSeven 2 года назад +1

    Класс, спасибо. ❤️