Здорово. Очень интерактивно. Нужно было, имхо, только упомянуть, что доведение разбиений до листьев, где лежат уникальные элементы - плохое дело, которое ведет к переобучению. Но это уже другой разговор)
@@machine_learrrning, то что вопросы в ноде можно задать различные - понятно. Не понятно, почему модель остановилась именно на этом конкретном значении в вопросе ноды, это не медиана и не среднее. Это както связано с criterion в процессе перебора?
@@НикитаКуцепалов-и2д модель остановилась на этом вопросе, потому что при его использовании прирост информации получился максимальным нежели при других вопросах значит данный вопрос лучше помогает разбивать выборку на две части
@@НикитаКуцепалов-и2д в видео говорю про него ruclips.net/video/0mMeaC3gjNI/видео.html Плюсом можете почитать эту статью: habr.com/ru/company/ods/blog/322534/
Большое спасибо за очень доступное объяснения!!! Насколько я понял, мы сначала ищем IG для корневого элемента, потом след. ветку (в которой очень большая MSE) считаем за корневую и начинаем заново просчет. И так до конца, пока по большинству элементов дерева не будет либо нулевая ошибка, либо допустимая для нас.
А можете подсказать, почему когда, мы считаем MSE по левой выборке в House...у нас (3.585-4.0555)^2+(3.521-4.0555)^2....вот почему 3.521, если у нас значение ypred там 4.526? А в случае когда у меня разные признаки может быть такое что 1 вопрос, например, был про цену дома с каким то порогом, второй потом например, по местоположению дома, а 3, например, опять про цену дома? тоесть признаки могут комбинироваться в зависимости от прироста?
Интересно, а ИИ и градиентный бустинг может решать задачу выбора оптимального значения из массива? То есть есть массив из которого надо выбрать лучшее значение по каким-то признакам. Например, 1000 жителей которые обладают критериями - пол, вес, возраст и т.д. из которых надо выбрать лучшего. При этом присваивая важность критериям.
Спасибо за видео очень ясно, очееень, я понял почти все, есть 2 вопросика(если не лень) .Когда модель будет менять тип вопроса с перва он задает вопрос про Population, а когда он решает ,что надо менять вопрос?И когда мы рекурсивно все это делаем, и брейкаем когда у нас MSE == 0 , но в это время у нас остается один value и этот value из датасета, потому что средное одного числа это етого же число, и таким образом в test датах получим переобучение , вот как это работает правильно? Заранее спасибо.
Подскажите, правильно ли понимаю, если например признаков = 100 и уникальных значений у каждого признака например = 10,000, тогда на каждом шаге мы рассматриваем примерно 100 * 10,000 разбиений? Кажется такие алгоритмы должны довольно медленно работать?
Подскажите, max_features - число признаков, по которым ищется разбиение. Вот если я укажу 3 из 10, то как берутся признаки? (Поочереди или рандомно) и можно ли посмотреть какие взялись?
max_features берутся случайно на каждом вопросе, так что если указали 3 признака, то при каждом новом разбиении будут браться случайные 3 признака Посмотреть можно только при визуализации через plot_tree, какие же там вопросы выбрались, как самые лучшие
Спасибо за видео! Очень доступно и понятно. Подскажите, пожалуйста, Вы сказали, что разбор критериев останова будет в следующем видео. Оно не вышло? Просто интересно узнать насчет критерия останова и как все-таки происходит дальнейшее прогнозирование на новых данных
Очень рада, что понравилось видео! По критериям останова пока ещё не сформировала материал, но раз хочется это услышать, то ускорюсь с этим процессом :)
Привет! Спасибо за видео, очень понятно и полезно) Получается, в задаче регрессии мы рассчитываем IG и принимаем решение на основе MSE. А для задачи классификации на основе чего?
Привет! В задаче классификации смотрим на критерии информативности Энтропия или Критерий Джини. Планирую ещё подготовить видео про обучение дерева решений для задачи классификации.
Девочка, какая радость была тебя найти. Спасибо большое. Твоя лекция в виде блокнота шедевральна!
Огромное спасибо.лучшее что удалось посмотреть за многие дни поиска информации.
Солнышко, заячка, дай Бог здоровья Тебе.
Так доступно еще никто не объяснял. Спасибо)
Прекрасно объясняете, просмотрел на одном дыхании, все непонятные моменты раскрыты.
Не ожидал вас тут увидеть) У вас тоже очень интересные и познавательные ролики
умная девочка все подробно и на доступном языке )
очень доступные объяснения, спасибо
Спасибо!
Всё понятно! А-то я чуть не заблудился среди этих решающих деревьев...
Спасибо большое. Лучше и объяснить было нельзя
Замечательно объяснение, все подробно и понятно. Спасибо!
Лучшее объяснение, которое нашел!! Спасибо большое
Можете сделать для CatBoost и XGB также. Много видео смотрел в просторах интернета, но так понятно как вы это сделали ни у кого
Как же всё понятно!
Случайно наткнулся, очень понравился контент. Спасибо!
Очень рада, что контент понравился :)
12:10 в расчете MSE опечатка?
Во второй скобке первое число 3.521 (target index 2), по идее должно быть 3.585 (target index 1)
Все максимально доступно и понятно, большое вам спасибо
Большое спасибо, все понятно
Пожалуйста!
Рада помочь :)
Большое спасибо! Очень понятное изложение материала!
Отличное объяснение!
Огромное спасибо! Самое лучшее объяснение, которое я нашла!🙂
Не понятно, - почему в первом узле вопрос меньше или равно 409? Не 410, не 525, а именно 409???
Здорово. Очень интерактивно. Нужно было, имхо, только упомянуть, что доведение разбиений до листьев, где лежат уникальные элементы - плохое дело, которое ведет к переобучению. Но это уже другой разговор)
безусловно, это плохое дело)
вот в этом видео как раз-таки про это и говорю ruclips.net/video/aWEdaXAZ01M/видео.html
Большое спасибо! Всё доступно и понятно!!
Это очень хорошо
Большое спасибо за видео!!!
Спасибо🙏
Умница!
А как именно формулируется вопрос в ноде?
Например почему в верхней (корневой, 1ой) ноде именно 409, а не скажем 410)
Вопросы строятся перебором:
если есть признак f со значениями 409, 411, 413, то мы можем задать следующие вопросы:
1. f
@@machine_learrrning, то что вопросы в ноде можно задать различные - понятно.
Не понятно, почему модель остановилась именно на этом конкретном значении в вопросе ноды, это не медиана и не среднее. Это както связано с criterion в процессе перебора?
@@НикитаКуцепалов-и2д модель остановилась на этом вопросе, потому что при его использовании прирост информации получился максимальным нежели при других вопросах
значит данный вопрос лучше помогает разбивать выборку на две части
@@machine_learrrning а как "максимальный прирост информации" формально (строго) определен.
Подскажите, что почитать/посмотреть можно?
@@НикитаКуцепалов-и2д в видео говорю про него ruclips.net/video/0mMeaC3gjNI/видео.html
Плюсом можете почитать эту статью: habr.com/ru/company/ods/blog/322534/
От души) очень понравилось обьяснение. На 12:06 не понял откуда в правых скобках взялось число 3.521(наверное описка, должно быть 4.526)
Отлично! Спасибо!
Как всегда топ!❤
спасибо👍
Большое спасибо за очень доступное объяснения!!! Насколько я понял, мы сначала ищем IG для корневого элемента, потом след. ветку (в которой очень большая MSE) считаем за корневую и начинаем заново просчет. И так до конца, пока по большинству элементов дерева не будет либо нулевая ошибка, либо допустимая для нас.
Да, такая реализация возможна. В этом случае построение разбиений будет по листьям с наибольшей ошибкой, подход называет leaf wise growth.
А можете подсказать, почему когда, мы считаем MSE по левой выборке в House...у нас (3.585-4.0555)^2+(3.521-4.0555)^2....вот почему 3.521, если у нас значение ypred там 4.526? А в случае когда у меня разные признаки может быть такое что 1 вопрос, например, был про цену дома с каким то порогом, второй потом например, по местоположению дома, а 3, например, опять про цену дома? тоесть признаки могут комбинироваться в зависимости от прироста?
Интересно, а ИИ и градиентный бустинг может решать задачу выбора оптимального значения из массива? То есть есть массив из которого надо выбрать лучшее значение по каким-то признакам. Например, 1000 жителей которые обладают критериями - пол, вес, возраст и т.д. из которых надо выбрать лучшего. При этом присваивая важность критериям.
Спасибо большое!. А можно по всем классическим моделям так?)
Так и планирую сделать :)
Объяснение топ, но кажется вы немного напутали с цифрами!!!
Спасибо за видео очень ясно, очееень, я понял почти все, есть 2 вопросика(если не лень) .Когда модель будет менять тип вопроса с перва он задает вопрос про Population, а когда он решает ,что надо менять вопрос?И когда мы рекурсивно все это делаем, и брейкаем когда у нас MSE == 0 , но в это время у нас остается один value и этот value из датасета, потому что средное одного числа это етого же число, и таким образом в test датах получим переобучение , вот как это работает правильно? Заранее спасибо.
Подскажите, правильно ли понимаю, если например признаков = 100 и уникальных значений у каждого признака например = 10,000, тогда на каждом шаге мы рассматриваем примерно 100 * 10,000 разбиений? Кажется такие алгоритмы должны довольно медленно работать?
Подскажите, max_features - число признаков, по которым ищется разбиение. Вот если я укажу 3 из 10, то как берутся признаки? (Поочереди или рандомно) и можно ли посмотреть какие взялись?
max_features берутся случайно на каждом вопросе, так что если указали 3 признака, то при каждом новом разбиении будут браться случайные 3 признака
Посмотреть можно только при визуализации через plot_tree, какие же там вопросы выбрались, как самые лучшие
Спасибо за видео! Очень доступно и понятно. Подскажите, пожалуйста, Вы сказали, что разбор критериев останова будет в следующем видео. Оно не вышло? Просто интересно узнать насчет критерия останова и как все-таки происходит дальнейшее прогнозирование на новых данных
Очень рада, что понравилось видео! По критериям останова пока ещё не сформировала материал, но раз хочется это услышать, то ускорюсь с этим процессом :)
Наконец-то могу поделиться ссылкой на видео про критерии останова в дереве решений: ruclips.net/video/aWEdaXAZ01M/видео.html
Привет! Спасибо за видео, очень понятно и полезно) Получается, в задаче регрессии мы рассчитываем IG и принимаем решение на основе MSE. А для задачи классификации на основе чего?
Привет!
В задаче классификации смотрим на критерии информативности Энтропия или Критерий Джини.
Планирую ещё подготовить видео про обучение дерева решений для задачи классификации.
Вот как раз ссылка на дерево решений для задачи классификации: ruclips.net/video/j8L07nuns2Y/видео.html
а зачем если голодный гулять? наоборот надо быстрей домой чтобы поесть 🤔🤔
322.0 это 322
Класс, спасибо. ❤️
Пожалуйста! 😸