Лекция 10. Деревья классификации и регрессии
HTML-код
- Опубликовано: 28 сен 2024
- compscicenter.ru/
Распознавание образов/классификация.
Параметры модели, внутренние и внешние.
Критерии качества. Обучающая и тестовая выборки.
Деревья классификации CART. Геометрическое представление. Представление в виде набора логических правил. Представление в виде дерева. Узлы, родители и потомки, конечные узлы. Пороговые значения. Меры чистота узла (impurity measures): джини, энтропия, ошибки классификации. Правила останоки обучения дерева. Информативность переменных.
Деревья классификации в задачах регрессии.
Лекция №10 в курсе "Анализ данных на Python в примерах и задачах. Часть 1" (весна 2018).
Преподаватель курса: Вадим Леонардович Аббакумов
Обожаю когда лектор начинает давать исторические справки! Это пошло от туда, дргое от сюда!
Отличная лекция! Так доходчиво мне еще никто не объяснял! Потрясающе!
Просто суперский лектор! Спасибо большое!
Очень доступно ✌
Thanks 🎉
Какой хороший лектор!!!! Редкость большая!
Как правильно относится к важности фичей? Взял например учебные данные по диабету. Рандом форест инсулин самым важным рисует, а градиентный бустинг его на последнее место ставит.
Сложно угадывать, не видя данных и параметров модели. Чаще всего причина в чем-то похожа на коллинеарность: у вас есть замаскированные клоны инсулина. И информативность по разному распределяется среди клонов. Например, если у переменной "пол" информативность 6, то, введя дополнительно индикаторы "мужской пол" и "женский пол", Вы распределите информативность по трем переменных и получите, например, информативности 0, 4, 2, соответственно
Эээ... я правильно понял, что в дереве регрессии: заменяем просто общее решение по всему множеству предикторв ax+b на сумму несколько частных решений, которые строятся по отдельным отрезкам значений интервалов предикторв, на которых наиболее точно можно подогнать апроксимацию? Типа a1x+b на инстевале от [0,5] а2х+b на интервале [5,20] и тд [20.... ???
Нет. На интервалах постоянное значение. Приближаем кусочно постоянной функцией.
А что за второгодник там сидит, который на все вопросы отвечает?
А когда будет вторая часть курса, о которой говорит лектор?
Было бы здорово выкладывать ее по мере обработки видео, чтобы не ждать обработки всех лекций.
Вторая часть стартует ближайшей осенью.
Вторая часть выкладывается тут ruclips.net/video/5l0e_Q0gpnc/видео.html
Спасибо!
Спасибо, очень понятно объясняете. Наконец-то понял причем тут деревья)
Единственный преподаватель в этой области знаний, который смог мне что-то объяснить.
Согласен, подача материала достойная. Как собрат по несчастью могу посоветовать ещё посмотреть лекции от VK Team (ruclips.net/video/5Yl6_2d0CN0/видео.html&ab_channel=VKTeam) - там крайне подробно показывают, как работать с библиотеками и вообще много кода (нужно будет кодить ручками - файлов нет) и ещё если углубляться в математику - есть интересные лекции Data Mining in Action (ruclips.net/video/3uhusIxPP38/видео.html&ab_channel=DataMininginAction) - крайний курс лекций на канале.
круто, спасибо)
Вадим Леонардович, спасибо Вам большое, одни из лучших лекций по ML в рунете!
Спасибо за лекцию, есть ли ноутбук с кодомна гитхабе?
Отличный лектор!
Просто замечательно!
А почему в качестве меры чистоты не взять просто например отношение крестиков к сумме крестиков и ноликов?
Нарушено ограничение f(0) = f(1) = 0