Лекция 10. Деревья классификации и регрессии

Поделиться
HTML-код
  • Опубликовано: 28 сен 2024
  • compscicenter.ru/
    Распознавание образов/классификация.
    Параметры модели, внутренние и внешние.
    Критерии качества. Обучающая и тестовая выборки.
    Деревья классификации CART. Геометрическое представление. Представление в виде набора логических правил. Представление в виде дерева. Узлы, родители и потомки, конечные узлы. Пороговые значения. Меры чистота узла (impurity measures): джини, энтропия, ошибки классификации. Правила останоки обучения дерева. Информативность переменных.
    Деревья классификации в задачах регрессии.
    Лекция №10 в курсе "Анализ данных на Python в примерах и задачах. Часть 1" (весна 2018).
    Преподаватель курса: Вадим Леонардович Аббакумов

Комментарии • 26

  • @MinisterDorado
    @MinisterDorado Год назад +2

    Обожаю когда лектор начинает давать исторические справки! Это пошло от туда, дргое от сюда!

  • @marknoyanzin6108
    @marknoyanzin6108 Год назад +1

    Отличная лекция! Так доходчиво мне еще никто не объяснял! Потрясающе!

  • @МихайловАртем-н8у
    @МихайловАртем-н8у 3 года назад +6

    Просто суперский лектор! Спасибо большое!

  • @foggydawning
    @foggydawning Год назад

    Очень доступно ✌

  • @antonmislawsky
    @antonmislawsky Год назад

    Thanks 🎉

  • @ekaterinashu9375
    @ekaterinashu9375 4 года назад +7

    Какой хороший лектор!!!! Редкость большая!

  • @coolbrain
    @coolbrain 2 года назад +1

    Как правильно относится к важности фичей? Взял например учебные данные по диабету. Рандом форест инсулин самым важным рисует, а градиентный бустинг его на последнее место ставит.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 2 года назад +1

      Сложно угадывать, не видя данных и параметров модели. Чаще всего причина в чем-то похожа на коллинеарность: у вас есть замаскированные клоны инсулина. И информативность по разному распределяется среди клонов. Например, если у переменной "пол" информативность 6, то, введя дополнительно индикаторы "мужской пол" и "женский пол", Вы распределите информативность по трем переменных и получите, например, информативности 0, 4, 2, соответственно

  • @_AbUser
    @_AbUser 2 года назад

    Эээ... я правильно понял, что в дереве регрессии: заменяем просто общее решение по всему множеству предикторв ax+b на сумму несколько частных решений, которые строятся по отдельным отрезкам значений интервалов предикторв, на которых наиболее точно можно подогнать апроксимацию? Типа a1x+b на инстевале от [0,5] а2х+b на интервале [5,20] и тд [20.... ???

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 2 года назад

      Нет. На интервалах постоянное значение. Приближаем кусочно постоянной функцией.

  • @razdva1221
    @razdva1221 3 года назад +1

    А что за второгодник там сидит, который на все вопросы отвечает?

  • @ivanaaa6049
    @ivanaaa6049 6 лет назад

    А когда будет вторая часть курса, о которой говорит лектор?
    Было бы здорово выкладывать ее по мере обработки видео, чтобы не ждать обработки всех лекций.

    • @CompscicenterRu
      @CompscicenterRu  6 лет назад +1

      Вторая часть стартует ближайшей осенью.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 6 лет назад +4

      Вторая часть выкладывается тут ruclips.net/video/5l0e_Q0gpnc/видео.html

    • @ivanaaa6049
      @ivanaaa6049 6 лет назад

      Спасибо!

  • @Alexcei64rus
    @Alexcei64rus 5 лет назад +10

    Спасибо, очень понятно объясняете. Наконец-то понял причем тут деревья)

  • @pointofview654
    @pointofview654 2 года назад +3

    Единственный преподаватель в этой области знаний, который смог мне что-то объяснить.

    • @gregorymatsnev312
      @gregorymatsnev312 2 года назад +3

      Согласен, подача материала достойная. Как собрат по несчастью могу посоветовать ещё посмотреть лекции от VK Team (ruclips.net/video/5Yl6_2d0CN0/видео.html&ab_channel=VKTeam) - там крайне подробно показывают, как работать с библиотеками и вообще много кода (нужно будет кодить ручками - файлов нет) и ещё если углубляться в математику - есть интересные лекции Data Mining in Action (ruclips.net/video/3uhusIxPP38/видео.html&ab_channel=DataMininginAction) - крайний курс лекций на канале.

  • @phil4765
    @phil4765 3 года назад +3

    круто, спасибо)

  • @sergeylexmens1166
    @sergeylexmens1166 Год назад

    Вадим Леонардович, спасибо Вам большое, одни из лучших лекций по ML в рунете!

  • @ana_smo
    @ana_smo Год назад

    Спасибо за лекцию, есть ли ноутбук с кодомна гитхабе?

  • @СтепанГурьянов-ч3б

    Отличный лектор!

  • @qwwwot3392
    @qwwwot3392 Год назад

    Просто замечательно!

  • @afoobar42
    @afoobar42 2 года назад +1

    А почему в качестве меры чистоты не взять просто например отношение крестиков к сумме крестиков и ноликов?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 2 года назад

      Нарушено ограничение f(0) = f(1) = 0