Тренировки по ML. Лекция 4: Решающие деревья, композиции деревьев, Random Forest

Поделиться
HTML-код
  • Опубликовано: 9 ноя 2023
  • Ссылка на материалы лекции: github.com/girafe-ai/ml-cours...
    Процедура построения деревьев регрессии и классификации. Жадный алгоритм. Информационные критерии.
    Бутстрап, бэггинг. ""Мудрость толпы"". Случайный лес.
    Особые свойства решающих деревьев.
    Подробнее о тренировках по ссылке (yandex.ru/yaintern/training/).
    Подписывайтесь на наши соц.сети: VK ( young_and_yandex), Telegram (t.me/Young_and_Yandex).

Комментарии • 4

  • @stepanlebedev8790
    @stepanlebedev8790 8 месяцев назад +6

    Великолепный лектор! Уже 4 лекцию радуюсь тому, что вы ведете эти тренировки. Спасибо вам!

  • @IgorKuts
    @IgorKuts 8 месяцев назад

    Спасибо за лекцию, Радослав!

  • @Irades
    @Irades 8 месяцев назад +2

    Спасибо ❤

  • @andreychernov7339
    @andreychernov7339 8 месяцев назад +1

    Радослав, большое спасибо за лекцию, очень крутая подача материала!
    Хочу задать немного прикладной вопрос насчет бэггинга. Есть в LGBM 2 гиперпараметра : bagging_frequency и bagging_fraction.
    Если я правильно понимаю, fraction работает примерно как OOB, про который было сказано в лекции. А насчет frequency, мне кажется, мы не разбирали. Буду очень признателен, за пояснение.