Лекция. Решающие деревья, ансамбли, бустинг.
HTML-код
- Опубликовано: 1 авг 2024
- Занятие ведёт Дмитрий Садыков.
---
0:00 - Решающие деревья
2:56 - Решающие деревья. Примеры
4:22 - Решающие деревья. Обучение
8:28 - Информационные критерии
15:05 - Параметры дерева.
18:07 - Решающие деревья. Преимущества и недостатки
24:14 - Ансамбли алгоритмов
25:11 - Голосование
28:53 - Бутстрап и Бэггинг
35:21 - Случайный лес
42:07 - Бустинг
57:52 - Блендинг
1:02:16 - Стекинг
1:08:17 - Итог
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Другие записи курсов от Лектория ФИВТ вы можете найти на канале / @stfpmi
Спасибо за лекцию! Многие вещи очень непонятно объясняются. Практически каждый новый 2-ой термин приходится дополнительно гуглить. Понятно, что Вам эти вещи уже кажутся очевидными и понятными, но нам (смотрящим) совсем нет.
Почему так непонятно объясняется градиентный бустинг, нельзя разве на пальцах последовательно от функции до функции показать, там же цепочка существует
Спасибо за лекцию. Но хочу предложить лектору готовить текст лекции заранее, особенно по сложным местам, и читать его. Так есть возможность заранее сформулировать сложные места и поработать над их понятностью. Да и есть возможность сделать лекцию короче.
Записывать дубли мы не бросим!
Очень хороший и хорошо дополняющий контент, но могу слушать только на скорости - 1,75x ))
Спасибо
Боюсь смотреть лекцию из-за многочисленных отзывов о том, что она непонятная. Я и прошлый семинар этого лектора не особо поняла.
48:30 - косяк монтажа
@@taygind Спасибо за замечание, исправлено
Большое спасибо за лекцию! Не могли бы Вы, пожалуйста, выложить слайды! Очень интересно!
Спасибо большое, кратко, емко, понятно!
23.50 Говорят о том, что big leaf size это overfit.. Как так то....наоборот это же недообучение ,--лист огромный, туда вся выборка и попадет...илия че то не так понял??
Я тоже не понял этот момент. Если приходит много примеров в лист, то 2 варианта, масса - однородна, и мы хорошо предсказываем; масса - неоднородна, тогда, возможно, у нас страдает качество, но мы не зацикливаемся на одном примере.
Короче, шляпа какая то
Лектор упоминает о ссылке на ноутбук на слайде. А сами слайды не выложены. Выложите, пожалуйста.
Entropy принимает max там, где вероятность 50 на 50 для классов. Тогда получается, что для 2ух классов это: (-1) * (0.5 * log_2(0.5) + 0.5 * log_2(0.5)) = 1.
11:38. Почему на графике у Entropy максимум в точке 0.5?
Там скорей всего, как и везде, натуральный логарифм, тогда значение ~0.69. А картинка - фейковый график, наверное, просто для красоты рисовалась.
Мне бустинг чем ТО напомнил SARIMAX.... НЕ ОТ ТУДА ЛИ НОГИ РАСТУТ?
p_c*q_c - среднее значение ошибок при предсказании класса c.
Как вы интерпретировали, что это среднее значение ошибок, для меня остается загадкой.
ГДЕ СЛАЙДЫ?!!!
Я бы словил меньше фейспалмов, если бы Дмитрий Садыков всю лекцию просто молчал и щелкал слайды. Каждые три слова - фейспалм.
И про обьяснения.....Ребята, вы же все из МФТИ..Феймана вспомните.....идеальное обьяснение непоняток по квантовой механике)) p.s. А вообще курс класс!! я попал в точку после 6 месячной специализации на курсере так же от МФТИ....Без нее на продвинутом потоке было бы нечего делать..или как попугай...без понимания бы делал((
а что за специализация? Дайте, пжл, ссылку
Полезность лекции = 0. "Лектор" сам не разбирается в теме. Несет заученный текст, причем неправильный.