Лекция. Решающие деревья, ансамбли, бустинг.

Поделиться
HTML-код
  • Опубликовано: 1 авг 2024
  • Занятие ведёт Дмитрий Садыков.
    ---
    0:00 - Решающие деревья
    2:56 - Решающие деревья. Примеры
    4:22 - Решающие деревья. Обучение
    8:28 - Информационные критерии
    15:05 - Параметры дерева.
    18:07 - Решающие деревья. Преимущества и недостатки
    24:14 - Ансамбли алгоритмов
    25:11 - Голосование
    28:53 - Бутстрап и Бэггинг
    35:21 - Случайный лес
    42:07 - Бустинг
    57:52 - Блендинг
    1:02:16 - Стекинг
    1:08:17 - Итог
    ---
    Deep Learning School при ФПМИ МФТИ
    Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
    За нашими новостями можно следить здесь:
    Наш канал в TG: t.me/deep_learning_school_news
    Официальный сайт: dls.samcs.ru/ru/
    Официальная группа ВК: dlschool_mipt
    Github-репозиторий: github.com/DLSchool/dlschool
    Поддержать канал можно на Boosty: boosty.to/deeplearningschool
    ФПМИ МФТИ
    Официальный сайт: mipt.ru/education/departments...
    Магистратура: mipt.ru/education/departments...
    Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
    Онлайн-магистратура "Цифровая экономика": digec.online/
    Лаборатории ФПМИ: mipt.ru/education/departments...
    Другие записи курсов от Лектория ФИВТ вы можете найти на канале / @stfpmi

Комментарии • 23

  • @mikebelous6834
    @mikebelous6834 3 года назад +16

    Спасибо за лекцию! Многие вещи очень непонятно объясняются. Практически каждый новый 2-ой термин приходится дополнительно гуглить. Понятно, что Вам эти вещи уже кажутся очевидными и понятными, но нам (смотрящим) совсем нет.

  • @AskoLd1ee
    @AskoLd1ee 3 года назад +15

    Почему так непонятно объясняется градиентный бустинг, нельзя разве на пальцах последовательно от функции до функции показать, там же цепочка существует

  • @nikolaikrot8516
    @nikolaikrot8516 3 года назад +10

    Спасибо за лекцию. Но хочу предложить лектору готовить текст лекции заранее, особенно по сложным местам, и читать его. Так есть возможность заранее сформулировать сложные места и поработать над их понятностью. Да и есть возможность сделать лекцию короче.

  • @BetForBeer
    @BetForBeer 3 года назад +4

    Записывать дубли мы не бросим!

  • @dimitriysokolov1257
    @dimitriysokolov1257 Год назад

    Очень хороший и хорошо дополняющий контент, но могу слушать только на скорости - 1,75x ))

  • @user-zd6he3zd5j
    @user-zd6he3zd5j 3 года назад

    Спасибо

  • @taygind
    @taygind 3 года назад +10

    Боюсь смотреть лекцию из-за многочисленных отзывов о том, что она непонятная. Я и прошлый семинар этого лектора не особо поняла.

    • @taygind
      @taygind 3 года назад

      48:30 - косяк монтажа

    • @DeepLearningSchool
      @DeepLearningSchool  3 года назад

      @@taygind Спасибо за замечание, исправлено

  • @jenya_pu
    @jenya_pu 3 года назад

    Большое спасибо за лекцию! Не могли бы Вы, пожалуйста, выложить слайды! Очень интересно!

  • @user-sl7hy3yf6f
    @user-sl7hy3yf6f 2 года назад

    Спасибо большое, кратко, емко, понятно!

  • @rosasha2803
    @rosasha2803 3 года назад +2

    23.50 Говорят о том, что big leaf size это overfit.. Как так то....наоборот это же недообучение ,--лист огромный, туда вся выборка и попадет...илия че то не так понял??

    • @vadimosipov2147
      @vadimosipov2147 3 года назад

      Я тоже не понял этот момент. Если приходит много примеров в лист, то 2 варианта, масса - однородна, и мы хорошо предсказываем; масса - неоднородна, тогда, возможно, у нас страдает качество, но мы не зацикливаемся на одном примере.
      Короче, шляпа какая то

  • @user-is3kd9ye9h
    @user-is3kd9ye9h 3 года назад

    Лектор упоминает о ссылке на ноутбук на слайде. А сами слайды не выложены. Выложите, пожалуйста.

  • @vadimosipov2147
    @vadimosipov2147 3 года назад

    Entropy принимает max там, где вероятность 50 на 50 для классов. Тогда получается, что для 2ух классов это: (-1) * (0.5 * log_2(0.5) + 0.5 * log_2(0.5)) = 1.
    11:38. Почему на графике у Entropy максимум в точке 0.5?

    • @user-is3kd9ye9h
      @user-is3kd9ye9h 3 года назад +1

      Там скорей всего, как и везде, натуральный логарифм, тогда значение ~0.69. А картинка - фейковый график, наверное, просто для красоты рисовалась.

  • @rosasha2803
    @rosasha2803 3 года назад

    Мне бустинг чем ТО напомнил SARIMAX.... НЕ ОТ ТУДА ЛИ НОГИ РАСТУТ?

  • @vadimosipov2147
    @vadimosipov2147 3 года назад

    p_c*q_c - среднее значение ошибок при предсказании класса c.
    Как вы интерпретировали, что это среднее значение ошибок, для меня остается загадкой.

  • @user-is3kd9ye9h
    @user-is3kd9ye9h 3 года назад

    ГДЕ СЛАЙДЫ?!!!

  • @slavaukraini4769
    @slavaukraini4769 3 года назад +1

    Я бы словил меньше фейспалмов, если бы Дмитрий Садыков всю лекцию просто молчал и щелкал слайды. Каждые три слова - фейспалм.

  • @rosasha2803
    @rosasha2803 3 года назад

    И про обьяснения.....Ребята, вы же все из МФТИ..Феймана вспомните.....идеальное обьяснение непоняток по квантовой механике)) p.s. А вообще курс класс!! я попал в точку после 6 месячной специализации на курсере так же от МФТИ....Без нее на продвинутом потоке было бы нечего делать..или как попугай...без понимания бы делал((

    • @vadimosipov2147
      @vadimosipov2147 3 года назад

      а что за специализация? Дайте, пжл, ссылку

  • @user-jm8bj7nm8s
    @user-jm8bj7nm8s 2 года назад +1

    Полезность лекции = 0. "Лектор" сам не разбирается в теме. Несет заученный текст, причем неправильный.