002. Метрические методы классификации - К.В. Воронцов

Поделиться
HTML-код
  • Опубликовано: 6 фев 2025
  • Курс "Машинное обучение" является одним из основных курсов Школы, поэтому он является обязательным для всех студентов ШАД.
    Лектор: Константин Вячеславович Воронцов, старший научный сотрудник Вычислительного центра РАН. Заместитель директора по науке ЗАО "Форексис". Заместитель заведующего кафедрой «Интеллектуальные системы» ФУПМ МФТИ. Доцент кафедры "Математические методы прогнозирования" ВМиК МГУ. Эксперт компании "Яндекс". Доктор физико-математических наук.
    Программу курса можно посмотреть по ссылке: shad.yandex.ru/...

Комментарии • 31

  • @assilsigma7359
    @assilsigma7359 2 года назад

    0:38 В предыдущей лекции
    0:58 В следующих лекциях (метрические на основе близости, логические и линейные методы)
    1:37 Содержание лекции (метрические алгоритмы классификации, отбор эталонов, отбор признаков и оптимизация метрики)
    *Метрические алгоритмы классификации*
    2:40 Гипотеза компактности
    4:22 Три аксиомы метрики
    5:44 Пример метрики: евклидово расстояние
    6:20 Обобщенный метрический классификатор
    7:02 Формализуем гипотезу компактности
    9:26 Вопрос из зала: а(u, X’) - алгоритм классификации
    10:50 Метод ближайшего соседа
    14:13 Преимущества/недостатки метода ближайшего соседа
    14:47 Метод k ближайших соседей
    16:32 Пример зависимости LOO (leave one out): Задача UCI - Breast Cancer
    19:50 Проблема метода: неоднозначность классификации
    21:22 Вес соседа должен убывать с номером соседа?
    22:13 Парзеновское окно
    22:49 Пример: парзеновское окно переменной ширины, k=1
    28:20 Вопрос из зала: что, если взять k>1?
    29:35 Рекомендация: если классов два, не берите…
    29:55 Метод потенциальных функций
    3:23 Вопрос из зала: метод не имеет смысла при количестве классов >r?
    33:04 Алгоритм настройки весов объектов

  • @1ar
    @1ar 7 лет назад

    на 8:57 разве мы не умножаем объекты с весами? а после этого уже складываем продукты этого умножения?

    • @cvzakharchenko
      @cvzakharchenko 7 лет назад +1

      Лектор явно оговорился. Конечно умножаем.

  • @Zodirnsbwjdjckwjfj
    @Zodirnsbwjdjckwjfj 8 лет назад +14

    А можно ли где-то найти задания для семинаров, чтобы закрепить на практике?

    • @alexjfroge2513
      @alexjfroge2513 7 лет назад

      Тоже ищу - скиньте плз ссылки на дз

    • @Arti32Lehtonen
      @Arti32Lehtonen 7 лет назад +4

      Здесь можно посмотреть github.com/esokolov/ml-course-msu

  • @СергейПащенко-р5ж
    @СергейПащенко-р5ж 5 лет назад

    Что-то я не совсем понял, как вычислить величину отступа. M=Г(u) -max(Г(u)). Это Гаммы - это какие-то вероятностные величины (судя по графику, приведенному в лекции). Если да, то как они вычисляются, если нет, то как мы получили диапазон разброса для отступов в общем случае от [-1,+1]?

  • @АлександрВальвачев-я6ъ
    @АлександрВальвачев-я6ъ 7 месяцев назад

    Жаль 80% не видно.

  • @arsenron
    @arsenron 6 лет назад

    На 11 слайде лекции (чуть левее 30 минуты), если у нас k = 1, то зачем нам вообще тогда метод парзеновского окна переменной ширины, если ввиду того, что метрика вычисляется до одного объекта, нам не важно, какое значение примет сама метрика? Мы же просто отнесем к классу y ∈ Y тот объект, к которому принадлежит ближайший сосед.

  • @georgemegre2313
    @georgemegre2313 6 лет назад

    Не совсем понятен смысл модуля в евклидовом растоянии(на слайде Гипотеза о компактности) т.к. там уже есть квадрат.

    • @arsenron
      @arsenron 6 лет назад +1

      Это из определения Lp нормы, из которой вытекает и сама метрика. Мы можем брать любую степень n (хоть бесконечность) внутри, а потом брать степень 1/n. Например, если n = 3, то, чтобы выполнялось условие неравенства треугольника (3 свойство метрики), то необходимо брать модуль. Поэтому в общем виде пишут всегда модуль. ru.wikipedia.org/wiki/Lp_(пространство) можете почитать

  • @alexsaberina6757
    @alexsaberina6757 4 года назад +4

    "неужели понятно?"

  • @yii-art
    @yii-art 8 лет назад

    Где можно взять презентации к курсу?

    • @m308kaa
      @m308kaa 8 лет назад +1

      На рутрекере есть эти лекции вместе со слайдами.

    • @torokane
      @torokane 7 лет назад +4

      На странице вики www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_(курс_лекций,_К.В.Воронцов)

  • @kenichimori8533
    @kenichimori8533 7 лет назад

    Π equal π

  • @kenichimori8533
    @kenichimori8533 7 лет назад

    Χ equal χ 解

  • @kenichimori8533
    @kenichimori8533 7 лет назад

    Register 0x1 Ω = ω
    春風到来

  • @turboboy8049
    @turboboy8049 7 лет назад +2

    Куда удобнее было бы изучать это конкретно в синтаксисе какого-либо ЯП, имхо. Гораздо удобнее!

  • @mrmoto3954
    @mrmoto3954 7 лет назад +3

    Много непонятных общих формул, хотелось бы хотя бы 1 подробно решенный конкретный пример с цифрами.

    • @antioch44channel
      @antioch44channel Год назад

      этот способ чтения материала понятен лишь слушателям с математическими специальностями.