002. Метрические методы классификации - К.В. Воронцов
HTML-код
- Опубликовано: 6 фев 2025
- Курс "Машинное обучение" является одним из основных курсов Школы, поэтому он является обязательным для всех студентов ШАД.
Лектор: Константин Вячеславович Воронцов, старший научный сотрудник Вычислительного центра РАН. Заместитель директора по науке ЗАО "Форексис". Заместитель заведующего кафедрой «Интеллектуальные системы» ФУПМ МФТИ. Доцент кафедры "Математические методы прогнозирования" ВМиК МГУ. Эксперт компании "Яндекс". Доктор физико-математических наук.
Программу курса можно посмотреть по ссылке: shad.yandex.ru/...
0:38 В предыдущей лекции
0:58 В следующих лекциях (метрические на основе близости, логические и линейные методы)
1:37 Содержание лекции (метрические алгоритмы классификации, отбор эталонов, отбор признаков и оптимизация метрики)
*Метрические алгоритмы классификации*
2:40 Гипотеза компактности
4:22 Три аксиомы метрики
5:44 Пример метрики: евклидово расстояние
6:20 Обобщенный метрический классификатор
7:02 Формализуем гипотезу компактности
9:26 Вопрос из зала: а(u, X’) - алгоритм классификации
10:50 Метод ближайшего соседа
14:13 Преимущества/недостатки метода ближайшего соседа
14:47 Метод k ближайших соседей
16:32 Пример зависимости LOO (leave one out): Задача UCI - Breast Cancer
19:50 Проблема метода: неоднозначность классификации
21:22 Вес соседа должен убывать с номером соседа?
22:13 Парзеновское окно
22:49 Пример: парзеновское окно переменной ширины, k=1
28:20 Вопрос из зала: что, если взять k>1?
29:35 Рекомендация: если классов два, не берите…
29:55 Метод потенциальных функций
3:23 Вопрос из зала: метод не имеет смысла при количестве классов >r?
33:04 Алгоритм настройки весов объектов
на 8:57 разве мы не умножаем объекты с весами? а после этого уже складываем продукты этого умножения?
Лектор явно оговорился. Конечно умножаем.
А можно ли где-то найти задания для семинаров, чтобы закрепить на практике?
Тоже ищу - скиньте плз ссылки на дз
Здесь можно посмотреть github.com/esokolov/ml-course-msu
Что-то я не совсем понял, как вычислить величину отступа. M=Г(u) -max(Г(u)). Это Гаммы - это какие-то вероятностные величины (судя по графику, приведенному в лекции). Если да, то как они вычисляются, если нет, то как мы получили диапазон разброса для отступов в общем случае от [-1,+1]?
На 8:40 посмотри
Жаль 80% не видно.
На 11 слайде лекции (чуть левее 30 минуты), если у нас k = 1, то зачем нам вообще тогда метод парзеновского окна переменной ширины, если ввиду того, что метрика вычисляется до одного объекта, нам не важно, какое значение примет сама метрика? Мы же просто отнесем к классу y ∈ Y тот объект, к которому принадлежит ближайший сосед.
Не совсем понятен смысл модуля в евклидовом растоянии(на слайде Гипотеза о компактности) т.к. там уже есть квадрат.
Это из определения Lp нормы, из которой вытекает и сама метрика. Мы можем брать любую степень n (хоть бесконечность) внутри, а потом брать степень 1/n. Например, если n = 3, то, чтобы выполнялось условие неравенства треугольника (3 свойство метрики), то необходимо брать модуль. Поэтому в общем виде пишут всегда модуль. ru.wikipedia.org/wiki/Lp_(пространство) можете почитать
"неужели понятно?"
Где можно взять презентации к курсу?
На рутрекере есть эти лекции вместе со слайдами.
На странице вики www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_(курс_лекций,_К.В.Воронцов)
Π equal π
Χ equal χ 解
Register 0x1 Ω = ω
春風到来
Δ equal δ index fund
Ζ equal ζ Defense zero
Ε equal ε equal ∈ 塩分解析
Plus + + = − Minus 縁起配列
Ι equal ι 算木
Куда удобнее было бы изучать это конкретно в синтаксисе какого-либо ЯП, имхо. Гораздо удобнее!
Много непонятных общих формул, хотелось бы хотя бы 1 подробно решенный конкретный пример с цифрами.
этот способ чтения материала понятен лишь слушателям с математическими специальностями.