1:28 - Работа с Jupyter Notebook и python 11:00 - Пример MNIST 11:30 - Загрузка библиотек 14:18 - Загрузка данных 21:55 - Некоторые изображения цифр из MNIST 26:48 - Разбиваем данные на обучающую и тестовую выборки 33:18 - Метод k ближайших соседей 36:11 - Как находить ближайших соседей, метрики Минковского 41:21 - Обучаем классификатор ближайших соседей 44:56 - Тестируем модель на конкретных примерах 50:11 - Тестируем всю выборку, проверяем качество классификатора 54:44 - Процентное содержание ошибок на обучающей и тестовой выборках 57:37 - Особенности ошибок на тестовой и обучающей выборках 1:00:39 - Матрица рассогласования, на каких примерах алгоритм ошибается 1:02:59 - Визуальное представление матрицы рассогласования 1:03:52 - Другие метрики качества 1:05:05 - Бинарная классификация 1:09:54 - error, accuracy 1:12:03 - "вероятность" ошибок 1-го и 2-го рода 1:13:08 - precision, recall, TNR, F1 1:16:38 - Изображение всех ошибок, совершенных алгоритмом 1:18:55 - Другие алгоритмы машинного обучения
1:28 - Работа с Jupyter Notebook и python
11:00 - Пример MNIST
11:30 - Загрузка библиотек
14:18 - Загрузка данных
21:55 - Некоторые изображения цифр из MNIST
26:48 - Разбиваем данные на обучающую и тестовую выборки
33:18 - Метод k ближайших соседей
36:11 - Как находить ближайших соседей, метрики Минковского
41:21 - Обучаем классификатор ближайших соседей
44:56 - Тестируем модель на конкретных примерах
50:11 - Тестируем всю выборку, проверяем качество классификатора
54:44 - Процентное содержание ошибок на обучающей и тестовой выборках
57:37 - Особенности ошибок на тестовой и обучающей выборках
1:00:39 - Матрица рассогласования, на каких примерах алгоритм ошибается
1:02:59 - Визуальное представление матрицы рассогласования
1:03:52 - Другие метрики качества
1:05:05 - Бинарная классификация
1:09:54 - error, accuracy
1:12:03 - "вероятность" ошибок 1-го и 2-го рода
1:13:08 - precision, recall, TNR, F1
1:16:38 - Изображение всех ошибок, совершенных алгоритмом
1:18:55 - Другие алгоритмы машинного обучения