RandomForest - очень просто о том, как использовать классификацию в Python
HTML-код
- Опубликовано: 28 сен 2024
- Рассмотрено применение алгоритма классификации RandomForest. Видео нацеленно на начинающих изучение темы машинного обучения. Пример блокнота можно найти по ссылке github.com/aik...
Дай Бог Вам крепкого здоровья! Вы очень помогаете студентам !
Спасибо большое, все понятно и доступно!
Хорошая подача материала! С удовольствием вас слушаю
Большой вам поклон за такое детальное объяснение. Вы единственный ко смог детально ясно и понятно объяснить как это работает.
Большое спасибо! Все очень доступно объяснено
Спасибо за видео, очень интересно.
Большое спасибо!
Легенда
Почему в модели классификации используется r2_score?
Согласен, что не лучший вариант. Но позволяет быстро посмотреть насколько алгоритм умеет предсказывать лучше генератора случайных чисел
День добрый, но ссылки нет.
Прошу прощения, пропустил Ваш комментарий и ссылку забыл указать. Вы правы. Исправляюсь github.com/aikula/DataDriven/blob/master/RandomForest.ipynb
Также ссылка уже есть в описании.
@@aikula999 ничего спасибо Вам за видео
Здравствуйте, а где взять ссылку на excel файл?
В Гите, где и сам блокнот github.com/aikula/DataDriven/blob/master/RandomForest.ipynb
@@aikula999 спасибо, я не знал как пользоваться гитхабом
Спасибо огромное, крайне актуально.
здравствуйте, видео старое и понятия не имею ответите мне или нет, хотел спросить можно ли угадывать результаты, допустим 1 из 3х предоставленных вариантов , на базе старых результатов, поиск закономерности, если да то прошу помочь подсказками либо направить на какой нибудь ресурсный сайт с нужной мне инфой, пускай даже на английском. Если все получится, в долгу не останусь. Спасибо
Добрый день, да, конечно же можно. Это много классовая классификация. На самом деле даже особо ничего менять не надо. Вместо 0 и 1 у Вас появиться третий класс, например 3. Единственное, несколько по другому оценивается точность.
Хотелось бы ещё увидеть как работает бустинг
Точно так же 🙂
from sklearn.ensemble import GradientBoostingClassifier
clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0, max_depth=1, random_state=0).fit(X_train, y_train) # прошу прощения что разными коментами
Спасибо))))
Лучшее объяснение, спасибо вам
Почему для кодирования не воспользовались функцией библиотеки skLearn LabelEncoder или OneHotEncoder, а написали собственный скрипт?
Стандартный LabelEncoder не ловит автоматически истинное расстояние между классами. В этом случае лучше формировать словарь в ручную. Например, есть у нас фича марки автомобилей: Жигули, Бентли, Рено, Ауди. Так вот автоматом будут присвоены метки: 0, 1, 2. И с точки зрения расстояния, окажется, что Ауди находится от Бентли "дальше", чем Рено или Жигули.