Спасибо за лекцию! Многие вещи очень непонятно объясняются. Практически каждый новый 2-ой термин приходится дополнительно гуглить. Понятно, что Вам эти вещи уже кажутся очевидными и понятными, но нам (смотрящим) совсем нет.
Спасибо за лекцию. Но хочу предложить лектору готовить текст лекции заранее, особенно по сложным местам, и читать его. Так есть возможность заранее сформулировать сложные места и поработать над их понятностью. Да и есть возможность сделать лекцию короче.
Почему так непонятно объясняется градиентный бустинг, нельзя разве на пальцах последовательно от функции до функции показать, там же цепочка существует
23.50 Говорят о том, что big leaf size это overfit.. Как так то....наоборот это же недообучение ,--лист огромный, туда вся выборка и попадет...илия че то не так понял??
Я тоже не понял этот момент. Если приходит много примеров в лист, то 2 варианта, масса - однородна, и мы хорошо предсказываем; масса - неоднородна, тогда, возможно, у нас страдает качество, но мы не зацикливаемся на одном примере. Короче, шляпа какая то
Entropy принимает max там, где вероятность 50 на 50 для классов. Тогда получается, что для 2ух классов это: (-1) * (0.5 * log_2(0.5) + 0.5 * log_2(0.5)) = 1. 11:38. Почему на графике у Entropy максимум в точке 0.5?
И про обьяснения.....Ребята, вы же все из МФТИ..Феймана вспомните.....идеальное обьяснение непоняток по квантовой механике)) p.s. А вообще курс класс!! я попал в точку после 6 месячной специализации на курсере так же от МФТИ....Без нее на продвинутом потоке было бы нечего делать..или как попугай...без понимания бы делал((
Спасибо за лекцию! Многие вещи очень непонятно объясняются. Практически каждый новый 2-ой термин приходится дополнительно гуглить. Понятно, что Вам эти вещи уже кажутся очевидными и понятными, но нам (смотрящим) совсем нет.
Очень хороший и хорошо дополняющий контент, но могу слушать только на скорости - 1,75x ))
Спасибо за лекцию. Но хочу предложить лектору готовить текст лекции заранее, особенно по сложным местам, и читать его. Так есть возможность заранее сформулировать сложные места и поработать над их понятностью. Да и есть возможность сделать лекцию короче.
Почему так непонятно объясняется градиентный бустинг, нельзя разве на пальцах последовательно от функции до функции показать, там же цепочка существует
Записывать дубли мы не бросим!
Спасибо
Боюсь смотреть лекцию из-за многочисленных отзывов о том, что она непонятная. Я и прошлый семинар этого лектора не особо поняла.
48:30 - косяк монтажа
@@taygind Спасибо за замечание, исправлено
Большое спасибо за лекцию! Не могли бы Вы, пожалуйста, выложить слайды! Очень интересно!
23.50 Говорят о том, что big leaf size это overfit.. Как так то....наоборот это же недообучение ,--лист огромный, туда вся выборка и попадет...илия че то не так понял??
Я тоже не понял этот момент. Если приходит много примеров в лист, то 2 варианта, масса - однородна, и мы хорошо предсказываем; масса - неоднородна, тогда, возможно, у нас страдает качество, но мы не зацикливаемся на одном примере.
Короче, шляпа какая то
Я бы словил меньше фейспалмов, если бы Дмитрий Садыков всю лекцию просто молчал и щелкал слайды. Каждые три слова - фейспалм.
Лектор упоминает о ссылке на ноутбук на слайде. А сами слайды не выложены. Выложите, пожалуйста.
Entropy принимает max там, где вероятность 50 на 50 для классов. Тогда получается, что для 2ух классов это: (-1) * (0.5 * log_2(0.5) + 0.5 * log_2(0.5)) = 1.
11:38. Почему на графике у Entropy максимум в точке 0.5?
Там скорей всего, как и везде, натуральный логарифм, тогда значение ~0.69. А картинка - фейковый график, наверное, просто для красоты рисовалась.
p_c*q_c - среднее значение ошибок при предсказании класса c.
Как вы интерпретировали, что это среднее значение ошибок, для меня остается загадкой.
Мне бустинг чем ТО напомнил SARIMAX.... НЕ ОТ ТУДА ЛИ НОГИ РАСТУТ?
Полезность лекции = 0. "Лектор" сам не разбирается в теме. Несет заученный текст, причем неправильный.
ГДЕ СЛАЙДЫ?!!!
Спасибо большое, кратко, емко, понятно!
И про обьяснения.....Ребята, вы же все из МФТИ..Феймана вспомните.....идеальное обьяснение непоняток по квантовой механике)) p.s. А вообще курс класс!! я попал в точку после 6 месячной специализации на курсере так же от МФТИ....Без нее на продвинутом потоке было бы нечего делать..или как попугай...без понимания бы делал((
а что за специализация? Дайте, пжл, ссылку
Какая отвратительная лекция.