Примеры для recall precision перепутаны. Должно быть для ловли теров - recall (найти максимум) , для казни - precision (мин ошибка казни) Ещё момент, насколько помню, веса классов умножаются на функцию потерь при обучении. А не пороговое значение двигают.
Я думаю, что невозможно оптимизировать в классическом виде по порогу вероятности в виду невозможности взятия градиента, так как разделение происходит дискретно, хотя уже потом, в подборе гиперпараметров, можно было бы придумать, как подобрать порог
Вадим, а когда перехожу по ссылке на полный собес человека, я встречаю ментора из сервиса для менторов, он точно искал работу? Потому что когда я у него консультацию брал, он с моей задачей не справился. Могу написать ему с вопросом, если что, но лучше ответь ты
не совсем понимаю, все-таки мл алгоритмы и нейронные сети это, как бы разные вещи. или одним или другим заниматься, все в одном - голова опухнет и зп тогда в два раза должна быть больше. это, чтобы общий кругозор выянсить спрашивают?
Нейронные сети это разновидность мл алгоритмов, и это направление настолько развилось, что можно выделить их в отдельную область мл В бизнесе чаще всего используют классические (не нейронки) методы мл. И самым мощным из классических считается градиентный бустинг. Дальше по мощности уже нейронные сети
@@gernar228 это понятно, но если в основном регрессионной моделью пользоваться и прогнозировать 'цены на жилье' , то как в голове держать всякие CNN, RNN, RAG и GPT и тд и тп. Все меняется с такой скоростью, что нужно каждый день читать документацию и следить за выходом обновлений. Или там или тут, как говорится. Я об этом.
Есть конечно. Посмотри, например, видео ruclips.net/video/IigFVLyLbhw/видео.html -- там прямо живой пример человека который вкатился. И куча других кейсов. Я бы даже сказал так: кто старается, вкатывается 100%
Не согласен насчет того, что изменение весов классов равносильно изменению порога отсечения. Веса классов работают во время обучения модели, т.к. докидывают больший лосс за ошибку на объекте из класса с большим весом, а изменение порога отсечения это уже построцессинг. И не факт, что изменением порога отсечения можно скомпенсировать дисбаланс классов. Вернее в идеальном случае, когда ROC-AUC на тестовых данных близок к единице, а значит объекты упорядочены моделью почти идеально, это будет работать, но в общем случае нет.
Боже, такой слабый чел и получил оффер в 300к) да-да 😂 хотя какие еще сказки ожидать от чела, у которого модель выдает вероятности в predict_proba - кринж
Опять одни вопросики, ну даже если ответишь на всё правильно тебя не возьмут, ты должен штуки 4 задачи решить в лайве, это минимум. Собес уровня детского сада, вопросы гуглятся за секунды и учатся тоже, только на одних ответах далеко не уедешь
Примеры для recall precision перепутаны. Должно быть для ловли теров - recall (найти максимум) , для казни - precision (мин ошибка казни)
Ещё момент, насколько помню, веса классов умножаются на функцию потерь при обучении. А не пороговое значение двигают.
Градиент умножается на лернинг рэйт, получается шаг, и из весов вычитается шаг
Пазве в precision и recall не ошибка? Они, по-моему, должны быть наоборот, разве нет?
Я думаю, что невозможно оптимизировать в классическом виде по порогу вероятности в виду невозможности взятия градиента, так как разделение происходит дискретно, хотя уже потом, в подборе гиперпараметров, можно было бы придумать, как подобрать порог
10:54 можно, градиент 10 - 9 относительно 9 равен -1. Она скорее реже используется потому что она не выпуклая
Вадим, а когда перехожу по ссылке на полный собес человека, я встречаю ментора из сервиса для менторов, он точно искал работу? Потому что когда я у него консультацию брал, он с моей задачей не справился. Могу написать ему с вопросом, если что, но лучше ответь ты
1:11 в сайкет лерне тоже можно сделать многосолойный перцептрон для регрессии и классификации
не совсем понимаю, все-таки мл алгоритмы и нейронные сети это, как бы разные вещи. или одним или другим заниматься, все в одном - голова опухнет и зп тогда в два раза должна быть больше.
это, чтобы общий кругозор выянсить спрашивают?
Нейронные сети это разновидность мл алгоритмов, и это направление настолько развилось, что можно выделить их в отдельную область мл
В бизнесе чаще всего используют классические (не нейронки) методы мл. И самым мощным из классических считается градиентный бустинг. Дальше по мощности уже нейронные сети
@@gernar228 это понятно, но если в основном регрессионной моделью пользоваться и прогнозировать 'цены на жилье' , то как в голове держать всякие CNN, RNN, RAG и GPT и тд и тп. Все меняется с такой скоростью, что нужно каждый день читать документацию и следить за выходом обновлений. Или там или тут, как говорится. Я об этом.
А есть какая-нибудь статистика по вкатыванию? С каким именно бэкграундом и работают ли они сейчас?
Есть конечно. Посмотри, например, видео ruclips.net/video/IigFVLyLbhw/видео.html -- там прямо живой пример человека который вкатился. И куча других кейсов. Я бы даже сказал так: кто старается, вкатывается 100%
С такими знаниями мне бы было бы стыдно получать 300к 😅
Незачем )
Только 500?😊
Ого, мне такие вопросы задавали на мидл+ (а еще по докеру, подману и куче инструментов, про которые я первый раз слышал(
Ребят, а где найти гайд с проектами, который промелькнул на кадре 1:26
Вадим ты кажется перепутал в описании пресижн и реколла, ну и в пример ошибся
Да какая разница
Собес на джуна который парень завалил, но следующий был на мидла/сеньера на 300к который закончился офером:) Самому не смешно?
Это на мидла собес, просто парень джун
@@gernar228 да жаль только что в превью ролика написано "разбор собеса на джуна"
Это нормально в it
Вадим, ждём выпуск про Питер, у меня кент там снимался
надеюсь кент не девушка, хавзхх
А у тебя есть видео собеса на ml?
это и есть ML, на канале много ещё собесов по мл
4:34 - повторяешься))
Да вроде можно и метрику ROC-AUC оптимизировать, просто это очень накладно, только поэтому этого не делают.
Не согласен насчет того, что изменение весов классов равносильно изменению порога отсечения. Веса классов работают во время обучения модели, т.к. докидывают больший лосс за ошибку на объекте из класса с большим весом, а изменение порога отсечения это уже построцессинг.
И не факт, что изменением порога отсечения можно скомпенсировать дисбаланс классов. Вернее в идеальном случае, когда ROC-AUC на тестовых данных близок к единице, а значит объекты упорядочены моделью почти идеально, это будет работать, но в общем случае нет.
Можешь на практике убедиться
Так джун или миддл? 🤔
Джун шредингера
Боже, такой слабый чел и получил оффер в 300к) да-да 😂 хотя какие еще сказки ожидать от чела, у которого модель выдает вероятности в predict_proba - кринж
А что она выдает? 🤯
@@gernar228 значения, которые надо откалибровать, чтобы они являлись вероятностями
@@gernar228чтобы она выдала вероятности в математическом смысле нужно использовать изотоническую регрессию после предикт пробы
@@gernar228 чел, если ты не знаешь за калибровку, то может не имеет смысла пытаться в ментора/учителя и бросить заниматься обскурантизмом
Опять одни вопросики, ну даже если ответишь на всё правильно тебя не возьмут, ты должен штуки 4 задачи решить в лайве, это минимум. Собес уровня детского сада, вопросы гуглятся за секунды и учатся тоже, только на одних ответах далеко не уедешь
@@jowiry3044 вранье
@@Esseker Вы хотя бы 1 собеседование проходили?
@@jowiry3044 само собой
@@Esseker Не поверю в жизни что вас только на вопросики поспрашивали, причём в DS ещё
Давай бэкенд