#26 Junior Data Scientist | РЕАЛЬНОЕ СОБЕСЕДОВАНИЕ | Ответы

Поделиться
HTML-код
  • Опубликовано: 15 ноя 2024

Комментарии • 44

  • @ДенисАнаньин-т2ъ
    @ДенисАнаньин-т2ъ Месяц назад +23

    Примеры для recall precision перепутаны. Должно быть для ловли теров - recall (найти максимум) , для казни - precision (мин ошибка казни)
    Ещё момент, насколько помню, веса классов умножаются на функцию потерь при обучении. А не пороговое значение двигают.

    • @arti5946
      @arti5946 Месяц назад +1

      Градиент умножается на лернинг рэйт, получается шаг, и из весов вычитается шаг

  • @Esseker
    @Esseker Месяц назад +5

    Пазве в precision и recall не ошибка? Они, по-моему, должны быть наоборот, разве нет?

  • @АрсенийПарфенов-щ8е
    @АрсенийПарфенов-щ8е 15 часов назад

    Я думаю, что невозможно оптимизировать в классическом виде по порогу вероятности в виду невозможности взятия градиента, так как разделение происходит дискретно, хотя уже потом, в подборе гиперпараметров, можно было бы придумать, как подобрать порог

  • @carnap355
    @carnap355 19 дней назад

    10:54 можно, градиент 10 - 9 относительно 9 равен -1. Она скорее реже используется потому что она не выпуклая

  • @zagirzainudinov1524
    @zagirzainudinov1524 Месяц назад

    Вадим, а когда перехожу по ссылке на полный собес человека, я встречаю ментора из сервиса для менторов, он точно искал работу? Потому что когда я у него консультацию брал, он с моей задачей не справился. Могу написать ему с вопросом, если что, но лучше ответь ты

  • @arti5946
    @arti5946 Месяц назад +2

    1:11 в сайкет лерне тоже можно сделать многосолойный перцептрон для регрессии и классификации

  • @elenagavrilova3109
    @elenagavrilova3109 28 дней назад

    не совсем понимаю, все-таки мл алгоритмы и нейронные сети это, как бы разные вещи. или одним или другим заниматься, все в одном - голова опухнет и зп тогда в два раза должна быть больше.
    это, чтобы общий кругозор выянсить спрашивают?

    • @gernar228
      @gernar228  26 дней назад

      Нейронные сети это разновидность мл алгоритмов, и это направление настолько развилось, что можно выделить их в отдельную область мл
      В бизнесе чаще всего используют классические (не нейронки) методы мл. И самым мощным из классических считается градиентный бустинг. Дальше по мощности уже нейронные сети

    • @elenagavrilova3109
      @elenagavrilova3109 26 дней назад

      @@gernar228 это понятно, но если в основном регрессионной моделью пользоваться и прогнозировать 'цены на жилье' , то как в голове держать всякие CNN, RNN, RAG и GPT и тд и тп. Все меняется с такой скоростью, что нужно каждый день читать документацию и следить за выходом обновлений. Или там или тут, как говорится. Я об этом.

  • @XR0M
    @XR0M Месяц назад

    А есть какая-нибудь статистика по вкатыванию? С каким именно бэкграундом и работают ли они сейчас?

    • @gernar228
      @gernar228  Месяц назад

      Есть конечно. Посмотри, например, видео ruclips.net/video/IigFVLyLbhw/видео.html -- там прямо живой пример человека который вкатился. И куча других кейсов. Я бы даже сказал так: кто старается, вкатывается 100%

  • @bysedova
    @bysedova Месяц назад +14

    С такими знаниями мне бы было бы стыдно получать 300к 😅

    • @sb9185
      @sb9185 Месяц назад

      Незачем )

    • @alevadnaya
      @alevadnaya 18 дней назад

      Только 500?😊

  • @Landgraf132
    @Landgraf132 Месяц назад

    Ого, мне такие вопросы задавали на мидл+ (а еще по докеру, подману и куче инструментов, про которые я первый раз слышал(

  • @kobamonkey6739
    @kobamonkey6739 Месяц назад

    Ребят, а где найти гайд с проектами, который промелькнул на кадре 1:26

  • @surrrogatehuman7653
    @surrrogatehuman7653 Месяц назад +1

    Вадим ты кажется перепутал в описании пресижн и реколла, ну и в пример ошибся

    • @gernar228
      @gernar228  Месяц назад +1

      Да какая разница

  • @RibaKit-d7c
    @RibaKit-d7c Месяц назад +3

    Собес на джуна который парень завалил, но следующий был на мидла/сеньера на 300к который закончился офером:) Самому не смешно?

    • @gernar228
      @gernar228  Месяц назад

      Это на мидла собес, просто парень джун

    • @RibaKit-d7c
      @RibaKit-d7c Месяц назад +5

      ​@@gernar228 да жаль только что в превью ролика написано "разбор собеса на джуна"

    • @alevadnaya
      @alevadnaya 18 дней назад

      Это нормально в it

  • @Asadullinn
    @Asadullinn Месяц назад

    Вадим, ждём выпуск про Питер, у меня кент там снимался

    • @mandarinoch_Ka
      @mandarinoch_Ka Месяц назад

      надеюсь кент не девушка, хавзхх

  • @ProgIv
    @ProgIv Месяц назад

    А у тебя есть видео собеса на ml?

    • @gernar228
      @gernar228  Месяц назад

      это и есть ML, на канале много ещё собесов по мл

  • @rkpstam
    @rkpstam Месяц назад +1

    4:34 - повторяешься))

  • @CrazyElf1971
    @CrazyElf1971 Месяц назад

    Да вроде можно и метрику ROC-AUC оптимизировать, просто это очень накладно, только поэтому этого не делают.

  • @wad881988
    @wad881988 Месяц назад

    Не согласен насчет того, что изменение весов классов равносильно изменению порога отсечения. Веса классов работают во время обучения модели, т.к. докидывают больший лосс за ошибку на объекте из класса с большим весом, а изменение порога отсечения это уже построцессинг.
    И не факт, что изменением порога отсечения можно скомпенсировать дисбаланс классов. Вернее в идеальном случае, когда ROC-AUC на тестовых данных близок к единице, а значит объекты упорядочены моделью почти идеально, это будет работать, но в общем случае нет.

    • @gernar228
      @gernar228  Месяц назад

      Можешь на практике убедиться

  • @ИванИваныч-л4э
    @ИванИваныч-л4э Месяц назад +5

    Так джун или миддл? 🤔

  • @valerii-stoenko
    @valerii-stoenko Месяц назад +2

    Боже, такой слабый чел и получил оффер в 300к) да-да 😂 хотя какие еще сказки ожидать от чела, у которого модель выдает вероятности в predict_proba - кринж

    • @gernar228
      @gernar228  Месяц назад

      А что она выдает? 🤯

    • @valerii-stoenko
      @valerii-stoenko Месяц назад

      @@gernar228 значения, которые надо откалибровать, чтобы они являлись вероятностями

    • @near_youroman3355
      @near_youroman3355 Месяц назад

      @@gernar228чтобы она выдала вероятности в математическом смысле нужно использовать изотоническую регрессию после предикт пробы

    • @valerii-stoenko
      @valerii-stoenko Месяц назад +1

      @@gernar228 чел, если ты не знаешь за калибровку, то может не имеет смысла пытаться в ментора/учителя и бросить заниматься обскурантизмом

  • @jowiry3044
    @jowiry3044 Месяц назад +1

    Опять одни вопросики, ну даже если ответишь на всё правильно тебя не возьмут, ты должен штуки 4 задачи решить в лайве, это минимум. Собес уровня детского сада, вопросы гуглятся за секунды и учатся тоже, только на одних ответах далеко не уедешь

    • @Esseker
      @Esseker Месяц назад

      @@jowiry3044 вранье

    • @jowiry3044
      @jowiry3044 Месяц назад

      @@Esseker Вы хотя бы 1 собеседование проходили?

    • @Esseker
      @Esseker Месяц назад

      @@jowiry3044 само собой

    • @jowiry3044
      @jowiry3044 Месяц назад

      @@Esseker Не поверю в жизни что вас только на вопросики поспрашивали, причём в DS ещё

  • @Амир-д5р
    @Амир-д5р Месяц назад

    Давай бэкенд