Лекция. Регуляризация в Deep Learning

Поделиться
HTML-код
  • Опубликовано: 30 янв 2025

Комментарии • 23

  • @ilyshi
    @ilyshi 4 года назад +50

    Первый лектор, которого не нужно ставить на х1,25 или х1.5, не э-кает, не мэ-кает. Находка!

  • @tedwinkler9861
    @tedwinkler9861 2 года назад +7

    Отличный лектор. Отличная лекция. Спасибо.

  • @АндрейКениг-б6д
    @АндрейКениг-б6д 6 месяцев назад

    Отличный преподаватель, отличная лекция, большое спасибо!

  • @СемёнКольцов-о1ы
    @СемёнКольцов-о1ы 3 года назад +6

    Прямо очень хорошо, спасибо!

  • @ivanaaa6049
    @ivanaaa6049 3 года назад +8

    Первый лектор на Физтехе (в Deep Learning School), который ОБЪЯСНЯЕТ данные. Остальные тупо читают по бумажке бу- бу- бу.
    Регуляризация 18:10

  • @MikhailKatulin
    @MikhailKatulin 3 года назад +6

    Не понятно, почему на 25 слайде нормированные данные повёрнуты (3-й график)
    А по поводу dropOut - про кухню и программистов не очень понятно, мне больше понравилось объяснение из книги "Грокаем глубокое обучение" там про вилку и форму для вилки было. Приведу вольную интерпретация как я понял: Когда мы выбрасываем какие-то нейроны мы уменьшаем нашу сеть, такая сеть начинает предсказывать менее точно, зато она менее склонна к переобучению. Так как выключаются каждый раз разные нейроны, всю сеть можно интерпретировать как набор "уменьшенных" сетей, а вся сеть - что-то вроде комбинации предсказаний этих сетей и это предсказание будет гораздо более точным. Мне тут понятнее воспринимать результат работы такой сети как результат центральной предельной теоремы - среднее предсказаний маленьких сеток будет близок к истинному предсказанию.

    • @artemgolomolzin1822
      @artemgolomolzin1822 Год назад

      Попробуйте мысленно подвинуть каждую точку второго графика ближе к нулю. Оно само повернется)

  • @АндрейКениг-б6д
    @АндрейКениг-б6д 6 месяцев назад

    Смотрел Ваш обучающий курс по ML на teach-in, там Вы говорите, что есть математическая статья 2019 года, в которой объясняется, почему работает батч нормализация. Можете дать ссылку на нее, пожалуйста?

  • @vadimosipov2147
    @vadimosipov2147 4 года назад

    18:19. Для Elastic Net, возможно, не хватает (1 - b) для слагаемого L1

  • @АртемСавельев-о8е

    На 12:29 ошибка. Если мы говорим про экспоненциальное сглаживание, то справа должны быть значения с предыдущего шага.

  • @troman89
    @troman89 3 года назад +3

    что за писей? 5:11

    • @dennagato
      @dennagato 3 года назад +2

      PCA

    • @alexanderskusnov5119
      @alexanderskusnov5119 2 года назад +2

      Анализ главных компонентов (principal component analysis)

  • @nikolaikrot8516
    @nikolaikrot8516 4 года назад

    (Batch Normalization на 11:30) Есть ли какая-нибудь разница между операторами = и := или это просто выпендрёж?

    • @ОлегРыжиков-щ5г
      @ОлегРыжиков-щ5г 4 года назад +1

      В ряде языков программирования оператор «:=» введён для того, чтобы отличать присвоение от сравнения. Иногда его используют и математики, чтобы подчеркнуть факт изменения значения ранее введённой величины. В данном случае он уместен, так как это не уравнения, а именно присвоение параметрам среднего и дисперсии новых значений, которые зависят в том числе и от их текущих значений, указанных в правой части.

    • @alexanderskusnov5119
      @alexanderskusnov5119 2 года назад

      ещё можно рисовать левую стрелку:
      x

  • @ОлегРыжиков-щ5г
    @ОлегРыжиков-щ5г 4 года назад +3

    Трюки с отражением и изменением яркости/контрастности исходных данных выглядят как подмешивание искусственных данных к реальным и вмешательство человеческого труда (причём не самого интеллектуального) в процесс машинного обучения, что внушает некоторые сомнения в перспективности данного подхода. Ведь, как верно подмечено на 27:00, любому человеку и даже животному и так понятно, что зеркальный котик - это тот же котик. Не пора ли учёным придумать такие пространства, в которых любые слегка повёрнутые и вытянутые по параметрам изображения будут изначально эквивалентны исходным, чтобы не тратить время на упражнения с аугментацией?

    • @boriswithrazor6992
      @boriswithrazor6992 3 года назад

      И как вы это себе представляете?

    • @HavaN5rus
      @HavaN5rus 2 года назад +1

      да такая уже есть фигня. Инвариантное представление картинок. Как-то так. Я не помню точно названия

  • @vadimosipov2147
    @vadimosipov2147 4 года назад

    8:40. Вывод неверный. Второй слой оперся на стену, понял, что шпаклевка плохая, сказал мастеру переделать, мастер (первый слой) переделал под нужды второго слоя. Второй слой должен быть доволен. Требования учтены, все счастливы.

  • @сергейлукин-з1ъ
    @сергейлукин-з1ъ 2 года назад +2

    лекция классная, но жопу перед камерой чесать не стоит, наверное