Лекция. Полносвязная нейронная сеть

Поделиться
HTML-код
  • Опубликовано: 8 окт 2021
  • Занятие ведёт Юрий Яровиков
    Ссылка на материалы занятия: docs.google.com/presentation/...
    ---
    Deep Learning School при ФПМИ МФТИ
    Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
    За нашими новостями можно следить здесь:
    Наш канал в TG: t.me/deep_learning_school_news
    Официальный сайт: dls.samcs.ru/ru/
    Официальная группа ВК: dlschool_mipt
    Github-репозиторий: github.com/DLSchool/dlschool
    Поддержать канал можно на Boosty: boosty.to/deeplearningschool
    ФПМИ МФТИ
    Официальный сайт: mipt.ru/education/departments...
    Магистратура: mipt.ru/education/departments...
    Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
    Онлайн-магистратура "Цифровая экономика": digec.online/
    Лаборатории ФПМИ: mipt.ru/education/departments...

Комментарии • 19

  • @wisedoctor1016
    @wisedoctor1016 2 года назад +9

    Не хватало такой лекции в прошлом запуске, спасибо!

  • @artemgolomolzin1822
    @artemgolomolzin1822 Год назад +1

    Юрий, спасибо! Очень понятные и чистые лекции, по-человечески, без ненужного :)

  • @amogus_bebra_228
    @amogus_bebra_228 2 года назад +3

    Спасибо! Отличный лектор.

  • @maksimlitvinov.9521
    @maksimlitvinov.9521 11 месяцев назад

    мой любимый лектор, спасибо!

  • @vitaliibardichev4691
    @vitaliibardichev4691 2 года назад +6

    33:22 - опечатка в матрице (в правиле производной композиции). В правом верхнем углу должен быть вес w_21, а не w_22.

  • @user-ov4yk4cx2t
    @user-ov4yk4cx2t 9 месяцев назад

    Очень полезная лекция! Спасибо

  • @user-cu2wj6zt2o
    @user-cu2wj6zt2o 2 года назад +4

    класс.

  • @doctorslash3922
    @doctorslash3922 2 года назад +1

    Думаю, удобнее записывать произведение якобианов в обратном порядке, чтобы не пришлось использовать транспонирование

  • @user-zd6sf8zo5y
    @user-zd6sf8zo5y 9 месяцев назад +2

    Вероятность это тоже мера 😂

  • @tedwinkler9861
    @tedwinkler9861 Год назад

    На 33:40 ошибка в матрице w: верхний элемент справа w21, а не w22

  • @oanovitskij
    @oanovitskij 2 года назад

    Не понял, что в конце имел в виде лектор. Но не проще объяснить, что если F = Sigmoid(y) векторно, то dF/dy = F •(1-F).T ? Где F вектор-столбец или что-то я не понял?

  • @alexanderskusnov5119
    @alexanderskusnov5119 Год назад

    Нехороший слайд на 25': раньше мы через x обозначали вектор входов первого скрытого слоя, а тут они распределены по всем слоям.

  • @thecrazymage
    @thecrazymage 2 года назад +4

    9:25 Размерность b не k на 1?
    10:15 W_3 разве размерностью не 10 на 100?

    • @yuryyarovikov3323
      @yuryyarovikov3323 2 года назад +7

      Да, оба раза вы правы. 9:25 это косяк презы, а вот 10:15 действительно правильно говорить как вы:) Строчек столько же сколько нейронов на выходе

  • @axelotLI
    @axelotLI 2 года назад

    Ку

  • @user-dp9gi1vg8r
    @user-dp9gi1vg8r Год назад

    сложно

  • @user-zd6sf8zo5y
    @user-zd6sf8zo5y 9 месяцев назад

    dz / dx0 нам в принципе не нужен