Лекция. Полносвязная нейронная сеть
HTML-код
- Опубликовано: 8 окт 2021
- Занятие ведёт Юрий Яровиков
Ссылка на материалы занятия: docs.google.com/presentation/...
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Не хватало такой лекции в прошлом запуске, спасибо!
а вот и она)
Юрий, спасибо! Очень понятные и чистые лекции, по-человечески, без ненужного :)
Спасибо! Отличный лектор.
мой любимый лектор, спасибо!
33:22 - опечатка в матрице (в правиле производной композиции). В правом верхнем углу должен быть вес w_21, а не w_22.
Очень полезная лекция! Спасибо
класс.
Думаю, удобнее записывать произведение якобианов в обратном порядке, чтобы не пришлось использовать транспонирование
Вероятность это тоже мера 😂
На 33:40 ошибка в матрице w: верхний элемент справа w21, а не w22
Не понял, что в конце имел в виде лектор. Но не проще объяснить, что если F = Sigmoid(y) векторно, то dF/dy = F •(1-F).T ? Где F вектор-столбец или что-то я не понял?
Нехороший слайд на 25': раньше мы через x обозначали вектор входов первого скрытого слоя, а тут они распределены по всем слоям.
9:25 Размерность b не k на 1?
10:15 W_3 разве размерностью не 10 на 100?
Да, оба раза вы правы. 9:25 это косяк презы, а вот 10:15 действительно правильно говорить как вы:) Строчек столько же сколько нейронов на выходе
Ку
сложно
dz / dx0 нам в принципе не нужен