Введение в нейронные сети. Часть 2. Механизм обратного распространения ошибки
HTML-код
- Опубликовано: 7 окт 2024
- Занятие ведёт Радослав Нейчев
---
Серия "Введение в нейронные сети"
Видео 1: ruclips.net/user/vi...
Видео 2: ruclips.net/user/vi...
Видео 3: ruclips.net/user/vi...
Слайды презентации: drive.google.c...
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_lear...
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschoo...
Github-репозиторий: github.com/DLS...
Поддержать канал можно на Boosty: boosty.to/deep...
ФПМИ МФТИ
Официальный сайт: mipt.ru/educat...
Магистратура: mipt.ru/educat...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/educat...
Очень классный лектор, доступно объясняет.
Правда да?
Это не первая лекция по НС, но опять много нюансов подчеркнул! Очень четкие объяснения!
Спасибо, это очень понятно.
да очень что ваще ппц
Нектар для моих ушей! спасибо, что не Дмитрий Садыков про нейронки рассказывает
Оченень хорошо заходит. По крайней мере мне хорошо зашли те моменты которые были недопоняты в нейронках ранее. А именно смысл зачем и что делается хорошо раскрыт в механизме обратного распространения ошибки.
Совет: непривычно для сигмоиды сразу идти с конца в начало, лучше сначала убедиться и пройтись по зеленым числам от начала в конец, так вы поймете граф вычислений
для меня это было проблемой, если идти с конца
Всё же не хватает курсов совсем для тупых.
Я вошёл в нейронки с нахрапа, и большая часть статей, книг и лекций не предназначена для таких людей.
Конечно понятно, что объяснять весь материал, начиная с детского сада, это глупо. Но хотябы ссылки оставлять, на хорошие вводные статьи, былобы очень удобно, для конечных слушателей
А VGG всё же 14-ого года
Не подскажете, где можно посмотреть про SVM? В лекции многократно упоминается, но в курсе еще не было.
Я читал в книге hands on machine learning with skykit-learn. И в курсе ODS от yorko
Как найти упомянутую методичку от Стэнфорда?
Ты с кем сейчас разговаривал?
Профессор, у вас минус потерялся в формуле сигмоиды
Та же ошибка, что и у других лекторов: почему веса "дубль-вэ" (к "дабл-ю" пока не привык) называют "омега"?
Омега - это вектор из всех коэф-в дубль вэ
Hardcore
Очень быстро излагае.
Это видео должно было называться "как отпугнуть всех от нейросетей"
Очень плохой рассказ, не может такое видео называться "введение", есть более простые объяснения и от этого более понятные, особенно если речь идёт о видео с названием "введение"