[DeepLearning | видео 3] В чем на самом деле заключается метод обратного распространения?

Поделиться
HTML-код
  • Опубликовано: 2 янв 2025

Комментарии •

  • @МаксимГамалеев-х4х
    @МаксимГамалеев-х4х 4 года назад +81

    Как же классно что вы продолжаете делать переводы. Большое вам спасибо!

  • @limoshkamilk9887
    @limoshkamilk9887 Год назад +8

    Действительно, прекрасный перевод с очень замечательными и интересными занятиями. Как же все таки профессилналы могут просто объяснить. Огромная благодарность, спасибо за уроки ❤❤❤

  • @polinab7798
    @polinab7798 Год назад +1

    Какое толковое видео! Спасибо! На примере математического анализа мне вообще было не понятно.

  • @an.toshik
    @an.toshik 3 года назад +5

    Еще еще еще😍...прекрасные переводы...

  • @Hengst.
    @Hengst. 4 года назад +3

    Ура ! ! Продолжение! Завариваем чай!

    • @АртемШамсутдинов-н8н
      @АртемШамсутдинов-н8н 4 года назад

      Где? Киньте пожалуйста, у меня не отображается.

    • @ааа-ъ9и7ж
      @ааа-ъ9и7ж 2 месяца назад

      @@АртемШамсутдинов-н8н ruclips.net/video/rP_k8cpsNWY/видео.htmlsi=VHryyIDJWyknSgSJ если еще нужно

  • @ЕгпнПлрри
    @ЕгпнПлрри 7 месяцев назад +5

    у меня защита проекта в 10 классе благодаря вашем роликам думаю сдам на отлично upd: точно сказу завтра как сдал

    • @leva-ufa
      @leva-ufa 7 месяцев назад +2

      И как?

    • @dimachik8076
      @dimachik8076 6 месяцев назад +1

      Каааак? Интересно же ..😢

    • @jinsaw5129
      @jinsaw5129 5 месяцев назад

      Защитился?

    • @MrSoosOrig
      @MrSoosOrig 2 месяца назад +1

      Потеряли парня

  • @MDunaev
    @MDunaev 4 года назад +1

    Спасибо большое! Жду продолжения.

  • @Techn0man1ac
    @Techn0man1ac 4 года назад +6

    6:32 Я где-то в сети видел видео как несколько нейронов взаимодействуют друг с другом, так вот, они не создают устойчивые связи, а наоборот - постоянно меняют их. Так что да, пока что математическая "нейронка" далека от биологической.

    • @horlonangel
      @horlonangel 3 года назад +4

      Есть и такие нейронные сети. В них нейроны передвигаются, создают и разрывают соединения, пока учатся.

    • @krutoyinfo
      @krutoyinfo Год назад

      эти нейронные сети не аналог нейронов в мозгу

    • @keyos269
      @keyos269 11 месяцев назад

      ​@@horlonangelКак называется подобный принцип работы нейросетей, если не секрет?

  • @МаксимЮжанин-о8ш
    @МаксимЮжанин-о8ш 4 года назад +2

    Спасибо, ребята!

  • @nullthesis8271
    @nullthesis8271 4 года назад +7

    Thank you a lot! =) U are the best! =)

  • @rollocks9138
    @rollocks9138 Год назад +7

    Если кто-то тоже делал нейросеть для распознавания таких цифр, то напишите, пожалуйста, ваши гиперпараметры (батчи и мини-батчи тоже), метод активации нейрона и количество эпох, через которое вы получили более менее обученную нейросеть. Я для диплома делаю почти такую же нейросеть (там ещё латинские буквы) с нуля на C#, и мне бы хотелось с чем-то сравнить результаты обучения, что бы понять - обучение сделано правильно или нет.

    • @ПравильнойЖизни
      @ПравильнойЖизни Год назад

      Получилось ?

    • @rollocks9138
      @rollocks9138 Год назад +2

      @@ПравильнойЖизни У меня не было опыта в этой сфере, я взял нейросеть, как тему дипломного проекта. У нее получилась очень низкая точность, к тому же датасет не сбалансирован, хотя рисунки (сделал рисование на winfows forms) при достаточном обучении, иногда распознает.
      В общем, мне нужно больше опыта, а нейросети больше оптимизации в алгоритме обучения (например параллельные прохождения мини-батчей в нескольких потоках, но я пока хз как это сделать). Но защитить диплом на 5 получилось

    • @djdje75hbebd5kzoem
      @djdje75hbebd5kzoem Год назад

      ​@@rollocks9138 какой курс?

    • @rollocks9138
      @rollocks9138 Год назад +1

      @@djdje75hbebd5kzoem, в этом году закончил (колледж)

    • @rollocks9138
      @rollocks9138 Год назад

      То есть, в прошлом: 2023

  • @СашкаБелый-ч6м
    @СашкаБелый-ч6м 3 года назад +4

    Нужно ещё видео по нейронным сетям!!!

  • @МаксимПронь-ч8ч
    @МаксимПронь-ч8ч Год назад +1

    А каждый новый вес в векторе градиента вычисляется с помощью формулы: Wn = Wp - a * df/dWp, где
    Wn - обновленный вес,
    Wp - предыдущее значение веса,
    a - скорость спуска,
    df/dWp - наклон к екстремуму функции ошибки ?

  • @annaponomarova3472
    @annaponomarova3472 3 года назад +1

    вы лучший!!!!!!!!!!!!!!!

  • @АсельАртыкбаева-и1в
    @АсельАртыкбаева-и1в 9 месяцев назад

    Благодарю вас!

  • @keyos269
    @keyos269 11 месяцев назад +1

    Если мой вопрос кто-то видит, объясните пожалуйста, на основе чего я должен понять в каких корректировках нуждаются веса? Я не совсем понял из контекста.

    • @kryptodog1066
      @kryptodog1066 10 месяцев назад

      Как я понял чем ближе результат возрата к истине, тем ниже он требует смещение, а исходит нужно из данных полного прогона цифр, то от 1 до 9, если 8=8 а 2 = 1 то мы смещаем лишь одно значение нейрона. Наверное так, но тем слишком тяжкая чтоб я мог сказать точно😂

  • @АртемШамсутдинов-н8н
    @АртемШамсутдинов-н8н 4 года назад +15

    Круто! Почти всё понял, но всё-таки с тем, как метод обратного распространения определяет, что изменять, просто пока сложно переварить. Метод градиентного спуска - понял что делает, но не понял, как. Есть продолжения с этим же переводом (перевод супер!)? Или даже больше по поводу градиентного спуска, и как он делает требуемое? По кусочкам понятно, а в целом - не очень (но в целом про нс очень понятно, молодцы!).

    • @VitanXaos
      @VitanXaos 4 года назад +6

      ну так суть то я то же понял, я досконально не уловил)) привык просто разбираться досконально в принципах (код же не закодить "наобум")

    • @horlonangel
      @horlonangel 3 года назад +3

      @@VitanXaos такое впечатление, что это делается специально. Прочитал и просмотрел огромное количество материалла, но так и не понял как это работает досконально. Везде много воды (как и в этом видео), которую никто не замечает, ибо не использует это все на практике...

    • @tigdang
      @tigdang 2 года назад +1

      @@horlonangel просто конкретику надо искать на курсах. В курсере машин лёрнинг - там вот да, там конкретика. Просто на ютубе же всё научно-популярное же, нужно развлекать

    • @eugene_fed
      @eugene_fed 2 года назад +4

      @@tigdang конкретику вам даст матан - 5 курсов университета. если кажется, что нейронки - это просто, то это не так. внутри сильная математика, которую на пальцах в 4 20-минутных роликах не описать. хотите разораться "досконально" - нужно получать полноценное высшее образование. вопрос только зачем? pytorch, keras и т.п. для того и разработаны, чтобы в такие дебри не лезть. а информации из этой серии роликов должно быть достаточно, чтобы работать с этими готовыми библиотеками.

    • @Anddddrrr
      @Anddddrrr 5 месяцев назад

      @@eugene_fedда хотя бы затем, чтобы уметь реально работать с материалом и быть профессионалом, а не типичным болванчиком с курсов, который за месяц изучил курс и хочет зарплату 300к.

  • @Ciber-FanSistems
    @Ciber-FanSistems 3 года назад

    Нужен идиальныйй вес!!! ИИ Всем Будеет Счастье!!!

  • @kennyaleasta
    @kennyaleasta Год назад +3

    теоретически все понятно но вот как это может выглядеть в коде я не представляю

  • @McCosmo777
    @McCosmo777 4 года назад

    Привет с Пикабу.
    Подписался, сейчас смотрю ваши переводы! Первая лекция на старте.

  • @MairanYT
    @MairanYT 10 месяцев назад

    А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?

  • @СашаГурчак
    @СашаГурчак 4 года назад +5

    Добавьте, пожалуйста, ссылку на патреон

    • @bin5460
      @bin5460 3 года назад

      В описании оригинальное видео (это перевод), там найдешь ссылку.

    • @СашаГурчак
      @СашаГурчак 3 года назад

      @@bin5460 Спасибо!

  • @cesarion161
    @cesarion161 3 года назад +1

    Подскажите пожалуйста как делается подобная визуализация на видео? Это в After Effects сделано?

    • @O5MO
      @O5MO 3 года назад +2

      Это озвучка, про оригинал можете спросить у 3blue1brown.

    • @llllNEOllllchannel
      @llllNEOllllchannel 3 года назад +1

      библиотека в python

  • @toxanbi
    @toxanbi 2 года назад +1

    Самый большой вопрос: как вам удалось убрать голос оригинального автора?

  • @alex_kalinichenko
    @alex_kalinichenko 3 года назад

    Супер!!!

  • @YaShoom
    @YaShoom 4 года назад +3

    Ничего не понял, очень много неточностей (не в переводе, а в объяснении первого автора видео).

  • @Chechnya_9595
    @Chechnya_9595 Год назад

    Automatic HeadShot Accuracy Only!!! PUBG и Config

  • @Mrsashafr
    @Mrsashafr 4 года назад

    великолепно!
    Добавте PayPal, пожалуйста,

  • @iq40
    @iq40 4 года назад +1

    очень полезно!

  • @avazart614
    @avazart614 4 года назад

    А переводы предыдущих видео есть?

  • @RasulAbuMuhammadAmin
    @RasulAbuMuhammadAmin 3 года назад +2

    Красивый графон, но жвачка вообще

  • @user---------
    @user--------- 10 месяцев назад +7

    НИXPEHA НЕ ПОНЯТНО. 😢

    • @dimachik8076
      @dimachik8076 6 месяцев назад +1

      Но очень интересно 😂

  • @Ciber-FanSistems
    @Ciber-FanSistems 3 года назад

    21000!!!!

  • @Fakster_Bakster
    @Fakster_Bakster 4 года назад

    Совок много думал о космосе и где он теперь? А вы много думаете о нейронах.

    • @oshyo2000
      @oshyo2000 4 года назад +1

      Хмм... попахивает нацизмом(я нац)

    • @furry8290
      @furry8290 4 года назад +1

      Совок остался забытым в песочнице(

    • @pavel3510-v6c
      @pavel3510-v6c Год назад +2

      аргумент уровня - Эйнштейн много думал... и где он теперь?

    • @Fakster_Bakster
      @Fakster_Bakster Год назад

      @@pavel3510-v6c Вообще-то, Эйнштейн теперь во всём.

    • @sanemanru2920
      @sanemanru2920 Год назад

      @@Fakster_Bakster тоже подушню - вы сначала мотивировали тем что объекта больше нет, а затем перешли на то что не смотря на то что больше объекта нет - он оставил значимый след. дак СССР тоже след оставил. и очевидно что СССР-а нет не из-за того что там "думали о космосе"