Лекция. Рекуррентная нейронная сеть

Поделиться
HTML-код
  • Опубликовано: 26 ноя 2024

Комментарии • 23

  • @natalias8919
    @natalias8919 11 месяцев назад +10

    Самое лучшее объяснение. Отличная методическая подача. Брольшое спасибо!

  • @darkfate3674
    @darkfate3674 8 месяцев назад +4

    Лучшая. Очень круто и понятно. Особенно, когда показали картинку со всеми весами W,U,V прям мурашки пошли от того, что вот именно это и надо для понимания

  • @арбузер
    @арбузер Год назад +13

    Какая вы красивая! Лекция огонь! спасибо ❤❤

  • @Igor.E
    @Igor.E 4 месяца назад +1

    Респект Татьяне! Просто идеальная подача. Всё кристально ясно, никаких лакун. Спасибо!

  • @АняВолченкова
    @АняВолченкова 9 месяцев назад +2

    Большое спасибо за объяснение!

  • @vadimdorokhov8375
    @vadimdorokhov8375 Год назад +3

    Наконец-то понятное объяснение, спасибо большое.

  • @bigtown2012
    @bigtown2012 9 месяцев назад +1

    Супер ролик, в 16 минут полное понимание структуры.

  • @ilyastd314
    @ilyastd314 Год назад +2

    Отличная и понятная лекция на сложную тему! Спасибо 😊

  • @rudikshul25
    @rudikshul25 11 месяцев назад

    Thanks for explanation !

  • @gigaprose
    @gigaprose Год назад +3

    отличное объяснение, спасибо!

    • @Геннадий-й6п3р
      @Геннадий-й6п3р Год назад

      Не забудь родить ребёнка. ❤😊

    • @gigaprose
      @gigaprose Год назад

      @@Геннадий-й6п3р у меня уже достаточно детей, но к чему здесь это и с переходом на личности?

    • @RockrideR6666
      @RockrideR6666 Год назад

      @@gigaproseполагаю, что имелось в виду пожелание передавать дальше ген людей, которые способны разбираться с рекуррентными сетями)

  • @kuroles469
    @kuroles469 9 месяцев назад +2

    Спасибо за лекцию! Однако на слайде 9:18 заметил неточность в указанной размерности матрицы W. Если бы матрица весов была бы n×k (как указано на слайде), то выражение WX не имело бы решения, так как количество столбцов матрицы W не совпало бы с количеством строк вектора X. Мне кажется, что верная размерность матрицы W - это k×n, так как только в этом случае возможно осуществить перемножение.

    • @hegzom3747
      @hegzom3747 8 месяцев назад

      Тоже это заметил)

    • @vinavolo932
      @vinavolo932 7 месяцев назад

      Мне кажется в этом моменте подразумевалась W транспонированная, при составлении видимо забыли написать.

  • @YbisZX
    @YbisZX 7 месяцев назад +1

    Не понятно, почему слой y считается неотъемлемой частью рекуррентного слоя. Это же просто полносвязный слой приставленный к слою h. Зачем ему быть того же размера k, он же может быть любого размера? Почему нельзя обойтись без него вообще и подавать выход h сразу на следующий рекуррентный слой?

    • @DeepLearningSchool
      @DeepLearningSchool  7 месяцев назад

      Можно, так и делают, на самом деле. Здесь так, чтобы показать идею перехода от полносвязного слоя к RNN. Но вы правы, что стоило бы добавить это в лекцию

  • @АлексКалашников-у6н

    Че -то не много интереса проявлено к лекции? Видимо люди кто занимается нейросетями еще слабо представляют важность рекуррентных сетей! А а а ... ну да они же сложнее. Хотя это первые шаги к коммуникативным сетям. Это же не кому не интересно!😆

    • @channel_SV
      @channel_SV Год назад +4

      Вы нейросеть?

  • @ihornikulin1061
    @ihornikulin1061 Год назад

    Девочка молодец. Но скучно слишком. Не способна завлечь. Просто бу-бу-бу. Надеюсь она будет работать над этим.

    • @Zeyn_77
      @Zeyn_77 Год назад +18

      Иди смотри мистера биста если тебе динамика нужна. Лучшего объяснения, чем это, я ещё не видел