Лучшая. Очень круто и понятно. Особенно, когда показали картинку со всеми весами W,U,V прям мурашки пошли от того, что вот именно это и надо для понимания
Спасибо за лекцию! Однако на слайде 9:18 заметил неточность в указанной размерности матрицы W. Если бы матрица весов была бы n×k (как указано на слайде), то выражение WX не имело бы решения, так как количество столбцов матрицы W не совпало бы с количеством строк вектора X. Мне кажется, что верная размерность матрицы W - это k×n, так как только в этом случае возможно осуществить перемножение.
Не понятно, почему слой y считается неотъемлемой частью рекуррентного слоя. Это же просто полносвязный слой приставленный к слою h. Зачем ему быть того же размера k, он же может быть любого размера? Почему нельзя обойтись без него вообще и подавать выход h сразу на следующий рекуррентный слой?
Можно, так и делают, на самом деле. Здесь так, чтобы показать идею перехода от полносвязного слоя к RNN. Но вы правы, что стоило бы добавить это в лекцию
Че -то не много интереса проявлено к лекции? Видимо люди кто занимается нейросетями еще слабо представляют важность рекуррентных сетей! А а а ... ну да они же сложнее. Хотя это первые шаги к коммуникативным сетям. Это же не кому не интересно!😆
Самое лучшее объяснение. Отличная методическая подача. Брольшое спасибо!
Лучшая. Очень круто и понятно. Особенно, когда показали картинку со всеми весами W,U,V прям мурашки пошли от того, что вот именно это и надо для понимания
Какая вы красивая! Лекция огонь! спасибо ❤❤
Респект Татьяне! Просто идеальная подача. Всё кристально ясно, никаких лакун. Спасибо!
Большое спасибо за объяснение!
Наконец-то понятное объяснение, спасибо большое.
Супер ролик, в 16 минут полное понимание структуры.
Отличная и понятная лекция на сложную тему! Спасибо 😊
Thanks for explanation !
отличное объяснение, спасибо!
Не забудь родить ребёнка. ❤😊
@@Геннадий-й6п3р у меня уже достаточно детей, но к чему здесь это и с переходом на личности?
@@gigaproseполагаю, что имелось в виду пожелание передавать дальше ген людей, которые способны разбираться с рекуррентными сетями)
Спасибо за лекцию! Однако на слайде 9:18 заметил неточность в указанной размерности матрицы W. Если бы матрица весов была бы n×k (как указано на слайде), то выражение WX не имело бы решения, так как количество столбцов матрицы W не совпало бы с количеством строк вектора X. Мне кажется, что верная размерность матрицы W - это k×n, так как только в этом случае возможно осуществить перемножение.
Тоже это заметил)
Мне кажется в этом моменте подразумевалась W транспонированная, при составлении видимо забыли написать.
Не понятно, почему слой y считается неотъемлемой частью рекуррентного слоя. Это же просто полносвязный слой приставленный к слою h. Зачем ему быть того же размера k, он же может быть любого размера? Почему нельзя обойтись без него вообще и подавать выход h сразу на следующий рекуррентный слой?
Можно, так и делают, на самом деле. Здесь так, чтобы показать идею перехода от полносвязного слоя к RNN. Но вы правы, что стоило бы добавить это в лекцию
Че -то не много интереса проявлено к лекции? Видимо люди кто занимается нейросетями еще слабо представляют важность рекуррентных сетей! А а а ... ну да они же сложнее. Хотя это первые шаги к коммуникативным сетям. Это же не кому не интересно!😆
Вы нейросеть?
Девочка молодец. Но скучно слишком. Не способна завлечь. Просто бу-бу-бу. Надеюсь она будет работать над этим.
Иди смотри мистера биста если тебе динамика нужна. Лучшего объяснения, чем это, я ещё не видел