Спасибо за прекрасный материал. И эта лекция и прошлая зашли просто идеально. Лучшее подробное пояснение RNN на ютубе которое я встречал с остановками на реально тех моментах которые вызывали вопросы лично у меня везде.
Немного не хватает примеров на ты или торсе или керасе. Возникают вопросы, если несколько каналов, как оно изнутри работает и что на выходе. И что задаёт размер lstm слоя, вроде глубину? Ну и там параметры остальные есть интересные, которые на примерах хорошо бы посмотреть. И можно ли делать перемешивание в батче?
Спасибо за прекрасный материал. И эта лекция и прошлая зашли просто идеально. Лучшее подробное пояснение RNN на ютубе которое я встречал с остановками на реально тех моментах которые вызывали вопросы лично у меня везде.
Немного не хватает примеров на ты или торсе или керасе. Возникают вопросы, если несколько каналов, как оно изнутри работает и что на выходе. И что задаёт размер lstm слоя, вроде глубину? Ну и там параметры остальные есть интересные, которые на примерах хорошо бы посмотреть. И можно ли делать перемешивание в батче?
Большое спасибо за лекции!!!!
лучший
Столько боли от одного видео...
Интересно не только применительно к тексту примеры смотреть, а и для обработки многоканальных сигналов.
Ссылку можно где подробно схему можно посмотреть про бота openai
топ учитель
То есть если я правильно понял, на вход следующему слою передается не output, а промежуточное состояние (синий квадратик)?
А на двухтысячной она обошла Льва Толстого! (да ещё по-английски)
Лучший