Deep Learning на пальцах 10 - Recurrent Neural Networks

Поделиться
HTML-код
  • Опубликовано: 7 ноя 2024

Комментарии • 11

  • @АлександрМиронов-ф7с

    Спасибо за прекрасный материал. И эта лекция и прошлая зашли просто идеально. Лучшее подробное пояснение RNN на ютубе которое я встречал с остановками на реально тех моментах которые вызывали вопросы лично у меня везде.

  • @zzzCyberzzz
    @zzzCyberzzz 2 года назад +2

    Немного не хватает примеров на ты или торсе или керасе. Возникают вопросы, если несколько каналов, как оно изнутри работает и что на выходе. И что задаёт размер lstm слоя, вроде глубину? Ну и там параметры остальные есть интересные, которые на примерах хорошо бы посмотреть. И можно ли делать перемешивание в батче?

  • @АлексейБогушевич-щ1ъ

    Большое спасибо за лекции!!!!

  • @insanesup9648
    @insanesup9648 5 лет назад +5

    лучший

  • @nurzhansarzhan8867
    @nurzhansarzhan8867 5 лет назад +6

    Столько боли от одного видео...

  • @zzzCyberzzz
    @zzzCyberzzz 2 года назад

    Интересно не только применительно к тексту примеры смотреть, а и для обработки многоканальных сигналов.

  • @nigmatoyev2668
    @nigmatoyev2668 5 лет назад +2

    Ссылку можно где подробно схему можно посмотреть про бота openai

  • @hey2956
    @hey2956 3 года назад

    топ учитель

  • @СергейЗинчук-и7у
    @СергейЗинчук-и7у 4 года назад

    То есть если я правильно понял, на вход следующему слою передается не output, а промежуточное состояние (синий квадратик)?

  • @alexanderskusnov5119
    @alexanderskusnov5119 3 года назад

    А на двухтысячной она обошла Льва Толстого! (да ещё по-английски)

  • @Roc19961
    @Roc19961 4 года назад

    Лучший