ENTENDA REDES NEURAIS RECORRENTES (RNN) | Redes Neurais e Deep Learning 11

Поделиться
HTML-код
  • Опубликовано: 28 окт 2024

Комментарии • 14

  • @tiagosouzasilva6649
    @tiagosouzasilva6649 Год назад +2

    Mais uma vez, Lucas sendo MUITO didático. Vou precisar implementar uma LSTM aqui e aprendi muito com este vídeo. Parabéns!!!

  • @miltonborges7356
    @miltonborges7356 Год назад

    Este video me ajudou muito há um tempo atrás. Voltando para refrescar o conteúdo

  • @lucastavares7767
    @lucastavares7767 2 года назад +1

    Mega aulão prof Lucas😃👏📚

  • @rosanefalate6458
    @rosanefalate6458 5 месяцев назад

    Parabéns pelo conteúdo!

  • @andreramos3290
    @andreramos3290 Год назад

    Excelente. Parabéns!

  • @livia2774
    @livia2774 2 года назад

    seus vídeos sempre com qualidade! Parabéns!

  • @Gamer-tm7nu
    @Gamer-tm7nu 2 года назад

    Opa, eu tava mesmo procurando um conteúdo de qualidade sobre esse assunto :)

  • @paulolima2292
    @paulolima2292 2 года назад

    Ótima didática.

  • @SickMantv
    @SickMantv 2 года назад

    tem como fazer um video teorico sobre window size e batch size?

  • @mateuslima126
    @mateuslima126 2 года назад

    Muito bom!

  • @SickMantv
    @SickMantv 2 года назад +1

    não entendi muito bem a parte do back propagation da rnn normal. Ela não consegue lembrar de memorias longas porque quando propaga para trás as informação antigas tem um peso ttão pequeno que serão ignoradas?

    • @UniversoDiscreto
      @UniversoDiscreto  2 года назад +3

      isso! essas memórias são representadas numericamente por valores pequenos (tipo 0,001...) que são multiplicadas por outros valores igualmente pequenos com o tempo. com isso, as informações antigas vão sumindo, em detrimento das mais recentes.

  • @inovastar
    @inovastar Год назад

    Olá.. que tal uma parceria? fiz um programa em píton para compra/venda de ativos bem assertivo, porém penso que uma rede neural ficaria perfeito. Por isso preciso de uma parceria para adaptar a rede neural neste soft. Caso lhe interesse, pode ser uma muito boa, pois com um RN a coisa é de 87 a 97 % de acertividade...pensa ai e me diga, valeu!

  • @RickandMorty-dt1md
    @RickandMorty-dt1md 10 месяцев назад

    analogia: filme o vidente. essa back propagation esta errada, pois é como se você reconhecesse erros pra vários instantes no tempo sem descriminalização. logo oque você estaria visando? não faz sentido propagar tudo junto de uma vez. cada decisão errada já esta sendo realinhada, oque se deseja é corrigir o realinhamento [cada ação tomada], mas pra isso devesse saber o Whh em cada instante de tempo tendo quantidade t. assim ao acabar a t recursão o Why seria reajustado e apos isso o recursao anterior . mas não bem isse o problema. o problema é que a bomba não deve apagar oque o vidente aprendeu em combate, logo a back propagation deve ser de outra forma. devesse fazer a backpropagation em cada instante apos [se iterar gerando uma nova resposta] assim ja se memoriza o aprendizado. alem disso o lance de somar os erros não faz sentido, ja que o contexto do final que seria responsavel em classificar o peso de cada erro a depender da meta. e tomando a analogia do filme, so seria ajustado o peso de uma ação muito no passado pois foi reajustado o y/aMeta, garantido oque o vidente aprendeu sobre combate. não sei sobre Rnn mas podemos fazer uma analogia logica da logica em aprendizado