Redes Neurais Artificiais #19: Funções de ativação e suas derivadas

Поделиться
HTML-код
  • Опубликовано: 9 ноя 2024

Комментарии • 19

  • @zuleideferreira4424
    @zuleideferreira4424 3 месяца назад +1

    Agradeço imensamente todo esse conteúdo. Muito importante, parabéns pelo canal.

  • @thaismartin12
    @thaismartin12 3 месяца назад +1

    Sensacional

  • @ivanpickles
    @ivanpickles 10 месяцев назад +4

    eu preciso de MAISSSSS

  • @Yjquaranta
    @Yjquaranta Год назад +1

    Muito bom!!

  • @efraimrafael8835
    @efraimrafael8835 8 месяцев назад +1

    Bom demais

  • @kauesantos729
    @kauesantos729 Год назад +1

    Parabéns pelo conteúdo, mano! Estou num projeto de um chatbot, fazendo o uso da arquitetura de rede RNN, e seus vídeos tem me ajudado muito a entender as redes neurais. Gostaria de lhe perguntar se vc tem alguma indicação de uma função de ativação e otimizador para usar neste caso, abraço!

    • @MLparahumanos
      @MLparahumanos  Год назад +1

      E aí Kaue, tudo bem?
      Em primeiro lugar, obrigado!
      Cara... faz um tempinho que não mexo com RNN. Você está usando LSTM?
      Abraço!
      @kauesantos729

    • @kauesantos729
      @kauesantos729 Год назад +1

      @@MLparahumanos Tudo certo, e contigo? Estou usando LSTM sim, mano. Mas admito que ainda não entendo muito bem sobre seu funcionamento kkkkkkkk há pouco tempo comecei meu estudo sobre redes neurais, estou fazendo um IC disso na faculdade.

    • @MLparahumanos
      @MLparahumanos  Год назад +1

      Por aqui tudo bem.
      É cara... LSTM é complicado mesmooo. Qual curso você faz?
      @@kauesantos729

    • @kauesantos729
      @kauesantos729 Год назад +1

      @@MLparahumanos Eu faço curso de Ciências da Computação, estou no 4° período, esse projeto do chatbot no caso seria um projeto integrador do curso.

    • @MLparahumanos
      @MLparahumanos  Год назад

      Legal!!
      Excelente projeto! Parabéns!
      @@kauesantos729

  • @SingularSoluçõesTecnológicaseI
    @SingularSoluçõesTecnológicaseI 11 месяцев назад +1

    Excelente. Mas veja: na teoria (artigos e literatura em geral), a gente sabe que as funções de ativação servem para introduzir uma não linearidade na rede. Porque, realmente, as redes neurais aprendem mais com funções de ativação do que sem elas ?? Como visualizo isso ?? Ou seja, como posso observar a importância de usar ou não essas funções numa rede neural ?? De repente, um vídeo mostrando isso seria interessante. Obrigado.

    • @MLparahumanos
      @MLparahumanos  11 месяцев назад +1

      Oi, Ricardo. Tudo bem?
      A visualização é mais ou menos o que eu mostrei nesses dois vídeos da playlist. Para problemas de regressão (previsão de valores) as funções de ativação vão contribuir com pequenos trechos da curva que vai se encaixar melhor nos dados. No caso de classificação a curva seria uma "fronteira", separação entre classes.
      Continue colocando nos comentários suas as sugestões e dúvidas, isso ajuda muito!
      Abraços
      ruclips.net/video/cVVO3yl1tx8/видео.html
      ruclips.net/video/cqDiD2hJTc4/видео.html

    • @SingularSoluçõesTecnológicaseI
      @SingularSoluçõesTecnológicaseI 11 месяцев назад +1

      @@MLparahumanos Tá legal, meu amigo. Estamos no aguardo de novidades. Abraços.