Parabéns pelo conteúdo, mano! Estou num projeto de um chatbot, fazendo o uso da arquitetura de rede RNN, e seus vídeos tem me ajudado muito a entender as redes neurais. Gostaria de lhe perguntar se vc tem alguma indicação de uma função de ativação e otimizador para usar neste caso, abraço!
@@MLparahumanos Tudo certo, e contigo? Estou usando LSTM sim, mano. Mas admito que ainda não entendo muito bem sobre seu funcionamento kkkkkkkk há pouco tempo comecei meu estudo sobre redes neurais, estou fazendo um IC disso na faculdade.
Excelente. Mas veja: na teoria (artigos e literatura em geral), a gente sabe que as funções de ativação servem para introduzir uma não linearidade na rede. Porque, realmente, as redes neurais aprendem mais com funções de ativação do que sem elas ?? Como visualizo isso ?? Ou seja, como posso observar a importância de usar ou não essas funções numa rede neural ?? De repente, um vídeo mostrando isso seria interessante. Obrigado.
Oi, Ricardo. Tudo bem? A visualização é mais ou menos o que eu mostrei nesses dois vídeos da playlist. Para problemas de regressão (previsão de valores) as funções de ativação vão contribuir com pequenos trechos da curva que vai se encaixar melhor nos dados. No caso de classificação a curva seria uma "fronteira", separação entre classes. Continue colocando nos comentários suas as sugestões e dúvidas, isso ajuda muito! Abraços ruclips.net/video/cVVO3yl1tx8/видео.html ruclips.net/video/cqDiD2hJTc4/видео.html
Agradeço imensamente todo esse conteúdo. Muito importante, parabéns pelo canal.
💕💕💕
Sensacional
❤️
eu preciso de MAISSSSS
❤️
Muito bom!!
Valeu, Yago!! 😁
Bom demais
Muito obrigado! ❤️
Parabéns pelo conteúdo, mano! Estou num projeto de um chatbot, fazendo o uso da arquitetura de rede RNN, e seus vídeos tem me ajudado muito a entender as redes neurais. Gostaria de lhe perguntar se vc tem alguma indicação de uma função de ativação e otimizador para usar neste caso, abraço!
E aí Kaue, tudo bem?
Em primeiro lugar, obrigado!
Cara... faz um tempinho que não mexo com RNN. Você está usando LSTM?
Abraço!
@kauesantos729
@@MLparahumanos Tudo certo, e contigo? Estou usando LSTM sim, mano. Mas admito que ainda não entendo muito bem sobre seu funcionamento kkkkkkkk há pouco tempo comecei meu estudo sobre redes neurais, estou fazendo um IC disso na faculdade.
Por aqui tudo bem.
É cara... LSTM é complicado mesmooo. Qual curso você faz?
@@kauesantos729
@@MLparahumanos Eu faço curso de Ciências da Computação, estou no 4° período, esse projeto do chatbot no caso seria um projeto integrador do curso.
Legal!!
Excelente projeto! Parabéns!
@@kauesantos729
Excelente. Mas veja: na teoria (artigos e literatura em geral), a gente sabe que as funções de ativação servem para introduzir uma não linearidade na rede. Porque, realmente, as redes neurais aprendem mais com funções de ativação do que sem elas ?? Como visualizo isso ?? Ou seja, como posso observar a importância de usar ou não essas funções numa rede neural ?? De repente, um vídeo mostrando isso seria interessante. Obrigado.
Oi, Ricardo. Tudo bem?
A visualização é mais ou menos o que eu mostrei nesses dois vídeos da playlist. Para problemas de regressão (previsão de valores) as funções de ativação vão contribuir com pequenos trechos da curva que vai se encaixar melhor nos dados. No caso de classificação a curva seria uma "fronteira", separação entre classes.
Continue colocando nos comentários suas as sugestões e dúvidas, isso ajuda muito!
Abraços
ruclips.net/video/cVVO3yl1tx8/видео.html
ruclips.net/video/cqDiD2hJTc4/видео.html
@@MLparahumanos Tá legal, meu amigo. Estamos no aguardo de novidades. Abraços.