45:07 parecido com websocket I/O de network.. é único, o socket fica open, e permite a comunicação bidirecional.. é uma espécie de tunneling,. isso diminui drasticamente a latência, em detrimento a outros protocolos da Layer7,. q requer um handshake..pra cada conexão iniciada TCP-SYN
@@sfidencio sim quando falei com o Minetto foi tipo “cara esse é um podcast pra quem quer ir a fundo mesmo, não é pra todo mundo” hahah, porque quem quer esse tipo de conteúdo não acha!
Excelente conversa, parabéns! A comunicação client -> server pode ser facilmente resolvida utilizando um gateway, como o AWS API Gateway ou o Google Cloud Endpoints. Com isso, você mapeia as rotas e simplifica bastante o processo. No entanto, a ideia central é que a comunicação interna entre os microservices gRPC seja o foco principal, especialmente se o objetivo for alcançar latências extremamente baixas. Além disso, se você quiser otimizar ainda mais, pode considerar substituir os arquivos Protobuf por Flatbuffers, o que reduz ainda mais a latência devido à eficiência desse formato. Se desempenho e baixa latência forem requisitos essenciais, o gRPC se torna uma escolha perfeita. Ainda assim, é importante avaliar o caso de uso específico para determinar a melhor abordagem.
O argumento do Waldemar me pegou. Ele falou sobre conectar serviços utilizando ele como um BFF), algo que eu realmente nunca havia considerado dessa forma.
Ja mexi com RPC com java, RMI invocando EJB. GRPC com go_lang é uma dupla interessante.. Transação distribuida, StateFull Session.. DTO Des/Serializable.. era bem proprietário..
baita papo! Parabéns pelo conteúdo de altíssimo nível!!!
Parabéns pelo compartilhamento de conhecimento!
45:07 parecido com websocket
I/O de network.. é único, o socket fica open, e permite a comunicação bidirecional.. é uma espécie de tunneling,. isso diminui drasticamente a latência, em detrimento a outros protocolos da Layer7,. q requer um handshake..pra cada conexão iniciada TCP-SYN
Um conteúdo desse em um poadcast, é o suprassumo do que é mais raro de encontrar kkkkkkkk, é um assunto com público bem definido.
@@sfidencio sim quando falei com o Minetto foi tipo “cara esse é um podcast pra quem quer ir a fundo mesmo, não é pra todo mundo” hahah, porque quem quer esse tipo de conteúdo não acha!
aqui é a nata da bolha dev
@@amorimcode como disse o cara do estúdio de podcast “não entendi uma palavra mas parece que vocês se entendem” 🤣
Excelente conversa, parabéns! A comunicação client -> server pode ser facilmente resolvida utilizando um gateway, como o AWS API Gateway ou o Google Cloud Endpoints. Com isso, você mapeia as rotas e simplifica bastante o processo.
No entanto, a ideia central é que a comunicação interna entre os microservices gRPC seja o foco principal, especialmente se o objetivo for alcançar latências extremamente baixas. Além disso, se você quiser otimizar ainda mais, pode considerar substituir os arquivos Protobuf por Flatbuffers, o que reduz ainda mais a latência devido à eficiência desse formato.
Se desempenho e baixa latência forem requisitos essenciais, o gRPC se torna uma escolha perfeita. Ainda assim, é importante avaliar o caso de uso específico para determinar a melhor abordagem.
Bacana isso de por um gateway na frente!
Massa! Obrigado pelo conteudo, muito rico e raro de encontrar em um contexto profissional e baseado em experiencias do mundo real da programaçao.
O argumento do Waldemar me pegou. Ele falou sobre conectar serviços utilizando ele como um BFF), algo que eu realmente nunca havia considerado dessa forma.
Mando essa mensagem a partir de Angola, desde o ano passado que acompanho o Valdemar
🙌🏼🙌🏼🙌🏼👊🏼
Ja mexi com RPC com java, RMI invocando EJB. GRPC com go_lang é uma dupla interessante..
Transação distribuida, StateFull Session.. DTO Des/Serializable.. era bem proprietário..
@@sfidencio e como tu acha a comparação do gRPC com RPC?
100sacional!
Rest é bom, mas, por favor, documentem seus serviços. Os clientes agradecem
@@AnnielMenezesCruz por favor!!