parabens pelo conteudo Jean!!! Tenho um ponto relacionado a questão 10 se me permite: Comparando: S3: Custo-Efetividade: Excelente para armazenamento em massa e recuperação de longo prazo. Latência: Pode não ser a melhor escolha para acesso frequente e rápido a arquivos específicos. AWS Storage Gateway - File Gateway: Baixa Latência: Oferece acesso rápido a arquivos, ideal para cenários de recuperação de desastres e backups frequentes. Compatibilidade: Fácil integração com sistemas NFS existentes, proporcionando um acesso contínuo e eficiente. Se a latência e o acesso rápido são críticos, o File Gateway é a escolha ideal. S3 é ótimo para economia e armazenamento em massa, mas pode não atender tão bem às necessidades de latência.
Olá tudo bem? Estamos falando da pergunta 10 do simulado 2? Se sim, a resposta realmente está errada! A correta é: Modificar o script para copiar os dados para um volume do Amazon Elastic File System (Amazon EFS) em vez do compartilhamento NFS local! Amazon Elastic File System (EFS) é um serviço de sistema de arquivos escalável e elástico na nuvem que suporta o protocolo NFS (Network File System). Isso significa que ele é compatível com a solução atual (NFS), proporcionando uma transição suave. Além disso, o EFS oferece baixa latência e é otimizado para workloads que necessitam de alta disponibilidade e acesso simultâneo, o que é importante para acessar arquivos de backup de forma rápida para lidar com erros de processamento. 1. Modificar o script para copiar os dados para um bucket S3 em vez do compartilhamento NFS local. • O Amazon S3 é uma solução de armazenamento de objetos, não um sistema de arquivos. Embora seja uma excelente opção para backups e arquivamento de dados, ele não oferece a mesma funcionalidade de baixa latência ou compatibilidade com NFS, que é necessário no caso apresentado, onde os arquivos precisam ser acessados rapidamente para resolução de erros. 2. Modificar o script para copiar os dados para o Amazon S3 Glacier Archive em vez do compartilhamento NFS local. • O Amazon S3 Glacier Archive é uma solução de arquivamento de longo prazo para dados que raramente são acessados e onde o foco está no custo baixo de armazenamento. No entanto, ele possui uma latência muito alta para acesso a dados, o que o torna inadequado para a necessidade de acesso frequente e com baixa latência exigida pelos administradores de aplicativos no cenário descrito. 3. Modificar o script para copiar os dados para o AWS Storage Gateway para File Gateway virtual appliance em vez do compartilhamento NFS local. • AWS Storage Gateway para File Gateway é uma solução que oferece uma interface NFS, mas é voltada principalmente para integração entre o armazenamento local e o Amazon S3. Ela não é uma solução nativa de sistema de arquivos na nuvem como o EFS e, neste caso, introduziria uma camada adicional que poderia aumentar a latência, o que vai contra a necessidade do cliente por baixa latência e alta disponibilidade.
Opa amigo, tava sedento por um conteudo assim para estudar, vou usar esse seu guia aqui para tentar a SAA, vou acompanhar esses videos e volto em Julho com a aprovação
Grande Matheus, vai dar tudo certo! É uma prova um pouco complexa, mas estou gravando de forma a deixar as coisas mais claras! Pode me chamar no LinkedIn e tirar suas dúvidas comigo! LinkedIn.com/in/jeandbs Abraço
Olá, muito obrigado, todos que conheço são pagos, learn.acloud.guru/dashboard tutorialsdojo.com/courses/aws-certified-solutions-architect-associate-saa-c03-practice-exams/
Outro ponto Jean pergunta 42 A resposta b) Selecionar a opção multi-Region para provisionar uma instância standby em us-west-2. A instância standby será automaticamente promovida para master em us-west-2 caso o ambiente de recuperação de desastres precise ser criado. poderia ser ideal se o RDS oferecesse essa opção específica de multi-region standby nativamente. No entanto, essa não é uma funcionalidade padrão disponível diretamente no RDS. Revisão Técnica: c) Tirar snapshots automatizados da instância do banco de dados e copiar para us-west-2 a cada 3 horas. Restaure o snapshot mais recente para provisionar outra instância do banco de dados em us-west-2. Por que: RPO de 3 horas: Copiar snapshots automatizados a cada 3 horas garante que, na pior das hipóteses, você perderá no máximo 3 horas de dados, atendendo ao requisito de RPO. RTO de 2 horas: Restauração de snapshots do RDS é um processo relativamente rápido, especialmente se pré-configurado e testado, permitindo que o banco de dados seja provisionado em no máximo 2 horas, atendendo ao requisito de RTO. Simplicidade e Controle: Snapshots são gerenciados de forma centralizada e podem ser facilmente automatizados, proporcionando uma abordagem clara e controlável para recuperação de desastres. O que considerar: Automatização: Assegure que o processo de cópia e restauração dos snapshots está automatizado para minimizar o tempo de inatividade. Testes Regulares: Realizar testes regulares de recuperação para garantir que o RTO e o RPO possam ser atendidos conforme planejado. Essa abordagem proporciona um equilíbrio eficiente entre a necessidade de um RPO curto e um tempo de recuperação rápido, enquanto permanece gerenciável e replicável.
Olá tudo bem? Entendo seu ponto de vista, mas entre a stand by e snapshot o tempo de resposta de recuperação da standy é muito mais rápida do que do SNAPSHOT! Eu particularmente manteria a opção b: Multi-AZ em multi-regiões é uma configuração projetada para fornecer alta disponibilidade e recuperação de desastres. Ao selecionar a opção Multi-Region, você provisiona automaticamente uma instância standby em uma região secundária (us-west-2, no caso), que será promovida automaticamente caso haja uma falha na instância principal (us-east-1). Essa abordagem atende aos requisitos de recuperação em até 2 horas e minimiza a perda de dados para até 3 horas, pois a replicação síncrona ocorre entre as instâncias, garantindo que os dados estejam quase em tempo real.
Salve Jean, passei na Cloud Practitioner com a ajuda dos seus vídeos!!
Agora é foco na Solutions Architect!! 🚀🚀
Eterna gratidão, tmj!
Bora pra cima detonar em mais essa prova! Vamos juntos
parabens pelo conteudo Jean!!! Tenho um ponto relacionado a questão 10 se me permite:
Comparando:
S3:
Custo-Efetividade: Excelente para armazenamento em massa e recuperação de longo prazo.
Latência: Pode não ser a melhor escolha para acesso frequente e rápido a arquivos específicos.
AWS Storage Gateway - File Gateway:
Baixa Latência: Oferece acesso rápido a arquivos, ideal para cenários de recuperação de desastres e backups frequentes.
Compatibilidade: Fácil integração com sistemas NFS existentes, proporcionando um acesso contínuo e eficiente.
Se a latência e o acesso rápido são críticos, o File Gateway é a escolha ideal. S3 é ótimo para economia e armazenamento em massa, mas pode não atender tão bem às necessidades de latência.
Olá tudo bem? Estamos falando da pergunta 10 do simulado 2? Se sim, a resposta realmente está errada!
A correta é: Modificar o script para copiar os dados para um volume do Amazon Elastic File System (Amazon EFS) em vez do compartilhamento NFS local!
Amazon Elastic File System (EFS) é um serviço de sistema de arquivos escalável e elástico na nuvem que suporta o protocolo NFS (Network File System). Isso significa que ele é compatível com a solução atual (NFS), proporcionando uma transição suave. Além disso, o EFS oferece baixa latência e é otimizado para workloads que necessitam de alta disponibilidade e acesso simultâneo, o que é importante para acessar arquivos de backup de forma rápida para lidar com erros de processamento.
1. Modificar o script para copiar os dados para um bucket S3 em vez do compartilhamento NFS local.
• O Amazon S3 é uma solução de armazenamento de objetos, não um sistema de arquivos. Embora seja uma excelente opção para backups e arquivamento de dados, ele não oferece a mesma funcionalidade de baixa latência ou compatibilidade com NFS, que é necessário no caso apresentado, onde os arquivos precisam ser acessados rapidamente para resolução de erros.
2. Modificar o script para copiar os dados para o Amazon S3 Glacier Archive em vez do compartilhamento NFS local.
• O Amazon S3 Glacier Archive é uma solução de arquivamento de longo prazo para dados que raramente são acessados e onde o foco está no custo baixo de armazenamento. No entanto, ele possui uma latência muito alta para acesso a dados, o que o torna inadequado para a necessidade de acesso frequente e com baixa latência exigida pelos administradores de aplicativos no cenário descrito.
3. Modificar o script para copiar os dados para o AWS Storage Gateway para File Gateway virtual appliance em vez do compartilhamento NFS local.
• AWS Storage Gateway para File Gateway é uma solução que oferece uma interface NFS, mas é voltada principalmente para integração entre o armazenamento local e o Amazon S3. Ela não é uma solução nativa de sistema de arquivos na nuvem como o EFS e, neste caso, introduziria uma camada adicional que poderia aumentar a latência, o que vai contra a necessidade do cliente por baixa latência e alta disponibilidade.
Passei na cloud practitioner. Muito obrigada pelas aulas ❤🎉
Olá, que sensacional! Parabéns! Chama lá no LinkedIn e vamos fortalecer essa comunidade de ti que só cresce! Sucesso
Consegui passar na cloud practitioner com ajuda do seus vídeos, sou muito grato pelas aulas, agora rumo ao solutions architect❤
Show de bola, parabéns!
Vamos pra cima! Adiciona lá no LinkedIn! LinkedIn.com/in/Jeandbs
Grato por compartilhar 😊
Bora pra cima
Consegui passar na Cloud Practitioner, com sua ajuda irmão!
Rumo à Solutions Architect !!!🚀🚀🚀🚀
Show demais! Parabéns! Mandou bem demais! Tmj
Opa amigo, tava sedento por um conteudo assim para estudar, vou usar esse seu guia aqui para tentar a SAA, vou acompanhar esses videos e volto em Julho com a aprovação
Grande Matheus, vai dar tudo certo! É uma prova um pouco complexa, mas estou gravando de forma a deixar as coisas mais claras! Pode me chamar no LinkedIn e tirar suas dúvidas comigo! LinkedIn.com/in/jeandbs
Abraço
salve ! bacana seu conteudo . Conhece algum portal que oferece laboratórios guiados ?
Olá, muito obrigado, todos que conheço são pagos,
learn.acloud.guru/dashboard
tutorialsdojo.com/courses/aws-certified-solutions-architect-associate-saa-c03-practice-exams/
Outro ponto Jean pergunta 42
A resposta b) Selecionar a opção multi-Region para provisionar uma instância standby em us-west-2. A instância standby será automaticamente promovida para master em us-west-2 caso o ambiente de recuperação de desastres precise ser criado. poderia ser ideal se o RDS oferecesse essa opção específica de multi-region standby nativamente. No entanto, essa não é uma funcionalidade padrão disponível diretamente no RDS.
Revisão Técnica:
c) Tirar snapshots automatizados da instância do banco de dados e copiar para us-west-2 a cada 3 horas. Restaure o snapshot mais recente para provisionar outra instância do banco de dados em us-west-2.
Por que:
RPO de 3 horas: Copiar snapshots automatizados a cada 3 horas garante que, na pior das hipóteses, você perderá no máximo 3 horas de dados, atendendo ao requisito de RPO.
RTO de 2 horas: Restauração de snapshots do RDS é um processo relativamente rápido, especialmente se pré-configurado e testado, permitindo que o banco de dados seja provisionado em no máximo 2 horas, atendendo ao requisito de RTO.
Simplicidade e Controle: Snapshots são gerenciados de forma centralizada e podem ser facilmente automatizados, proporcionando uma abordagem clara e controlável para recuperação de desastres.
O que considerar:
Automatização: Assegure que o processo de cópia e restauração dos snapshots está automatizado para minimizar o tempo de inatividade.
Testes Regulares: Realizar testes regulares de recuperação para garantir que o RTO e o RPO possam ser atendidos conforme planejado.
Essa abordagem proporciona um equilíbrio eficiente entre a necessidade de um RPO curto e um tempo de recuperação rápido, enquanto permanece gerenciável e replicável.
Olá tudo bem?
Entendo seu ponto de vista, mas entre a stand by e snapshot o tempo de resposta de recuperação da standy é muito mais rápida do que do SNAPSHOT!
Eu particularmente manteria a opção b:
Multi-AZ em multi-regiões é uma configuração projetada para fornecer alta disponibilidade e recuperação de desastres. Ao selecionar a opção Multi-Region, você provisiona automaticamente uma instância standby em uma região secundária (us-west-2, no caso), que será promovida automaticamente caso haja uma falha na instância principal (us-east-1). Essa abordagem atende aos requisitos de recuperação em até 2 horas e minimiza a perda de dados para até 3 horas, pois a replicação síncrona ocorre entre as instâncias, garantindo que os dados estejam quase em tempo real.