Alta Disponibilidade com OSD Ceph Pool no Proxmox 7 Aula 6

Поделиться
HTML-код
  • Опубликовано: 27 окт 2024

Комментарии • 37

  • @LucasTavaresSoares
    @LucasTavaresSoares Год назад +4

    Showwwww. 🚀🚀🚀

  • @BortolettoStore
    @BortolettoStore 10 месяцев назад

    Conteúdo top de mais, muito bem explicado. Sensacional, parabéns pelo ótimo trabalho
    😃

    • @RunbookBR
      @RunbookBR  10 месяцев назад

      Obrigado irmão

  • @tiagohamakusa
    @tiagohamakusa Год назад

    Conteúdo maravilhoso, parabéns e muito obrigado, que riquezas.

    • @RunbookBR
      @RunbookBR  Год назад

      Muito obrigado pelo retorno. 🙂
      Vem um material sensacional de zabbix aí, espalha e pede pros amigos ativar o sininho que não vão se arrepender

  • @AlencarTI
    @AlencarTI Год назад

    To acompanhando a jornada. Mais um inscrito.

    • @RunbookBR
      @RunbookBR  Год назад

      Excelente, fique a vontade para sugerir, comentar, criticar e fortalece com aquele like cada vídeo para me ajudar :-)

  • @rodrigof6418
    @rodrigof6418 3 месяца назад

    Muito bom seu conteúdo, muito bem organizado e explicado.
    Percebi que seus HDs que colocou no pool são todos iguais, do mesmo tamanho. Saber informar se é possível fazer estes pools com discos distintos? Tamanhos diferentes e talvez mecânicos e ssds no mesmo pool?

    • @RunbookBR
      @RunbookBR  2 месяца назад

      Dá, até dá.... Mas vai vai problema
      Discos do mesmo tamanho sempre:-)

  • @rodrigodealmeidafonseca7362
    @rodrigodealmeidafonseca7362 Месяц назад

    Pode ser usado endereços IP multicast na rede cluster de acesso aos OSDs?!

  • @netoxplod87
    @netoxplod87 Год назад +1

    Faz um vídeo comparando ceph e glusterfs mostrando qual é mais leve, qual é mais rápido, qual exige mais rede e processamento, entre outras coisas

    • @RunbookBR
      @RunbookBR  Год назад +3

      Apesar do ceph e o glusterfs atenderem a objetivos distintos, podemos ver sim uma forma de colocarmos os dois lado a lado para por exemplo mostrar que um é um object storage enquanto o outro é um bloco storage. Daí apresentaria o melhor caso de uso para cada um.
      Boa sugestão, obrigado 😁

  • @lucaslima5301
    @lucaslima5301 4 месяца назад

    Pode fazer vídeos sobre ZFS ? O CEPH é muito bom, mas li algumas coisas que me deixou com medo, além os recursos que ele consome, para uma pequena LAB pode ser complicado. Por exemplo tenho 3 servidores no vídeo é falado que os servidores do CEPH tem que ser só para o CEPH.

    • @RunbookBR
      @RunbookBR  4 месяца назад

      Apesar da recomendação geral ser separar o ceph de servidores de aplicação, nada impede de montar seu cluster com apenas três servidores fazendo os papéis de ceph e hypervisor. Tenho ambientes pequenos que rodam muito bem assim, mas entendo quando fala do ZFS como uma solução mais simples, apesar de menos dinâmica.
      Tá anotado vlw

  • @rodrigosteinhorst624
    @rodrigosteinhorst624 Год назад +1

    Ótimo o video, estou acompanhando desde o início, fiz um ambiente de testes com 4 servidores com hds enterprise, e placas de 1gb, porem a velocidade de transferencia do ceph não passa dos 50mb/s algum macete ou ajuste ?

    • @RunbookBR
      @RunbookBR  Год назад +2

      Eu tentaria fazer um teste de estresse servero para validar a rede, em geral nenhuma parametrização é necessário para acerto de velocidade de interface. Claro que vai depender das duas pontas, então o Switch da rede SAN deve ser levado em conta mas eu acredito mais que seu consumo de rede seja baixo mesmo. Se você tiver como acompanhar via gráfico, um ponto a se observar é se o gráfico fica chapado em cinquenta ou se fica variando. Se varia não ter limite de interface é baixo consumo mesmo. É uma forma simples :-)

    • @rodrigosteinhorst624
      @rodrigosteinhorst624 Год назад +1

      @@RunbookBR excelente explicação, vou fazer este teste obrigadoo

    • @RunbookBR
      @RunbookBR  Год назад

      @rodrigosteinhorst624 tj, em breve termeos muitos vídeos novos de Proxmox e outros conteúdos relacionados a TI

  • @kleberacaciodossantos
    @kleberacaciodossantos Год назад +1

    Muito bom!!!!! Vou replicar toda essa serie de aulas no meu home LAB. No caso o meu terceiro Node vai ser com uma maquina bem básica, só para ter o quorum mesmo . Isso de alguma maneira pode impactar na performance do HA?

    • @RunbookBR
      @RunbookBR  Год назад +2

      Se não tiver usando esse nó de fato para processamento das máquinas virtuais ou do seu storage pool, não tem que afetar em nada ;-)

  • @LuhanBrito
    @LuhanBrito 8 месяцев назад +1

    Parabéns pelo video. Gostaria de uma ajuda. Sou iniciante e estou fazendo um deploymet em dois servidores com as mesmas características. Minha conectividade será Ethernet. Eu só configuro o OSD e o CEPH em ambiente onde estou utilizando SAN ou no ambiente Ethernet eu tenho que fazer essa mesma configuração?

    • @RunbookBR
      @RunbookBR  8 месяцев назад

      @LuhanBrito existem algumas formas de você montar sua rede SAN. Se seu ambiente for um ambiente mais básico, com todas interfaces ethernet, sem fibras ou cabos especiais... uma das suas interfaces eth podem ser sua rede SAN. Em suma... eu recomendo você separar as redes LAN e SAN porque os dados trafegados na rede SAN são muito intensos e podem afetar sua rede LAN. Você pode separar por vlan ou switches fisicos distintos mesmo... do lado do servidor pode ser interface comum, desde que pelo menos GIGA.
      Siga a jornada Proxmox aqui no canal passo a passo que eu mostro tudo isso na prática, mas tenha em mente que LAN e SAN são apenas conceitos, fisicamente podemos usar o mesmo meio físico, switches giga e porta ethernet padrão.

  • @RodrigueMacedo-d3p
    @RodrigueMacedo-d3p 10 месяцев назад

    Parabéns pelo conteúdo. Como faço para migrar as maquinas hyper-v para o proxmomox + ceph+ rbd?

    • @RunbookBR
      @RunbookBR  10 месяцев назад +1

      Isso depende... Se vc tiver falando de máquinas Linux, eu recomendo vc refazer do zero usando containers e não mais vm.
      Agora vm para vm, sinceramente nunca fiz, já vi algumas ferramentas para migrar mas nunca testei. Vou colocar inclusive esse item como conteúdo de um próximo vídeo, achei a ideia interessante.

    • @RodrigueMacedo-d3p
      @RodrigueMacedo-d3p 10 месяцев назад

      @@RunbookBR Obrigado pela resposta. Eu tenho um servidor com Windows server 2016 em produção com 5 vms no Hyper - V, adquirimos novos para migrar para o Proxmox mas sem sucesso até agora.

    • @RunbookBR
      @RunbookBR  9 месяцев назад

      Entendi, eu vou dar uma olhada nisso, só não prometo ser agora, tá corrido.
      Mas já anotei aqui . Obrigado pela dica

  • @LuizEduardoFerreiraSampaio
    @LuizEduardoFerreiraSampaio 10 месяцев назад

    Gostei muito do seu curso, minha duvida é a seguinte, se eu usar um cluster com 3 nos utilizando o ceph, eu posso criar ceph osd com discos de tipos e tamanhos diferente, ex. pve01 e 02 disco sas 600 - pve 03 disco sata de 500 teria algum problema na hora de utilizar o pool osd? Grato.

    • @RunbookBR
      @RunbookBR  9 месяцев назад +1

      Boa pergunta
      Você pode ter problemas sim.
      Imagine três baldes que vão enchendo de maneira regular e alternada.
      Agora imagine que um desses baldes é menor....
      Na pratica é isso, um balde menor vai fazer seu cluster crashar e vc não vai entender o porquê, uma vez que vera que tem espaço no seu pool osd.
      Porém, como um dos baldes está cheio, ele vai parar de encher os demais.
      É um cenário que eu consigo simular e pretendo até fazer um vídeo sobre isso.

  • @nilcemar
    @nilcemar 11 месяцев назад

    Obrigado pelas excelentes explicações. Tenho uma dúvida. Meus servidores Dell já tem RAID 1 espelhando 2 discos... Nesse caso é melhor eu desativar o raid para dobrar a capacidade de armazenamento ou uso o RAID 1 da controladora e adiciono mais essa segurança?

    • @RunbookBR
      @RunbookBR  11 месяцев назад +1

      Quem te disser que existe uma resposta certa para essa pergunta está mentindo, isso porque existem variáveis a serem consideradas para que você adote a melhor estratégia.
      Em um ambiente em cluster, com três nós físicos, e considerando que meu ambiente vai fluir sem nenhum impacto mesmo que eu perca um no físico inteiro, eu iria sem Raid. Agora, em um cenário em que a saude do seu ambiente depende de todos os nos ligados (o que seria meio que uma loucura), você precisa ponderar o que vai acontecer se vc perder um dos discos do seu RAID. Sua performance vai degradar enquanto você faz o resync dos discos?
      Acho que vc entendeu que eu prefiro um ambiente seu RAID, deixando o planejamento do meu ambiente com variáveis mais simples para analisar. De todo modo, considere isso apenas uma opção .

    • @nilcemar
      @nilcemar 11 месяцев назад

      @@RunbookBRmuito obrigado pelo esclarecimento. Meu ambiente de produção será o seguinte: 2 servidores fisicos serão para micro serviços: nesse ambiente poderia colocar no seu modelo proposto, sem raid, e a terceira maquina com 2ssd em raid e um ssd para indices somente para banco de dados postgres… minha duvida seria nessa terceira maquina: eu usaria ela em raid somente com o banco de dados exclusivo (vai crescer muito com o tempo), ou colocaria essa terceira maquina no cluster virtualizando o postgres e em raid somente nela? O banco de dados é critico. Reduzirei muito a performance se colocar esse postgres com esse banco grande virtualizado no cluster?

    • @RunbookBR
      @RunbookBR  10 месяцев назад +1

      O fato de você estar usando SSD ajuda bastante, mas a disponibilidade vs a performance do seu ambiente não dependem apenas de você configurar uma RAID ou não. Em primeiro lugar, eu não colocaria um ambiente desse com dois discos somente. A regra geral é: "quem tem dois tem um", "quem tem três tem dois.". Para seu Banco de dados rodar legal, pelo menos 4 discos. Claro que tudo vai depender do que vai rodar no seu banco de dados e se você vai tunar as configurações do seu postgree, inclusive.
      Se for para cravar uma recomendação para você, eu iria de 4 discos pelo menos para seu banco de dados. Mas eu sei que, na prática, você vai ter que trabalhar com o recurso que tem, então nesse caso, é aplicar e monitorar.

  • @rafaelrezende7057
    @rafaelrezende7057 4 месяца назад +1

    Aula four e aula five 🤣🤣🤣

    • @RunbookBR
      @RunbookBR  4 месяца назад

      Rs falha no engano da ia, mas os demais vídeos estão corrigidos ;-)

    • @rafaelrezende7057
      @rafaelrezende7057 4 месяца назад

      @@RunbookBR eu curti foi um alívio cômico kkkkk

    • @RunbookBR
      @RunbookBR  2 месяца назад

      TJ irmão levei numa boa