Настройка кластера: ProxMox, UserGate, opnSense в связке с кластерной файловой системой OCFS v2

Поделиться
HTML-код
  • Опубликовано: 16 ноя 2024

Комментарии • 30

  • @Garry4748
    @Garry4748 10 месяцев назад

    Спасибо за подробное видео. Очень интересная лабораторная работа! Но хотелось бы посмотреть что будет если на вашем стенде порвется, а потом восстановится, желтый пачкорд.

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад

      А давайте, проверим :) Если на самом деле интересно, можем смастерить небольшой shorts с ответом на этот вопрос :)

    • @Garry4748
      @Garry4748 10 месяцев назад

      @@Alt-info-pro, да давайте. На моей практике использовал только SMB. И в этом случае виртуалки благополучно зависали потеряв связь с диском.
      А вот потеря подключение по iSCSI к Synology из Винды однажды привела к полной потере всех данных. :(
      Т.ч. мне очень интересно.

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад

      @@Garry4748Принято. Самому интересно стало.

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад +1

      Добрый день. Тестирование провели. Вот ссылка на видео
      ruclips.net/video/Fk0UfeiwSXk/видео.html

  • @alexkisel8107
    @alexkisel8107 10 месяцев назад +1

    Очень интересно сравнили теплое с мягким: блочное хранилище и файловое. Отчего же не сравнили нативную для ProxMox CEPH с OCFS, или GPFS и OCFS? Конечно, для вашего стенда для реализации CEPH нужно будет подумать головой. И SpectrumScale for Developers сейчас нужно поискать. Зато сравнение может быть одного класса хранилищ.

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад

      В своё время GPFS как-то геморно лицензировалось и было за деньги. Сейчас, возможно, что-то поменялось, но "осадочек остался" :) давно не смотрел в её сторону.
      CEPH хорош в плане отказоустойчивости. Но не всегда она нужна. Затраты ресурсов на работу CEPH могут быть неоправданы, если речь идёт о третьестепенных задачах.
      Если уж на то пошло, думаю, лучше посмотреть в сторону LustreFS. Возможно, снимем серию и про Люстру, если интересно.
      GlusterFS использовали - не понравилось. Были косяки с ней, потому для себя прозвали её ГлюКстер-ом.

    • @alexkisel8107
      @alexkisel8107 10 месяцев назад +1

      На самом деле, я хотел обратить ваше внимание, что не корректно сравнивать SAN и NAS. А кластерных файловых систем хватает и проприетарных и свободных (sam qfs, gfs2, LeoFS и т.д.). Ну и нужно было для SAN делать отдельно frontend и backend сети.@@Alt-info-pro

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад

      Спасибо за уточнение. В теории, можно попробовать потом запилить более подробную лабу с учётом Вашего предложения. Не знаю, получится ли выкроить время, но тема интересная.

  • @Mavr-id1lt
    @Mavr-id1lt 3 месяца назад

    Добрый день. Поделитесь опытом про связку UserGate и opnSense. Чуть подробнее про настройку. Про то как организовать dmz. Хотя бы ссылками на подобною реализацию.

    • @Alt-info-pro
      @Alt-info-pro  3 месяца назад

      Для того, чтобы ответить на Ваш вопрос, надо иметь перед глазами схему взаимодействия и подключения UG и opnS. Вариантов может быть несколько. Всё зависит от поставленной задачи.

  • @user_name9209
    @user_name9209 10 месяцев назад +1

    Первый раз вижу чтоб в ProxMox использовали OCFS, обычно используют zfs.

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад

      Zfs не кластерная fs. Если память не изменяет, Вы не сможете расшарить zfs на несколько нод.

    • @VitaliySunny
      @VitaliySunny 7 месяцев назад

      @@Alt-info-pro Что скажете на счет Ceph?

    • @Alt-info-pro
      @Alt-info-pro  6 месяцев назад +1

      CEPH хорошая штука, но её надо уметь готовить и иметь стальные фаберже, если что-то пошло не так. CEPH целесообразен там, где достаточно серверов с достаточным количеством винтов и хорошим линками между серверами. Если у Вас 2 сервака, на которых по 2 винта, CEPH использовать нецелесообразно. Есть достаточное количество кластерных файловых систем - подобрать инструмент под задачу вполне возможно.

  • @monstra.
    @monstra. 10 месяцев назад

    Под видеонаблюдение - пурпурные (фиолетовые) wd - красные для работы в закрытых корпусах (допускается больший нагрев) насов (nas).

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад

      Вполне возможно. Спасибо, что поправили. Давно их покупал, уже и не помню цветовую дифференциацию штанов по классификации WD :)

    • @AlexanderBukh
      @AlexanderBukh 10 месяцев назад

      красные - не про нагрев. они проходят более строгий контроль по вибрациям, для допущения в многодисковые корзины.

    • @AlexanderBukh
      @AlexanderBukh 10 месяцев назад

      а пурпурные знаете чем отличаются? они быстрее ошибку отдают, если сектор битый, и быстрее в работу возвращаются. (если кадр битый из видеопотока - не беда, потому и surveillance)

  • @БорисСезонов-ъ2г
    @БорисСезонов-ъ2г 10 месяцев назад

    Благодарю за труд.
    Но приобретёте микрофон, звук не приятный, а это важно!
    Успехов!

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад

      Спасибо большое. Уже заказал. Не думал, что тема с каналом вообще взлетит :)

    • @tatarmalay
      @tatarmalay 10 месяцев назад

      @@Alt-info-proзвук по мне хороший

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад

      @tatarmalay Рахмат!

  • @monstra.
    @monstra. 10 месяцев назад +1

    А дальше? /dev/sdc1 в fstab прописывать? Или скрипт монтирования писать, после ребута? Прокмокс разве сам не умеет сырой диск по айскази подключать?

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад +2

      Проксмокс подключит iSCSI, вы получите блочный девайс /dev/sdc... Но Вам надо подмонтировать ещё и ocfs в нужную папку. Правильнее написать unit automount для systemd, в этом юните указать, что монтировать ПОСЛЕ старта ISCSI.

    • @monstra.
      @monstra. 10 месяцев назад

      @@Alt-info-pro А чем лучше ocfs, чем тот же Ceph?

    • @Alt-info-pro
      @Alt-info-pro  10 месяцев назад +2

      Ceph дрвольно специфическая штука. Его надо уметь готовить, уметь поддерживать и иметь стальные яйца. Ceph не любит разворачиваться на хранилке на аппаратном рейде и если ваш NAS не умеет JBOD отдавать, а хранилка винты в raid складывает - будут пляски с бубном. Ceph любит широкий канал, ocfs всё равно на какой сети работать. В плане оперативки и проца ceph тоже довольно пржорлив по сравнению с ocfs. У ceph масса плюсов, но они "раскрываются" на других задачах.

    • @monstra.
      @monstra. 10 месяцев назад +1

      @@Alt-info-pro Спасибо.

  • @unicoxr5tj417
    @unicoxr5tj417 10 месяцев назад +1

    ну давайте подпишусь)