Спасибо за подробное видео. Очень интересная лабораторная работа! Но хотелось бы посмотреть что будет если на вашем стенде порвется, а потом восстановится, желтый пачкорд.
@@Alt-info-pro, да давайте. На моей практике использовал только SMB. И в этом случае виртуалки благополучно зависали потеряв связь с диском. А вот потеря подключение по iSCSI к Synology из Винды однажды привела к полной потере всех данных. :( Т.ч. мне очень интересно.
Очень интересно сравнили теплое с мягким: блочное хранилище и файловое. Отчего же не сравнили нативную для ProxMox CEPH с OCFS, или GPFS и OCFS? Конечно, для вашего стенда для реализации CEPH нужно будет подумать головой. И SpectrumScale for Developers сейчас нужно поискать. Зато сравнение может быть одного класса хранилищ.
В своё время GPFS как-то геморно лицензировалось и было за деньги. Сейчас, возможно, что-то поменялось, но "осадочек остался" :) давно не смотрел в её сторону. CEPH хорош в плане отказоустойчивости. Но не всегда она нужна. Затраты ресурсов на работу CEPH могут быть неоправданы, если речь идёт о третьестепенных задачах. Если уж на то пошло, думаю, лучше посмотреть в сторону LustreFS. Возможно, снимем серию и про Люстру, если интересно. GlusterFS использовали - не понравилось. Были косяки с ней, потому для себя прозвали её ГлюКстер-ом.
На самом деле, я хотел обратить ваше внимание, что не корректно сравнивать SAN и NAS. А кластерных файловых систем хватает и проприетарных и свободных (sam qfs, gfs2, LeoFS и т.д.). Ну и нужно было для SAN делать отдельно frontend и backend сети.@@Alt-info-pro
Спасибо за уточнение. В теории, можно попробовать потом запилить более подробную лабу с учётом Вашего предложения. Не знаю, получится ли выкроить время, но тема интересная.
Добрый день. Поделитесь опытом про связку UserGate и opnSense. Чуть подробнее про настройку. Про то как организовать dmz. Хотя бы ссылками на подобною реализацию.
Для того, чтобы ответить на Ваш вопрос, надо иметь перед глазами схему взаимодействия и подключения UG и opnS. Вариантов может быть несколько. Всё зависит от поставленной задачи.
CEPH хорошая штука, но её надо уметь готовить и иметь стальные фаберже, если что-то пошло не так. CEPH целесообразен там, где достаточно серверов с достаточным количеством винтов и хорошим линками между серверами. Если у Вас 2 сервака, на которых по 2 винта, CEPH использовать нецелесообразно. Есть достаточное количество кластерных файловых систем - подобрать инструмент под задачу вполне возможно.
а пурпурные знаете чем отличаются? они быстрее ошибку отдают, если сектор битый, и быстрее в работу возвращаются. (если кадр битый из видеопотока - не беда, потому и surveillance)
Проксмокс подключит iSCSI, вы получите блочный девайс /dev/sdc... Но Вам надо подмонтировать ещё и ocfs в нужную папку. Правильнее написать unit automount для systemd, в этом юните указать, что монтировать ПОСЛЕ старта ISCSI.
Ceph дрвольно специфическая штука. Его надо уметь готовить, уметь поддерживать и иметь стальные яйца. Ceph не любит разворачиваться на хранилке на аппаратном рейде и если ваш NAS не умеет JBOD отдавать, а хранилка винты в raid складывает - будут пляски с бубном. Ceph любит широкий канал, ocfs всё равно на какой сети работать. В плане оперативки и проца ceph тоже довольно пржорлив по сравнению с ocfs. У ceph масса плюсов, но они "раскрываются" на других задачах.
Спасибо за подробное видео. Очень интересная лабораторная работа! Но хотелось бы посмотреть что будет если на вашем стенде порвется, а потом восстановится, желтый пачкорд.
А давайте, проверим :) Если на самом деле интересно, можем смастерить небольшой shorts с ответом на этот вопрос :)
@@Alt-info-pro, да давайте. На моей практике использовал только SMB. И в этом случае виртуалки благополучно зависали потеряв связь с диском.
А вот потеря подключение по iSCSI к Synology из Винды однажды привела к полной потере всех данных. :(
Т.ч. мне очень интересно.
@@Garry4748Принято. Самому интересно стало.
Добрый день. Тестирование провели. Вот ссылка на видео
ruclips.net/video/Fk0UfeiwSXk/видео.html
Очень интересно сравнили теплое с мягким: блочное хранилище и файловое. Отчего же не сравнили нативную для ProxMox CEPH с OCFS, или GPFS и OCFS? Конечно, для вашего стенда для реализации CEPH нужно будет подумать головой. И SpectrumScale for Developers сейчас нужно поискать. Зато сравнение может быть одного класса хранилищ.
В своё время GPFS как-то геморно лицензировалось и было за деньги. Сейчас, возможно, что-то поменялось, но "осадочек остался" :) давно не смотрел в её сторону.
CEPH хорош в плане отказоустойчивости. Но не всегда она нужна. Затраты ресурсов на работу CEPH могут быть неоправданы, если речь идёт о третьестепенных задачах.
Если уж на то пошло, думаю, лучше посмотреть в сторону LustreFS. Возможно, снимем серию и про Люстру, если интересно.
GlusterFS использовали - не понравилось. Были косяки с ней, потому для себя прозвали её ГлюКстер-ом.
На самом деле, я хотел обратить ваше внимание, что не корректно сравнивать SAN и NAS. А кластерных файловых систем хватает и проприетарных и свободных (sam qfs, gfs2, LeoFS и т.д.). Ну и нужно было для SAN делать отдельно frontend и backend сети.@@Alt-info-pro
Спасибо за уточнение. В теории, можно попробовать потом запилить более подробную лабу с учётом Вашего предложения. Не знаю, получится ли выкроить время, но тема интересная.
Добрый день. Поделитесь опытом про связку UserGate и opnSense. Чуть подробнее про настройку. Про то как организовать dmz. Хотя бы ссылками на подобною реализацию.
Для того, чтобы ответить на Ваш вопрос, надо иметь перед глазами схему взаимодействия и подключения UG и opnS. Вариантов может быть несколько. Всё зависит от поставленной задачи.
Первый раз вижу чтоб в ProxMox использовали OCFS, обычно используют zfs.
Zfs не кластерная fs. Если память не изменяет, Вы не сможете расшарить zfs на несколько нод.
@@Alt-info-pro Что скажете на счет Ceph?
CEPH хорошая штука, но её надо уметь готовить и иметь стальные фаберже, если что-то пошло не так. CEPH целесообразен там, где достаточно серверов с достаточным количеством винтов и хорошим линками между серверами. Если у Вас 2 сервака, на которых по 2 винта, CEPH использовать нецелесообразно. Есть достаточное количество кластерных файловых систем - подобрать инструмент под задачу вполне возможно.
Под видеонаблюдение - пурпурные (фиолетовые) wd - красные для работы в закрытых корпусах (допускается больший нагрев) насов (nas).
Вполне возможно. Спасибо, что поправили. Давно их покупал, уже и не помню цветовую дифференциацию штанов по классификации WD :)
красные - не про нагрев. они проходят более строгий контроль по вибрациям, для допущения в многодисковые корзины.
а пурпурные знаете чем отличаются? они быстрее ошибку отдают, если сектор битый, и быстрее в работу возвращаются. (если кадр битый из видеопотока - не беда, потому и surveillance)
Благодарю за труд.
Но приобретёте микрофон, звук не приятный, а это важно!
Успехов!
Спасибо большое. Уже заказал. Не думал, что тема с каналом вообще взлетит :)
@@Alt-info-proзвук по мне хороший
@tatarmalay Рахмат!
А дальше? /dev/sdc1 в fstab прописывать? Или скрипт монтирования писать, после ребута? Прокмокс разве сам не умеет сырой диск по айскази подключать?
Проксмокс подключит iSCSI, вы получите блочный девайс /dev/sdc... Но Вам надо подмонтировать ещё и ocfs в нужную папку. Правильнее написать unit automount для systemd, в этом юните указать, что монтировать ПОСЛЕ старта ISCSI.
@@Alt-info-pro А чем лучше ocfs, чем тот же Ceph?
Ceph дрвольно специфическая штука. Его надо уметь готовить, уметь поддерживать и иметь стальные яйца. Ceph не любит разворачиваться на хранилке на аппаратном рейде и если ваш NAS не умеет JBOD отдавать, а хранилка винты в raid складывает - будут пляски с бубном. Ceph любит широкий канал, ocfs всё равно на какой сети работать. В плане оперативки и проца ceph тоже довольно пржорлив по сравнению с ocfs. У ceph масса плюсов, но они "раскрываются" на других задачах.
@@Alt-info-pro Спасибо.
ну давайте подпишусь)
Спасибо! :)