Распределенная файловая система GlusterFS. Часть 2
HTML-код
- Опубликовано: 12 сен 2024
- Мы поговорим о файловой системе GlusterFS и о том, как она организует хранение данных на своем уровне. На примерах покажем как можно администрировать файловую систему, а именно как добавлять новые ноды, удалять либо заменять вышедшие из строя.
Собственно достался мне кластер, Docker Swarm + GlusterFS (7 нод в replicate)
и вот при определённом стечении обстоятельств одна директория получила split-brain
а я к слову вообще не понимал как это всё работает
эти 2 видео мне помогли разобраться
большое спасибо
Пожалуйста продолжайте!
Отличная подача материала. Час видео пролетает наземетно. Обычно я такие видео пропускаю) Единственный нюанс - скорость речи низкая. Но ее можно ускорить программно. Так что спасибо :)
Отличное видео, качественная и подробная информация. Большое Вам спасибо за труд!
i realize Im kinda off topic but does anyone know a good site to stream new tv shows online?
@Leandro Tristian Flixportal =)
@Jaziel Kamryn Thanks, signed up and it seems like they got a lot of movies there =) I really appreciate it!!
@Leandro Tristian You are welcome xD
Отличное видео, спасибо большое!
Отличный мануал. Прекрасная подача. Почему так мало лайков - загадка.
Огромное спасибо!
Спасибо за уроки.
Молодец, очень понравилось. Материал легко усваивается, я параллельно читаю документ Red Hat Gluster Storage 3.5 Administration Guide, но там не так понятно, неясно местами, разночтения.
Спасибо за видео, очень интересно смотреть
Последний пример (падения ноды) на мой взгляд не очень корректен. Ибо при systemctl stop glusterd нода завершает работу корректно и сто пудов говорит остальным типа: "ну всё, я пошла, дальше без меня". Нет имитации обрыва, падения связи или сервера. Может кто разыгрывал ситуацию типа: "Электричество кончилось"? Через сколько связь на соседей переключается и всё начинает нормально работать?
P.S. А в целом урок достойный. Спасибо!
И как можно организовать теневую копирование ,Хорошо будет если без lvm
Здравствуйте ,это поведение который не возможно создать файл больше размера gluster нода точнее Bricks-а относится только Distributed volume-ам или всем типам ? Спасибо!
Как я понимаю, это относится ко всем Distributed типам
@@unixway4196 Я создал тримя нодами replicated и distributed volume , это нормальное поведение что при отказе одного нода файлы не создаются на монтированном gluster папке ?? и затем зависает
Так очень тяжело сказать что же именно не работает, не уверен, что смогу помочь не видя что именно вы запускали.
Добрый день, спсбо за позновательные видео!
Как посмотреть какие бриксы "портят" глустер, предыстория:
смотрев gluster volume status увидел, что несколько бирков в N/A, не нашел ничего умнее, чем принудительно добавить их (использовал команду gluster volume reset-brick GV 192.168.1.11:/array/br3/brick 192.168.1.11:/array/br3/brick commit force). На бриксе естественно была информация.
И после этого уменьшился объем на самом glustere, то есть df -h, показал уменьшение на кол-во бриксов этого сервера.
Как починить и вернуть объем? удалить бриксы через remove-brick и потом их снова добавить add-brick?
Или есть команды на проверку таких скомпрометированных брисков. Пока в тупике
А вы можете рассказать про X Server и как он работает?
Знаю про него в общих чертах. Не уверен, что смогу адекватно и подробно рассказать про эту подсистему.
описание комманд в студию
Можно ли разворачивать glaster FS на тех же серверах что и Kubernetes?
Технически можно, но не факт, что нужно. Это уменьшает выживаемость системы и увеличивает количество точек отказа.
@@unixway4196 согласен. Да я про период обучения)
@@unixway4196 Спасибо за качественные видео! Для Kubernetes есть специальное объектное S3 хранилище MinIO. Очень хотелось бы видео о нем :)