На мой взгляд, именно таких циклов сейчас не хватает. С позиции недавнего новичка могу сказать, когда только начинаешь, спецы с опытом смотрят на тебя с позиции "еще один пришел в сферу за деньгами..." В моем случае это было случайно, 3 года назад я ушел из инженера-конструктора на позицию эникея. Сейчас потихоньку постигаю мир сетевиков. Сдаю вот CCNA завтра, для себя. С администрирование, как таковым, я столкнулся года 2 назад, когда немного вылез из "замени картридж". Очень не хватало именно такого объяснения азов, как сейчас делают на большом рынке. Когда сидишь в своем небольшом аквариуме и пытаешься что-то делать по книгам, где все красиво и чисто. Спасибо за труды.
Нет никакой защиты от молний, не верь в сказки. Молния это в первую очередь электро магнитный импульс, и не важно, есть громоотвод или нет. Если ёбнет в твой громоотвод, то выгорит ВСЁ.
я только начал слушать-смотреть этот плейлист, но что могу сказать: этот ролик не только полезный по содержанию смысла, так и весёлый-смешной, хоть и не уверен Автор это закладывал.
Шикарный ролик, все по полочкам, по человечески и с примером. Из базового не хватает разве что пояснения про пассивную и активную сеть для пользователей сети (панельки) в том моменте. Тогда физически резервные каналы существуют, но задействовать на активное оборудование (свичи) их можно вручную при необходимости. Спасибо, улыбнуло)
ты забыл сказать, что если UPS'ы дохнут из-за того, что долго света не было, мы покупаем к УПСам огромный дизельный генератор (желательно, Caterpillar), и на случай когда топлива для дизельгенератора закончится, мы заказываем постройку атомной электростанции на случай когда и УПСы сдохнут и соляра для генератора закончится, и вот у АЭС должно быть несколько энергоблоков на случай выхода из строя одного из них
Красивая сказочка от маркетологов, они же кстати придумали программируемое старение. ;) Молнии насрать, один у тебя свитч/сервер/бп/итд, всё что подключено, всё выгорит, и если нет в шкафу запаски, то пиши три письма. Чем меньше в системе деталей(и программных в том числе), тем система надёжнее. Два купленных и включенных в одно время хдд/свича/итп умрут в одно время, с разницей в сутки максимум, и один хрен всё ляжет и потеряется. Так что просто не прокладывайте кабели по полу, и на них не будут ставить ничего тяжёлого, :)) И да, в случае отказа системы кондиционирования, кластеры выгорают как порох:)
Всё это актуально для бухгалтерии из 3 компьютеров, где выход из строя чего-то не становится прямо катастрофой. Насчёт сложности: иногда простота может повысить надёжность, но отказоустойчивость достигается за счет использования дублирования функциональности, а в крупной компании точка отказа это вопрос принципиальный. По поводу упрощения если вот так доводить до абсурда, то можно и до деревянных счетов вернуться, просто же. От молний в 21 веке тоже есть защиты, а разница в сутки это уже полная отсебятина, потом что выход из строя часто является результатом брака, которого у второго свича может и не быть
Вот так мы и переходим от мелкого офиса с мелкими, но критичными локально проблемами к огромной международной корпорации с ахтунгом мирового масштаба, если что-то пойдёт не так. Интересно, когда мир придёт к распределённому управлению ресурсами и стратегией освоения к ИИ? Ему только энергию подавай. Ни каких богатств, яхт и прочих золотых унитазов. Только вычислительные центры. Идеально. А человеков можно и на батарейки... Oh shi... Knock.... Knock... Matrix has you.
Добрый день. Спасибо за видео. Возможно глупый вопрос, но неужели третий сервер виртуализации нужен только на случай случайной потери связи между двумя серверами? Никакого другого решения нет? Возможно есть другой способ?
Ну, обычно третий сервер не только для спасения от "split brain", но ещё и дополнительная производительность. Но да, если денег на третий сервер нет, скажем небольшая компания, но хочется кластер из 2 нод, то можно и их двух серверов (нод) собрать. В таком случае можно, скажем, отслеживать по нескольким "каналам", чтобы понять, какой из серверов рабочий, а какой вышел из строя. Скажем, с помощью общего диска между серверами (если схд) + сеть. Ну либо две сети, одна сеть внешняя (локальная сеть компании), а другая сеть чисто между двумя серверами. Погуглите "stonith" и "cluster quorum"
@@GNULinuxPro пример этой сети на базе предприятия , может есть готовая реализации этой схемы , ну как пример вот я рассказал теорию , а вот допустим так-то так-то это выглядит на практике .
@@GNULinuxPro я просто на сисадмина учусь 3 курс, курсовую пишу про отказоустойчивость лвс , ты в видео все очень хорошо объяснил , просто думал может есть зарисовки этой ЛВС на практике .
@@МОДЕРАТОР-т2б ну, если посмотришь дальше по плейлисту, я показываю, как строить такую сеть. Каких-то других примеров я не знаю, но уверен что в интернете полно всяких схем построения сетей
Очень жаль, что бюджетирование и видение руководителей того как должно работать IT в небольших организациях не совпадает с тем, о чем рассказал автор. Я, к сожалению, даже боюсь предлагать своим клиентам покупку дополнительных серверов для кластеризации инфраструктуры, т. к. покупка одного-то нового сервера это всегда месяцы обдумывания не стоит ли нам остаться на том железе, что стоит и, вроде, как работает уже 10 лет, хотя с тех пор и требования к железу выросли и количество пользователей увеличилось в разы.
Скорее как "внешний диск". NFS - файловая система по сети, а СХД зачастую даёт на системы просто диски, т.е. подключив СХД ты в системе увидишь новый диск (типа sdb). Хотя современные СХД могут и NFS раздавать, и SMB, и много чего ещё. Но основной функционал всё таки выдавать блочные устройства.
@@MRRIBO В облаках, скорее всего, используется не классическая инфраструктура с отдельным СХД, а гиперконвергенция(hci). Это когда диски стоят на самих серверах, при этом все машинки кластера видят общий объём, а не свои диски, т.е. диски с разных серверов объединяются в одну группу.
На мой взгляд, именно таких циклов сейчас не хватает. С позиции недавнего новичка могу сказать, когда только начинаешь, спецы с опытом смотрят на тебя с позиции "еще один пришел в сферу за деньгами..." В моем случае это было случайно, 3 года назад я ушел из инженера-конструктора на позицию эникея. Сейчас потихоньку постигаю мир сетевиков. Сдаю вот CCNA завтра, для себя. С администрирование, как таковым, я столкнулся года 2 назад, когда немного вылез из "замени картридж". Очень не хватало именно такого объяснения азов, как сейчас делают на большом рынке. Когда сидишь в своем небольшом аквариуме и пытаешься что-то делать по книгам, где все красиво и чисто. Спасибо за труды.
Спасибо и удачи завтра!
ну как, сдали?
Уже CCNP можно сдать
как ты вылез из "замени картридж"? CCNA есть, веду кучу сервисов, бд, а вот картриджи никак не отстанут)
Нет никакой защиты от молний, не верь в сказки. Молния это в первую очередь электро магнитный импульс, и не важно, есть громоотвод или нет. Если ёбнет в твой громоотвод, то выгорит ВСЁ.
Самая частая точка отказа, это человек!
если не возвращается к идеалу, особенно вероятно.
мне нравится повествование Автора, спасибо за материалы, успехов, лайк подписка.
я только начал слушать-смотреть этот плейлист, но что могу сказать: этот ролик не только полезный по содержанию смысла, так и весёлый-смешной, хоть и не уверен Автор это закладывал.
Шикарный ролик, все по полочкам, по человечески и с примером. Из базового не хватает разве что пояснения про пассивную и активную сеть для пользователей сети (панельки) в том моменте. Тогда физически резервные каналы существуют, но задействовать на активное оборудование (свичи) их можно вручную при необходимости.
Спасибо, улыбнуло)
Спасибо, действительно забыл упомянуть про панельки)
Очень у вас ("сетевиков" / сис-админов) всё интересно устроено оказывается!) Привет вам из других областей большого мира IT!)
Главное сисадмина запасного не забыть нанять
а ведь точно =)
7:20 аххаха, жиза!
Ещё и OpenStreetMap в конце 💙
Ля, походу мой любимый витубер!
Топ контент, спасибо!
формат и контент - просто огонь! :) спасибо!!!
спасибо!
Great work! Спасибо за то, что делитесь с нами опытом и знанием! Для тысяч начинающих это будет ценным контентом. И обновлением инфы для опытных
👍
🎂 первое видео по новой теме стоит отметить🤔
"-думали все... как бы не так 😂"
экшн 😀
Просто, понятно, доступно. Спасибо, вам, огромное!
Были бы деньги, а технологии на которые их потратить, найдутся!
Замечательный выпуск! Спасибо!
Красиво, грамотно и четко все по полочкам!
По больше таких видео друг, лайк + подписка обеспечена!
МолодцоМ! Творчеких успехов!
Понятно и доступно, спасибо.
А еще RAID контроллеры бывает отлетают, редко, но отлетают, это вообще отдельный вид боли... Спасибо за видос!
Я как-то встречал, что целиком сторадж отлетал. Вроде данные не пострадали, но оба контроллера разом сдохли.
@@Snoop_dozhek в одном местном банке
Отличная лекция. Четко и по делу. Желаю успехов и активного развития каналу.
так я наконец понял зачем нужны облака!
Очень интересно и юмор классный в конце)))
Спасибо большое. Очень интересно.
Ох ё, впервые встречаю ролик, где даже х1.5 - это медленно)
Благодарю!👍🏻
ты забыл сказать, что если UPS'ы дохнут из-за того, что долго света не было, мы покупаем к УПСам огромный дизельный генератор (желательно, Caterpillar), и на случай когда топлива для дизельгенератора закончится, мы заказываем постройку атомной электростанции на случай когда и УПСы сдохнут и соляра для генератора закончится, и вот у АЭС должно быть несколько энергоблоков на случай выхода из строя одного из них
Спасибо!
с учётом всего сказанного, всё сделано на "соплях". Пишите на каменных табличках: как показала история - сохраняется отменно.
Я уже 5 лет в айти, это видео как глоток свежего воздуха
Vam bolshoe spasiba xotel vam zaplatit kak mojno blogadarit
Огонь! )))
802.1ad это QnQ, a LACP это 802.3ad
да! блин( смешал 802.1q с 802.3ad. Ничего, потом поправлю.
Спасибо!
Красивая сказочка от маркетологов, они же кстати придумали программируемое старение. ;)
Молнии насрать, один у тебя свитч/сервер/бп/итд, всё что подключено, всё выгорит, и если нет в шкафу запаски, то пиши три письма.
Чем меньше в системе деталей(и программных в том числе), тем система надёжнее.
Два купленных и включенных в одно время хдд/свича/итп умрут в одно время, с разницей в сутки максимум, и один хрен всё ляжет и потеряется.
Так что просто не прокладывайте кабели по полу, и на них не будут ставить ничего тяжёлого, :))
И да, в случае отказа системы кондиционирования, кластеры выгорают как порох:)
Всё это актуально для бухгалтерии из 3 компьютеров, где выход из строя чего-то не становится прямо катастрофой. Насчёт сложности: иногда простота может повысить надёжность, но отказоустойчивость достигается за счет использования дублирования функциональности, а в крупной компании точка отказа это вопрос принципиальный. По поводу упрощения если вот так доводить до абсурда, то можно и до деревянных счетов вернуться, просто же. От молний в 21 веке тоже есть защиты, а разница в сутки это уже полная отсебятина, потом что выход из строя часто является результатом брака, которого у второго свича может и не быть
Угарнул конечно, Я ИллонМаск я 2 кабеля втыркиваю
Да шутка про метеорит удалась 😀
дАЙТЕ ДВА! )))
Круто
уборщица с мокрой шваброй - вот самый страшный сон любого айтишника
Вот так мы и переходим от мелкого офиса с мелкими, но критичными локально проблемами к огромной международной корпорации с ахтунгом мирового масштаба, если что-то пойдёт не так. Интересно, когда мир придёт к распределённому управлению ресурсами и стратегией освоения к ИИ? Ему только энергию подавай. Ни каких богатств, яхт и прочих золотых унитазов. Только вычислительные центры. Идеально. А человеков можно и на батарейки... Oh shi... Knock.... Knock... Matrix has you.
вы думаете, у вас не будет таких красных глаз и кругов под глазами, как у автора канала, а вот нет, айти это круто, сисадмины это мега круто ))))
Добрый день. Спасибо за видео.
Возможно глупый вопрос, но неужели третий сервер виртуализации нужен только на случай случайной потери связи между двумя серверами? Никакого другого решения нет? Возможно есть другой способ?
Ну, обычно третий сервер не только для спасения от "split brain", но ещё и дополнительная производительность.
Но да, если денег на третий сервер нет, скажем небольшая компания, но хочется кластер из 2 нод, то можно и их двух серверов (нод) собрать. В таком случае можно, скажем, отслеживать по нескольким "каналам", чтобы понять, какой из серверов рабочий, а какой вышел из строя. Скажем, с помощью общего диска между серверами (если схд) + сеть. Ну либо две сети, одна сеть внешняя (локальная сеть компании), а другая сеть чисто между двумя серверами. Погуглите "stonith" и "cluster quorum"
Вывод - деньги, деньги, деньги.
Привет, а есть примеры лвс с подобной отказоустойчивой системой ?
Привет
Не совсем понял вопрос. Имеется ввиду сделать отказоустойчивой сеть, куда подключены обычные рабочие компьютеры?
@@GNULinuxPro пример этой сети на базе предприятия , может есть готовая реализации этой схемы , ну как пример вот я рассказал теорию , а вот допустим так-то так-то это выглядит на практике .
@@GNULinuxPro я просто на сисадмина учусь 3 курс, курсовую пишу про отказоустойчивость лвс , ты в видео все очень хорошо объяснил , просто думал может есть зарисовки этой ЛВС на практике .
@@МОДЕРАТОР-т2б ну, если посмотришь дальше по плейлисту, я показываю, как строить такую сеть.
Каких-то других примеров я не знаю, но уверен что в интернете полно всяких схем построения сетей
Очень жаль, что бюджетирование и видение руководителей того как должно работать IT в небольших организациях не совпадает с тем, о чем рассказал автор. Я, к сожалению, даже боюсь предлагать своим клиентам покупку дополнительных серверов для кластеризации инфраструктуры, т. к. покупка одного-то нового сервера это всегда месяцы обдумывания не стоит ли нам остаться на том железе, что стоит и, вроде, как работает уже 10 лет, хотя с тех пор и требования к железу выросли и количество пользователей увеличилось в разы.
да, бюджет в одних компаниях это золотые мешки, а в других - огрызки.
ну хоть не РАУТЭР как у адв-айти
Мне кажется парнишка азербайджанец. Акцент выдает.
Да, я из Баку =)
СХД как я понял это как NFS ?
Скорее как "внешний диск". NFS - файловая система по сети, а СХД зачастую даёт на системы просто диски, т.е. подключив СХД ты в системе увидишь новый диск (типа sdb). Хотя современные СХД могут и NFS раздавать, и SMB, и много чего ещё. Но основной функционал всё таки выдавать блочные устройства.
@@GNULinuxPro удобненько, уже год в it, но такого нигде еще не встречал
@@GNULinuxPro а в облаках не знаешь как это называется? в aws gcp или yc ?
@@MRRIBO В облаках, скорее всего, используется не классическая инфраструктура с отдельным СХД, а гиперконвергенция(hci). Это когда диски стоят на самих серверах, при этом все машинки кластера видят общий объём, а не свои диски, т.е. диски с разных серверов объединяются в одну группу.
ого
🔂👍
Первый! :D
Да ты прям система инициализации =)
@@GNULinuxPro только перед ней идёт ещё много чего интересного. )
Спасибо!