Юрий, добрый день! На слайде 3:45 увидел про Switchless подключение при двух-узловой конфигурации. Хочу поделиться своим кейсом, когда я делал трех-узловой (switchless) S2D кластер: у каждого сервера двух-портовая сетевая карточка и они соединены своего рода кольцом - каждый сервер с каждым, такая конфигурация успешно работает и по настоящий момент.
@@СергейЛесин-д7ы каждые два соседних хоста имеют между собой одно адресное пространство. В рамках одного хоста две сетевые карточки находятся при этом, естественно, в разных подсетях. Разделил все это дело просто маленькой маской
@@ВладимирКозлов-в2г немного не монял вашу схему коммутации. У меня сейчас 2 сервера и схд, в них, кроме eth портов на матери стоит плата на 2 порта по 10Г. Вот я и думаю как это лучше соединить именно как кластерная сеть. 1 eth node1-1eth схд, 2eth node1-1eth node2, 2eth node2-2eth схд? Но все они не могут находится в одном адресном пространстве .
Очень хорошее видео. У меня вопрос как можно увеличить объем созданного виртуального диска? Я поднял роль файлового сервера и создал общий ресурс на основе виртуального диска. Но, пришел к выводу, что размер его маловат и может со временем не хватить.
Имеем кластер из трех нод, у каждой ноды 4 диска по 20 Gb (хотя на слайде заявленно 5 дисков). Всего 3ноды Х 4 диска Х 20 Gb = 240 Gb из которых 12Gb сьедается под перформанс хистори но уже система пишет что доступно 186 Gb, при этом максимальный размер тома под CSV можно создать 58 Gb (как я понимаю из-за тройного зеркалирования), у которого будет свободно приблизительно 56 Gb. Итого получается из 12 дисков по 20Gb в S2D на выходе реально получим CSV том у которого будет 56Gb свободного места. А не слишком ли большая избыточность у данного решения?
Во-первых, избыточностью можно управлять, об этом уже немного говорилось в веб-касте про вложенную устойчивость (Nested Resiliency). Во-вторых, если для вас это слишком большая избыточность, можете отказаться от нее и использовать исключительно линейные массивы без какого-либо дублирования (только при таком раскладе почаще выполняйте резервное копирование).
Добрый день! Нужно развернуть файловый сервер где пользователи и программы работают с файлами. Эта технология подойдет? я делаю два сервера в кластер "Storage Spaces Direct" и на них же поднимаю кластер File server for general use?
Добрый день. Спасибо за цикл статей. Очень интересная технология. В требовании майкрософт минимальная рекомендуемая планка по сети в 10Gb, рекомендуемая 25Gb. В конвергентных решениях есть возможность использовать MPIO для одновременного использования дублирующих каналов связи для увеличения пропускной способности и отказоустойчивости. Получится ли увеличить пропускную способность между узлами за счет nic teaming из двух активных 10Gb портов на hyperv свитче и включения jumbo frame?
Я пробовал объединять 10 и 25 Gbps на больших аппаратных решениях при помощи NIC Teaming - в результате получил только падение производительности (местами достаточно ощутимое, так что задержка дисковой подсистемы вырастала в 15-20 раз).
И вопрос как вы думаете, разумно при необходимости, совместить конвергентную и гиперконвергентную среды? Например развернуть на S2D как роль hyper-v так и кластерную роль mssql server и SOFS? Ведь так получиться экономить ресурсы, как минимум.
Я бы не рекомендовал такое решение, так как запихивание на все узлы дополнительных ролей или продуктов потребует существенного увеличения числа операций по обслуживанию и поддержанию такого решения.
@@YuriyLebedev а хотя бы совместить роль hyper-v и sofs? mssql я как раз планирую завиртуализировать если он понадобится, но очень нужен кластер из hyper-v и отказоустойчивый FS для пользовательских и не только данных... я вроде бы не видел у ms четкой оговорки, что роль hyper-v в s2d нельзя совмещать с другими ролями из Windows-Features
@@ВалерийЧирков-е3ч Как бы в этом и есть суть, хочешь максимум комфорта - покупаешь бизнес класс и летишь с удобствами, если денег жалко летишь в экономе, тоже летишь, но без особых удобств.
Выевил интересный Нюанс. В Windows server 2016 и Windows server 2019 dt при развёртывания удалённых рабочих столов падает производительность дисковой подсистемы. К примеру чтение 4к блоков до развёртывания 70 мб/с после развёртывания 23мб/с. Кто то ещё с таким сталкивался ?
Блин, ну 270 лайков всего, пипец какой-то. Автору огромное спасибо!
Спасибо за Ваш труд. Быстро, качественно и по существу.
Пожалуйста!
Спасибо, крайне хорошее видео. Спокойно без домена поднялся, на 2019 Datacenter, ноды + ViP кластера в хостс везде прописал.
Юрий, добрый день! На слайде 3:45 увидел про Switchless подключение при двух-узловой конфигурации. Хочу поделиться своим кейсом, когда я делал трех-узловой (switchless) S2D кластер: у каждого сервера двух-портовая сетевая карточка и они соединены своего рода кольцом - каждый сервер с каждым, такая конфигурация успешно работает и по настоящий момент.
При таком варианте у Вас одно адресное пространство на всех картах?
@@СергейЛесин-д7ы каждые два соседних хоста имеют между собой одно адресное пространство. В рамках одного хоста две сетевые карточки находятся при этом, естественно, в разных подсетях. Разделил все это дело просто маленькой маской
@@ВладимирКозлов-в2г немного не монял вашу схему коммутации. У меня сейчас 2 сервера и схд, в них, кроме eth портов на матери стоит плата на 2 порта по 10Г. Вот я и думаю как это лучше соединить именно как кластерная сеть. 1 eth node1-1eth схд, 2eth node1-1eth node2, 2eth node2-2eth схд? Но все они не могут находится в одном адресном пространстве .
Где посмотреть как кластер hyper-V подключить к кластеру с s2d
Очень хорошее видео. У меня вопрос как можно увеличить объем созданного виртуального диска? Я поднял роль файлового сервера и создал общий ресурс на основе виртуального диска. Но, пришел к выводу, что размер его маловат и может со временем не хватить.
Имеем кластер из трех нод, у каждой ноды 4 диска по 20 Gb (хотя на слайде заявленно 5 дисков). Всего 3ноды Х 4 диска Х 20 Gb = 240 Gb из которых 12Gb сьедается под перформанс хистори но уже система пишет что доступно 186 Gb, при этом максимальный размер тома под CSV можно создать 58 Gb (как я понимаю из-за тройного зеркалирования), у которого будет свободно приблизительно 56 Gb.
Итого получается из 12 дисков по 20Gb в S2D на выходе реально получим CSV том у которого будет 56Gb свободного места.
А не слишком ли большая избыточность у данного решения?
Во-первых, избыточностью можно управлять, об этом уже немного говорилось в веб-касте про вложенную устойчивость (Nested Resiliency). Во-вторых, если для вас это слишком большая избыточность, можете отказаться от нее и использовать исключительно линейные массивы без какого-либо дублирования (только при таком раскладе почаще выполняйте резервное копирование).
Добрый день! Нужно развернуть файловый сервер где пользователи и программы работают с файлами. Эта технология подойдет? я делаю два сервера в кластер "Storage Spaces Direct" и на них же поднимаю кластер File server for general use?
Все время скромно умалчивают, что нужна редакция Datacenter, что выводит бюджет за разумные величины.
Спасибо!
Без домена работает?
Добрый день. Спасибо за цикл статей. Очень интересная технология. В требовании майкрософт минимальная рекомендуемая планка по сети в 10Gb, рекомендуемая 25Gb. В конвергентных решениях есть возможность использовать MPIO для одновременного использования дублирующих каналов связи для увеличения пропускной способности и отказоустойчивости. Получится ли увеличить пропускную способность между узлами за счет nic teaming из двух активных 10Gb портов на hyperv свитче и включения jumbo frame?
Я пробовал объединять 10 и 25 Gbps на больших аппаратных решениях при помощи NIC Teaming - в результате получил только падение производительности (местами достаточно ощутимое, так что задержка дисковой подсистемы вырастала в 15-20 раз).
И вопрос как вы думаете, разумно при необходимости, совместить конвергентную и гиперконвергентную среды? Например развернуть на S2D как роль hyper-v так и кластерную роль mssql server и SOFS? Ведь так получиться экономить ресурсы, как минимум.
Я бы не рекомендовал такое решение, так как запихивание на все узлы дополнительных ролей или продуктов потребует существенного увеличения числа операций по обслуживанию и поддержанию такого решения.
@@YuriyLebedev а хотя бы совместить роль hyper-v и sofs? mssql я как раз планирую завиртуализировать если он понадобится, но очень нужен кластер из hyper-v и отказоустойчивый FS для пользовательских и не только данных... я вроде бы не видел у ms четкой оговорки, что роль hyper-v в s2d нельзя совмещать с другими ролями из Windows-Features
@@astro_papuin А в чем проблема поднять FS на виртуальном сервере, который будет резервироваться??
спасибо, более детально позже гляну, но вроде вкусно
Пожалуйста.
@@YuriyLebedev а можно презентовать место например ESXi серверам. Если не поднимать Hyper-V и не использовать vSan от vmware?
@@GladSpiR Получатся серверы с отдельным хранилищем, без какой-либо отказоустойчивости в случае выхода из строя сервера или его дисковой подсистемы.
про кворум на картинке есть. а рассказать\показать в видео забыл)
При вашем сценарии как обстоят дела с отказоустойчивостью хранилища ?
В моем случае кластер останется в рабочем состоянии при полном или частичном выходе из строя одного сервера.
Если после всех настроек, включения S2D в консоле, не возможно создать виртуальный жёсткий диск из пула, в чем может быть проблема??
Скорей всего дисковая подсистема узлов не соответствует минимальным требованиям.
S2D только для серверных редакций Datacenter ?
S2D только в Datacenter доступен
@@GladSpiR а то в ролике явно про версию не сказано .. Windows server 2019 (en)!
Windows Server 2016/2019, редакция Datacenter, в обзорной статье это указывалось, в ролике запамятовал.
@@YuriyLebedev просто получается все хорошие плюшки от Microsofta находятся в редакции Datacenter, в Standarte их нет...
@@ВалерийЧирков-е3ч Как бы в этом и есть суть, хочешь максимум комфорта - покупаешь бизнес класс и летишь с удобствами, если денег жалко летишь в экономе, тоже летишь, но без особых удобств.
он из этих дисков, автоматически Raid 10 сделал ?
Он не делает RAID 10, конфигурация конечного хранилища определяется в момент создания виртуального диска - 23:10
то есть если я создаю зеркало, то данные продублируются на всех трёх узлах ?
спасибо..
@@andreyandreev1800При тройном зеркалировании (Three-Way Mirror), как в данном случае, данные дублируются трижды.
Выевил интересный Нюанс. В Windows server 2016 и Windows server 2019 dt при развёртывания удалённых рабочих столов падает производительность дисковой подсистемы. К примеру чтение 4к блоков до развёртывания 70 мб/с после развёртывания 23мб/с. Кто то ещё с таким сталкивался ?
А это точно Remote Desktop Session Host делает? Я бы предложил проверить отдельно установку Windows Desktop Experience.
Это аналог ceph?
Что-то общее у них явно есть.
Сатья Наделла сказал, что любит линукс
@@anisimovng Интересно, что любит Тим Кук?
Microsoft открыли для себя vSAN?!
VMware открыли для себя Ceph?
Переосмыслили )))
А что с матерями ? Пишут что у кофе матерей проблемы с драйверами...
Ничего не понятно, что за кофе?
Кофе Лэйк))))
Я первый!
Так точно!
Спасибо!
Пожалуйста!