Развертывание Storage Spaces Direct в Windows Server 2019

Поделиться
HTML-код
  • Опубликовано: 26 дек 2024

Комментарии • 64

  • @andreypatrick9489
    @andreypatrick9489 2 года назад +2

    Блин, ну 270 лайков всего, пипец какой-то. Автору огромное спасибо!

  • @MrMaleksn
    @MrMaleksn 4 года назад +7

    Спасибо за Ваш труд. Быстро, качественно и по существу.

  • @skrebov
    @skrebov 5 месяцев назад

    Спасибо, крайне хорошее видео. Спокойно без домена поднялся, на 2019 Datacenter, ноды + ViP кластера в хостс везде прописал.

  • @ВладимирКозлов-в2г
    @ВладимирКозлов-в2г 2 года назад +1

    Юрий, добрый день! На слайде 3:45 увидел про Switchless подключение при двух-узловой конфигурации. Хочу поделиться своим кейсом, когда я делал трех-узловой (switchless) S2D кластер: у каждого сервера двух-портовая сетевая карточка и они соединены своего рода кольцом - каждый сервер с каждым, такая конфигурация успешно работает и по настоящий момент.

    • @СергейЛесин-д7ы
      @СергейЛесин-д7ы Год назад

      При таком варианте у Вас одно адресное пространство на всех картах?

    • @ВладимирКозлов-в2г
      @ВладимирКозлов-в2г Год назад

      @@СергейЛесин-д7ы каждые два соседних хоста имеют между собой одно адресное пространство. В рамках одного хоста две сетевые карточки находятся при этом, естественно, в разных подсетях. Разделил все это дело просто маленькой маской

    • @СергейЛесин-д7ы
      @СергейЛесин-д7ы Год назад

      @@ВладимирКозлов-в2г немного не монял вашу схему коммутации. У меня сейчас 2 сервера и схд, в них, кроме eth портов на матери стоит плата на 2 порта по 10Г. Вот я и думаю как это лучше соединить именно как кластерная сеть. 1 eth node1-1eth схд, 2eth node1-1eth node2, 2eth node2-2eth схд? Но все они не могут находится в одном адресном пространстве .

  • @sergeygoodlife1864
    @sergeygoodlife1864 Год назад

    Где посмотреть как кластер hyper-V подключить к кластеру с s2d

  • @СергейЛесин-д7ы
    @СергейЛесин-д7ы Год назад

    Очень хорошее видео. У меня вопрос как можно увеличить объем созданного виртуального диска? Я поднял роль файлового сервера и создал общий ресурс на основе виртуального диска. Но, пришел к выводу, что размер его маловат и может со временем не хватить.

  • @111bober111
    @111bober111 5 лет назад +1

    Имеем кластер из трех нод, у каждой ноды 4 диска по 20 Gb (хотя на слайде заявленно 5 дисков). Всего 3ноды Х 4 диска Х 20 Gb = 240 Gb из которых 12Gb сьедается под перформанс хистори но уже система пишет что доступно 186 Gb, при этом максимальный размер тома под CSV можно создать 58 Gb (как я понимаю из-за тройного зеркалирования), у которого будет свободно приблизительно 56 Gb.
    Итого получается из 12 дисков по 20Gb в S2D на выходе реально получим CSV том у которого будет 56Gb свободного места.
    А не слишком ли большая избыточность у данного решения?

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      Во-первых, избыточностью можно управлять, об этом уже немного говорилось в веб-касте про вложенную устойчивость (Nested Resiliency). Во-вторых, если для вас это слишком большая избыточность, можете отказаться от нее и использовать исключительно линейные массивы без какого-либо дублирования (только при таком раскладе почаще выполняйте резервное копирование).

  • @mifak47
    @mifak47 2 года назад

    Добрый день! Нужно развернуть файловый сервер где пользователи и программы работают с файлами. Эта технология подойдет? я делаю два сервера в кластер "Storage Spaces Direct" и на них же поднимаю кластер File server for general use?

  • @IllyaSikorskiy
    @IllyaSikorskiy 2 года назад +1

    Все время скромно умалчивают, что нужна редакция Datacenter, что выводит бюджет за разумные величины.

  • @davidkuznetsov2260
    @davidkuznetsov2260 4 года назад

    Спасибо!

  • @tonick74
    @tonick74 3 года назад

    Без домена работает?

  • @ВладимирЧерных-ы3н
    @ВладимирЧерных-ы3н 4 года назад

    Добрый день. Спасибо за цикл статей. Очень интересная технология. В требовании майкрософт минимальная рекомендуемая планка по сети в 10Gb, рекомендуемая 25Gb. В конвергентных решениях есть возможность использовать MPIO для одновременного использования дублирующих каналов связи для увеличения пропускной способности и отказоустойчивости. Получится ли увеличить пропускную способность между узлами за счет nic teaming из двух активных 10Gb портов на hyperv свитче и включения jumbo frame?

    • @YuriyLebedev
      @YuriyLebedev  4 года назад +1

      Я пробовал объединять 10 и 25 Gbps на больших аппаратных решениях при помощи NIC Teaming - в результате получил только падение производительности (местами достаточно ощутимое, так что задержка дисковой подсистемы вырастала в 15-20 раз).

  • @anisimovng
    @anisimovng 5 лет назад

    И вопрос как вы думаете, разумно при необходимости, совместить конвергентную и гиперконвергентную среды? Например развернуть на S2D как роль hyper-v так и кластерную роль mssql server и SOFS? Ведь так получиться экономить ресурсы, как минимум.

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      Я бы не рекомендовал такое решение, так как запихивание на все узлы дополнительных ролей или продуктов потребует существенного увеличения числа операций по обслуживанию и поддержанию такого решения.

    • @astro_papuin
      @astro_papuin 4 года назад

      @@YuriyLebedev а хотя бы совместить роль hyper-v и sofs? mssql я как раз планирую завиртуализировать если он понадобится, но очень нужен кластер из hyper-v и отказоустойчивый FS для пользовательских и не только данных... я вроде бы не видел у ms четкой оговорки, что роль hyper-v в s2d нельзя совмещать с другими ролями из Windows-Features

    • @СлаваКорвин
      @СлаваКорвин 4 года назад

      @@astro_papuin А в чем проблема поднять FS на виртуальном сервере, который будет резервироваться??

  • @GladSpiR
    @GladSpiR 5 лет назад

    спасибо, более детально позже гляну, но вроде вкусно

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      Пожалуйста.

    • @GladSpiR
      @GladSpiR 5 лет назад

      @@YuriyLebedev а можно презентовать место например ESXi серверам. Если не поднимать Hyper-V и не использовать vSan от vmware?

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      @@GladSpiR Получатся серверы с отдельным хранилищем, без какой-либо отказоустойчивости в случае выхода из строя сервера или его дисковой подсистемы.

  • @alexcomdd
    @alexcomdd 4 месяца назад

    про кворум на картинке есть. а рассказать\показать в видео забыл)

  • @ShevronDeath
    @ShevronDeath 5 лет назад

    При вашем сценарии как обстоят дела с отказоустойчивостью хранилища ?

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      В моем случае кластер останется в рабочем состоянии при полном или частичном выходе из строя одного сервера.

  • @СлаваКорвин
    @СлаваКорвин 4 года назад

    Если после всех настроек, включения S2D в консоле, не возможно создать виртуальный жёсткий диск из пула, в чем может быть проблема??

    • @YuriyLebedev
      @YuriyLebedev  4 года назад

      Скорей всего дисковая подсистема узлов не соответствует минимальным требованиям.

  • @ВалерийЧирков-е3ч
    @ВалерийЧирков-е3ч 5 лет назад

    S2D только для серверных редакций Datacenter ?

    • @GladSpiR
      @GladSpiR 5 лет назад

      S2D только в Datacenter доступен

    • @ВалерийЧирков-е3ч
      @ВалерийЧирков-е3ч 5 лет назад

      @@GladSpiR а то в ролике явно про версию не сказано .. Windows server 2019 (en)!

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      Windows Server 2016/2019, редакция Datacenter, в обзорной статье это указывалось, в ролике запамятовал.

    • @ВалерийЧирков-е3ч
      @ВалерийЧирков-е3ч 5 лет назад

      @@YuriyLebedev просто получается все хорошие плюшки от Microsofta находятся в редакции Datacenter, в Standarte их нет...

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      @@ВалерийЧирков-е3ч Как бы в этом и есть суть, хочешь максимум комфорта - покупаешь бизнес класс и летишь с удобствами, если денег жалко летишь в экономе, тоже летишь, но без особых удобств.

  • @andreyandreev1800
    @andreyandreev1800 5 лет назад

    он из этих дисков, автоматически Raid 10 сделал ?

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      Он не делает RAID 10, конфигурация конечного хранилища определяется в момент создания виртуального диска - 23:10

    • @andreyandreev1800
      @andreyandreev1800 5 лет назад

      то есть если я создаю зеркало, то данные продублируются на всех трёх узлах ?
      спасибо..

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      @@andreyandreev1800При тройном зеркалировании (Three-Way Mirror), как в данном случае, данные дублируются трижды.

  • @Dw3mwtf
    @Dw3mwtf 5 лет назад

    Выевил интересный Нюанс. В Windows server 2016 и Windows server 2019 dt при развёртывания удалённых рабочих столов падает производительность дисковой подсистемы. К примеру чтение 4к блоков до развёртывания 70 мб/с после развёртывания 23мб/с. Кто то ещё с таким сталкивался ?

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      А это точно Remote Desktop Session Host делает? Я бы предложил проверить отдельно установку Windows Desktop Experience.

  • @Dm-if3vl
    @Dm-if3vl 5 лет назад

    Это аналог ceph?

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад

      Что-то общее у них явно есть.

    • @anisimovng
      @anisimovng 5 лет назад

      Сатья Наделла сказал, что любит линукс

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад +1

      @@anisimovng Интересно, что любит Тим Кук?

  • @ramak09d54
    @ramak09d54 5 лет назад

    Microsoft открыли для себя vSAN?!

    • @YuriyLebedev
      @YuriyLebedev  5 лет назад +5

      VMware открыли для себя Ceph?

    • @anisimovng
      @anisimovng 5 лет назад

      Переосмыслили )))

  • @КостяТрофимов-м5ъ
    @КостяТрофимов-м5ъ 5 лет назад

    А что с матерями ? Пишут что у кофе матерей проблемы с драйверами...

  • @evgeshapo
    @evgeshapo 5 лет назад +1

    Я первый!

  • @yuliyacher67
    @yuliyacher67 2 года назад

    Спасибо!