Storage spaces direct

Основные системы хранения данных и их особенности

Windows Server 2012 R2

RAID. С технологией Storage Spaces политики 2-way  или 3-way mirror обеспечивают производительность на уровне аппаратного RAID 10.

Spaces. Виртуальные диски, собранные из логических пулов SSD/HDD, дают пользователю лучшее от обоих типов: большую емкость HDD под холодные данные, производительность SSD под горячие данные. Поддерживается динамическое выделение емкости.

Automatic tiering. В двухуровневой схеме хранения SSD/HDD файловая система в фоновом режиме отслеживает обращения к блокам данных и по графику (раз в сутки или чаще – если надо) перемещает популярные блоки на быстрый слой (SSD), с гранулярностью 1MB.

Write-back cache. Сглаживает пики записи на виртуальный диск силами SSD из пула, повышая показатели IOPS.

SMB 3.0. Сетевой протокол, дающий приложениям доступ к данным стороннего сервера. Совместно используемые файлы презентуются всем узлам кластера Scale-Out File Server (SOFS). При отказах клиентское приложение автоматически обслуживается выжившими узлами. Microsoft рекомендует использовать сетевые адаптеры прямого доступа к памяти RDMA для разгрузки процессоров серверов и снижения задержек доступа к данным. Приложения могут работать с совместными файлами в кластере почти так же быстро, как с локальными дисками.

Доступность данных. Непрерывность файловых служб обеспечивает SOFS. Кластер серверов обращается за данными в общие контейнеры, Shared SAS JBOD.

Shared SAS JBOD. Общие хранилища для кластера серверов на дисках SSD/HDD. Емкость увеличивается добавлением в JBOD самых обычных дисков NL SAS, а когда место закончилось – новых JBOD c дисками целиком (могут понадобиться SAS-коммутаторы, они недорогие). В промышленных СХД даже сами диски обойдутся дороже: HDD в разы, SSD – на порядок.

В Windows Server 2016 появятся синхронная репликация и распределенное хранение на локальных дисках кластера серверов Storage Spaces Direct.

Типы носителей информации и протокол взаимодействия с СХД

Определившись с типом СХД, который Вам наиболее подходит для решения тех или иных задач, необходимо перейти к выбору протокола взаимодействия с СХД и выбору накопителей, которые будут использоваться в системе хранения.

В настоящий момент для хранения данных в дисковых массивах используются SATA и SAS диски. Какие диски выбрать в хранилище зависит от конкретных задач. Стоит отметить несколько фактов.

SATA II диски:

  • Доступны объемы одного диска до 1 ТБ
  • Скорость вращения 5400-7200 RPM
  • Скорость ввода/вывода до 2,4 Гбит/с
  • Время наработки на отказ примерно в два раза меньше чем у SAS дисков.
  • Менее надежные, чем SAS диски.
  • Дешевле примерно в 1,5 раза, чем SAS-диски.

SAS диски:

  • Доступны объемы одного диска до 450 ГБ
  • Скорость вращения 7200 (NearLine), 10000 и 15000 RPM
  • Скорость ввода/вывода до 3,0 Гбит/с
  • Время наработки на отказ в два раза больше чем у SATA II дисков.
  • Более надежные диски.

Важно! В прошлом году начался промышленный выпуск SAS дисков с пониженной скоростью вращения – 7200 rpm (Near-line SAS Drive). Это позволило повысить объем хранимых данных на одном диске до 1 ТБ и снизить энергопторебление дисков со скоростным интерфейсом

При том, что стоимость таких дисков сравнима со стоимостью дисков SATA II, а надежность и скорость ввода/вывода осталась на уровне SAS дисков.

Таким образом, в настоящий момент стоит действительно серьезно задуматься над протоколами хранения данных, которые вы собираетесь использовать в рамках корпоративной СХД.

До недавнего времени основными протоколами взаимодействия с СХД являлись – FibreChannel и SCSI. Сейчас на смену SCSI, расширив его функционал, пришли протоколы iSCSI и SAS. Давайте ниже рассмотрим плюсы и минусы каждого из протоколов и соответствующих интерфейсов подключения к СХД.

Storage Spaces vs. RAID

Windows Storage Spaces and RAID, while having some intrinsic overlap, do satisfy certain use cases more effectively than others. There are benefits and limitations to each technology.

First, RAID has two distinct flavors: software and hardware. Meanwhile, Windows Storage Spaces is a software-driven technology that favors provisioning via GUI or CLI. Neither software RAID nor Storage Spaces have socket limitations, though traditional RAID does.

The operating system also looks at RAID and Storage Spaces disks differently. RAID disks appear as a single unit — even though physical RAID disks might have varied capacities. This leads to space wasting. Such a problem isn’t prevalent with Storage Spaces since single drives are accessible.

Performance-wise, RAID 0 handily tops Storage Spaces’ simple mode by roughly 2x. However, 4K read-write speeds are comparable. RAID 1 sequentially reads a tad faster than its Windows counterpart, while Spaces doubles up RAID 1’s write speeds in two-way mirror mode. Hardware RAID still holds a massive advantage when measured against Spaces’ parity mode in reading and writing.

Finally, Storage Spaces can be much more wallet-friendly than RAID setups. There aren’t hefty hardware acquisition fees associated with setup.

Установка отказоустойчивого кластера

  1. Щелкните Диспетчер серверов>Управление>Добавление ролей и компонентов.
  2. На странице Выбор типа установки щелкните элемент Установка ролей или компонентов.
  3. На странице Выбор целевого сервера щелкните сервер, который необходимо настроить для отказоустойчивой кластеризации. На странице «Выбор компонентов» щелкните Отказоустойчивая кластеризация. Щелкните Добавить компонент, чтобы установить средства управления отказоустойчивыми кластерами.
  4. На странице Подтверждение выбранных параметров установки нажмите кнопку Установить. Перезапуск сервера не требуется.
  5. Повторите эти действия для каждого сервера, который нужно добавить в кластер файлового сервера в качестве узла.
  6. Когда в кластере будет как минимум два узла, вы можете выполнять для него проверочные тесты (откройте диспетчер отказоустойчивости кластеров и в разделе Управление щелкните Проверить конфигурацию).
  7. На странице Выбор серверов или кластера укажите NetBIOS или полное доменное имя добавляемого узла и нажмите кнопку Добавить. На странице Параметры тестирования щелкните элемент Выполнить все тесты (рекомендуется).
  8. На странице Сводка, если тесты выполнены неправильно, щелкните элемент Создать кластер, используя проверенные узлы. Щелкните Просмотреть отчет, чтобы устранить возможные неполадки.
  9. В поле Точка доступа для администрирования кластера укажите имя кластера, например VMMLibrary.
    При создании кластера это имя регистрируется в Active Directory как объект-компьютер кластера (CNO). Если для кластера указано имя NetBIOS, CNO создается в том же расположении, где находятся объекты компьютеров для узла кластера (в контейнере «Компьютеры» или в подразделении). Вы можете указать другое расположение, добавив другое имя подразделения. Например, CN=ClusterName, OU=Clusters, DC=Contoso. Дополнительные сведения см. в разделе о .
  10. Если сервер не настроен на использование DHCP, укажите статический IP-адрес для кластера. Выберите каждую сеть, которую нужно использовать для управления кластерами, и выберите IP-адрес в поле Адрес. Этот IP-адрес связывается с кластером в DNS.
  11. На странице Подтверждение проверьте параметры. Если вы хотите настроить хранилище позднее, снимите флажок Добавить все допустимые хранилища в кластер. Нажмите кнопку Далее, чтобы создать кластер.
  12. Убедитесь, что на странице Сводка создан кластер, а его имя указано в диспетчере отказоустойчивого кластера.

Установка VMM на первом узле кластера

  1. Запустите установку VMM на любом созданном вами узле кластера и нажмите кнопку Установить.
  2. VMM обнаружит эту установку на узле кластера и спросит, нужно ли сделать сервер VMM высокодоступным. Нажмите кнопку Да.
  3. На странице Выберите устанавливаемые компоненты выберите сервер управления VMM и консоль VMM.
  4. На странице Сведения о регистрации продукта укажите данные организации и ключ продукта.
  5. На странице Лицензионное соглашение и программа улучшения качества программного обеспечения примите условия лицензионного соглашения и укажите, хотите ли вы участвовать в программе улучшения качества.
  6. На странице Расположение установки примите параметры по умолчанию.
  7. На странице Предварительные требования VMM проверяет, выполнены ли все предварительные требования, и устанавливает недостающие компоненты. Если пакет ADK для Windows не установлен, скачайте и установите его.
  8. На странице Конфигурация базы данных укажите базу данных, которая должна использоваться для VMM. База данных должна быть высокодоступной и развернутой в отдельном отказоустойчивом кластере. Это диалоговое окно появляется, если диспетчер VMM не кластеризован, а также если он кластеризован, но группы доступности AlwaysOn не используются. Укажите имя кластера.
  9. На странице Конфигурация кластера укажите имя кластера VMM, например HAVMMM.
  10. На странице Настройка учетной записи службы и распределенного управления ключами укажите учетную запись службы и созданной ранее расположение ключа. Учетные записи запуска от имени в VMM хранятся в базе данных VMM в зашифрованном виде. При развертывании для высокого уровня доступности требуется доступ к зашифрованным ключам из основного расположения. Поэтому перед запуском установки создайте контейнер для распределенного управления ключами в Active Directory. Дополнительные сведения о контейнере распределенного управления ключами см. .
  11. На странице Конфигурация порта измените параметры порта (если нужно).
  12. Завершите установку VMM. Общую папку библиотеки можно указать уже сейчас. В высокодоступном развертывании общая папка создается после завершения установки.

Step 2: Configure the network

If you’re deploying Storage Spaces Direct inside virtual machines, skip this section.

Storage Spaces Direct requires high-bandwidth, low-latency networking between servers in the cluster. At least 10 GbE networking is required and remote direct memory access (RDMA) is recommended. You can use either iWARP or RoCE as long as it has the Windows Server logo that matches your operating system version, but iWARP is usually easier to set up.

Important

Depending on your networking equipment, and especially with RoCE v2, some configuration of the top-of-rack switch may be required. Correct switch configuration is important to ensure reliability and performance of Storage Spaces Direct.

Windows Server 2016 introduced switch-embedded teaming (SET) within the Hyper-V virtual switch. This allows the same physical NIC ports to be used for all network traffic while using RDMA, reducing the number of physical NIC ports required. Switch-embedded teaming is recommended for Storage Spaces Direct.

Switched or switchless node interconnects

  • Switched: Network switches must be properly configured to handle the bandwidth and networking type. If using RDMA that implements the RoCE protocol, network device and switch configuration is even more important.
  • Switchless: Nodes can be interconnected using direct connections, avoiding using a switch. It is required that every node have a direct connection with every other node of the cluster.

For instructions to set up networking for Storage Spaces Direct, see the Windows Server 2016 and 2019 RDMA Deployment Guide.

Советы по оптимальному использованию Storage Spaces

  • При использовании в кластере используйте только SAS HDD и SSD, избегайте использования SATA дисков с дополнительными интерпозерами.
  • При создании виртульных дисков учитывайте число т.н. . Данный параметр может очень сильно влиять на производительность. Нестандартное число столбцов можно задать только при использовании PowerShell. Использование большего числа столбцов повышает производительность, но накладывает ограничение на добавление дисков в пул.

    Пример (виртуальный диск Dual Parity, 13 столбцов, 1000ГиБ, Fixed Provisioning):

  • Избегайте использования виртуальных дисков Parity и Dual Parity при наличии большой нагрузки на запись и/или случайного доступа малыми блоками.
  • Одним из самых востребованных на сегодня решений является небольшой 2-узловой кластер для Hyper-V. Из-за конкурентного обращения нескольких ВМ достаточно высокий процент нагрузки на дисковую подсистему будет состоять из случайного доступа. При расчёте дисковой подсистемы планируйте использование зеркальных виртуальных дисков (2-way mirror — стандартное двойное зеркалирование, для особых сценариев можно использовать тройное), производительность Parity и Dual Parity будет достаточно только для архивных данных. Планируйте использование минимум двух SSD для tiering’а и кэширования записи.
  • Избегайте добавления дисков с разной производительностью (например, HDD 7200 и 10000 об/мин) в общий пул либо создавайте виртуальные диски только из HDD с одинаковой производительностью, выбирая их вручную в GUI или через параметр при создании через PowerShell. Диски SSD должны быть либо вынесены в отдельный пул, либо использоваться совместно с HDD только в качестве быстрого яруса и/или write-back кэша.

Final notes

I’ve really enjoyed the time I’ve spent to play with Storage Spaces Direct. The issues to make it work in a virtualized environment are not important, as in a production environment I’m expecting people to use physical servers among those listed in the hardware compatibility list that Microsoft is preparing. The configuration of the solution is really simple, and the failover capabilities are really reliable. When Windows 2016 will become Generally Available later this year, I’m expecting many IT admins to start thinking of it as a new possible solution to create a scale-out storage, especially in situations where SMB3 is the needed protocol.

Priority-based Flow Control

In standard Ethernet we have the ability to pause traffic when the receive buffers are getting full. The downside of ethernet pause is that it will pause all traffic on the link. As the name already gives it away, Priority-based Flow Control (PFC) can pause the traffic per flow based on that specific Priority, in other words; PFC creates Pause Frames based on a traffic CoS value. This way we can manage flow control selectively for the traffic that requires it, such as storage traffic, without impacting other traffic on the link.

In the following example we’re using 3 CoS values, as you can see only the storage traffic is paused when the buffers are getting full while cluster traffic just keeps going.
This makes sure the server is not unreachable for the other servers in the cluster which would cause a failover of all the cluster roles.
The receive buffers could get full when I/O cannot be done (fast enough) to disks for example.

How to Enable Storage Spaces Direct

Activate S2D using the following cmdlet:

The cmdlet is being processed long enough (about 10 minutes), all available disks and their performance will be analyzed and a cluster pool will automatically be created. Also, two tiers are created automatically: Performance and Capacity, having different failover types: mirror and parity, respectively.

3 types of providing fault tolerance of the data storage are supported:

  1. Mirrored (3) – the data are synchronously replicated between 3 (or 2 in minimal configuration) nodes. High reading speed is reached due to distributing the operation between all servers.
  2. Parity (2) – the data with parity information are distributed among different disks. Data storage is more efficient since you don’t need to store several copies of the same data.
  3. Tiered (1) – a combination of both above mentioned methods.

Note 1. If there appears an error “no disks with supported bus types found to be used for S2D” when running the Enable-ClusterS2D command, it is likely that the bus type (BusType) of your disks is RAID (it is an unsupported configuration from S2D). Let’s check the bus type:

It is true – in all cases it is RAID. The solution is to update drivers or firmware of the controllers (if you have HP servers, install the latest HPE Support Pack). Check the BusType again. (now it’s changed to SAS).

Also, there is a little trick that allows to change the bus type to SATA for the specific type of controller:

Note 2. If SSD or NVMe type of disk is detected in the array, it will be automatically used as a cache storage. If there are no such disks, some warnings will appear during S2D creation. You can disable cache using the parameter.

Open the Failover Cluster Manager and make sure that Cluster Pool 1 has appeared in the Storage section.

After selecting the pool, you can see what disks it consists of.

If necessary, the pool name may be changed:

If you have to create a volume from the specific disks, you can use this command. First, select all LUN 3 disks and collect them into the pool.

Display the list of disks in the pool:

Add a new disk to the pool:

Disks marked as S2D are not displayed in the Disk Management console any more, and it is OK.

If you have different types of drives you can use storage tiering (optional). A mirror-type tier of SSDs is created as follows:

A parity tier of common HDDs:

Now you can create a CSV (Cluster Shared Volume):

You can display the list of volumes and their redundancy types like this:

A new CSV will appear in the Disk Management.

This volume can be used to hos Hyper-V virtual machines or a Scale-out File Server shares.

So, using Storage Spaces Direct of several servers with local disks, you can easily create a software network storage. Due to S2D, fault tolerance of both any pair of disks or servers (4+ node cluster) is provided. S2D cluster automatically starts the process of data reallocating between the rest devices if any faults of disks or servers are detected. In the test environment you can make sure that when you disconnect any two disks, the storage is still available, and VMs on it are running. How to replace a failed drive in the S2D storage I will describe in the next article.

Deploy Storage Spaces Direct Cluster using VMM

Assuming you have all the infrastructure in place including the logical network, VM network, uplink port profile and the IP address pool defined in VMM.

Open VMM console and navigate to the Fabric workspace, click on Add Resources and select Hyper-V Hosts and Clusters.

Next, add the nodes that will be part of the S2D cluster, click Next twice and then hit Finish.

Once the nodes are added into VMM, Open VMM console and navigate to the Fabric workspace, click on Create and select Hyper-V Cluster.

Next, at the General Configuration page, specify the Cluster name, select Host group and make sure to select Enable Storage Spaces Direct as shown in the following screenshot:

At the Resource Type page, select the Run as account in order to create the cluster.

Next, choose Existing servers running a Windows Server operating system, since the hosts are already added into VMM. Click Next.

As part of the cluster creation wizard, cluster validation is obligatory as part of Storage Spaces Direct cluster creation as shown in the next screenshot.

Select all the hosts that will be part of the S2D Cluster. Click Next.

At the IP Address page, enter any static IP address needed by the cluster or specify the Static IP Pool to be used as shown in the next screenshot. Click Next.

At the Summary page, confirm the settings and click Finish.

Switch to the Jobs pane, as part of creating the S2D cluster, VMM performs the following steps:

Since we are simulating S2D cluster in VMs instead of physical machines, the cluster creation will fail in VMM with the following error:

In Hyper-V virtual machines, the media type is reported as unspecified. As of this writing and in order to work around this, please run the following PowerShell cmdlets on one of the TP5 node:

$nodes = («S2D1», «S2D2», «S2D3», «S2D4»)

Invoke-Command $nodes {Install-WindowsFeature Failover-Clustering -IncludeAllSubFeature -IncludeManagementTools}

New-Cluster -Name S2D-CLU -Node $nodes –NoStorage –StaticAddress 172.16.20.96

Enable-ClusterS2D -CacheMode Disabled -AutoConfig:0 -SkipEligibilityChecks

New-StoragePool -StorageSubSystemFriendlyName *Cluster* -FriendlyName S2D -ProvisioningTypeDefault Fixed -PhysicalDisk (Get-PhysicalDisk | ? CanPool -eq $true)

Get-StorageSubsystem *cluster* | Get-PhysicalDisk | Where MediaType -eq «UnSpecified» | Set-PhysicalDisk -MediaType HDD

1
2
3
4
5
6
7
8
9
10
11

$nodes=(«S2D1″,»S2D2″,»S2D3″,»S2D4»)

Invoke-Command$nodes{Install-WindowsFeature Failover-Clustering-IncludeAllSubFeature-IncludeManagementTools}

New-Cluster-Name S2D-CLU-Node$nodes–NoStorage–StaticAddress172.16.20.96

Enable-ClusterS2D-CacheMode Disabled-AutoConfig-SkipEligibilityChecks

New-StoragePool-StorageSubSystemFriendlyName *Cluster*-FriendlyName S2D-ProvisioningTypeDefault Fixed-PhysicalDisk(Get-PhysicalDisk|?CanPool-eq$true)

Get-StorageSubsystem *cluster*|Get-PhysicalDisk|Where MediaType-eq»UnSpecified»|Set-PhysicalDisk-MediaType HDD

Once the S2D cluster is created manually, you can see that the created Spaces Direct cluster is reported automatically under VMM. Once that is reported, the Storage Provider for Spaces Direct needs to be added.

Open VMM console and navigate to the Fabric workspace, select Add Resources | Storage Devices

Select Windows-based File Server as shown in the following screenshot. Click Next.

Provide the IP address or the Cluster FQDN and check the checkbox if the cluster is in other domain. Provide the Run As Account and click Next.

Select the Storage Device and click Next.

This adds the Storage Provider into VMM.

Протокол iSCSI

Протокол iSCSI (инкапсуляция SCSI пакетов в протокол IP) позволяет пользователям создать сети хранения данных на базе протокола IP с использованием Ethernet-инфраструктуры и портов RJ45. Таким образом, протокол iSCSI дает возможность обойти те ограничения, которыми характеризуются хранилища данных с непосредственным подключением, включая невозможность совместного использования ресурсов через серверы и невозможность расширения емкости без отключения приложений.  Скорость передачи на данный момент ограничена 1 Гб/c (Gigabit Ethernet), но данная скорость является достаточной для большинства бизнес-приложений масштаба средних предприятий и это подтверждают многочисленные тесты.  Интересно то, что важна не столько скорость передачи данных на одном канале, сколько алгоритмы работы RAID контроллеров и возможность агрегации массивов в единый пул, как в случае с DELL EqualLogic, когда используются по три 1Гб порта на каждом массиве, и идет балансировка нагрузки среди массивов одной группы.

Важно отметить, что сети SAN на базе протокола iSCSI обеспечивают те же преимущества, что и сети SAN с использованием протокола Fibre Channel, но при этом упрощаются процедуры развертывания и управления сетью, и значительно снижаются стоимостные затраты на данную СХД. Плюсы:

Плюсы:

  • Высокая доступность;
  • Масштабируемость;
  • Простота администрирования, так как используется технология Ethernet;
  • Более низкая цена организации SAN на протоколе iSCSI, чем на FC.
  • Простота интеграции в среды виртуализации

Минусы:

Есть определенные ограничения по использованию СХД с протоколом iSCSI с некоторыми OLAP и OLTP приложениями, с системами Real Time и при работе с большим числом видеопотоков в HD формате
Высокоуровневые СХД на базе iSCSI, также как и CХД c FC-протоколом, требуют использования быстрых, дорогостоящих Ethernet-коммутаторов
Рекомендуется использование либо выделенных Ethernet коммутаторов, либо организация VLAN для разделения потоков данных

Дизайн сети является не менее важной частью проекта, чем при разработке FC-сетей.. Важно! В скором времени производители обещают выпустить в серийное производство SAN на базе протокола iSCSI с поддержкой скоростей передачи данных до 10 Гб/c

Также готовится финальная версия протокола DCE (Data Center Ethernet), массовое появление устройств, поддерживающих протокол DCE, ожидается к 2011 году

Важно! В скором времени производители обещают выпустить в серийное производство SAN на базе протокола iSCSI с поддержкой скоростей передачи данных до 10 Гб/c. Также готовится финальная версия протокола DCE (Data Center Ethernet), массовое появление устройств, поддерживающих протокол DCE, ожидается к 2011 году

C точки зрения используемых интерфейсов, протокол iSCSI задействует интерфейсы Ethernet 1Гбит/C, а ими могут быть как медные, так оптоволоконные интерфейсы при работе на больших расстояниях.

Storage Spaces Direct and VMM 2016

With the next release of System Center Virtual Machine Manager 2016, VMM will start supporting Storage Spaces Direct for all the nodes that have Windows Server 2016 Datacenter edition installed only.

As of this writing, VMM 2016 Technical Preview 5 with Cumulative Update (CU3) have been released.

Starting with VMM 2016 Technical Preview 5, you can use Virtual Machine Manager to deploy Spaces Direct, both in Hyper-converged and Disaggregated topologies.

In this blog post, we will show you how build a Hyper-converged topology with Storage Spaces Direct using Virtual Machine Manager 2016.

Usage in PowerShell

You can use familiar storage cmdlets in PowerShell to create volumes with nested resiliency.

Step 1: Create storage tier templates

Windows Server 2019 requires you to create new storage tier templates using the cmdlet before creating volumes. You only need to do this once, and then every new volume you create can reference these templates.

Note

If you’re running Windows Server 2022, Azure Stack HCI 21H2, or Azure Stack HCI 20H2, you can skip this step.

Specify the of your capacity drives and, optionally, the of your choice. Do not modify the other parameters.

If your capacity drives are hard disk drives (HDD), launch PowerShell as Administrator and run:

If your capacity drives are solid-state drives (SSD), set the to instead and change the to . Do not modify the other parameters.

Tip

Verify the tiers created successfully with .

Step 2: Create volumes

Then, create new volumes using the cmdlet.

Nested two-way mirror

To use nested two-way mirror, reference the tier template and specify the size. For example:

If your capacity drives are solid-state drives (SSD), change to .

Nested mirror-accelerated parity

To use nested mirror-accelerated parity, reference both the and tier templates and specify two sizes, one for each part of the volume (mirror first, parity second). For example, to create one 500 GB volume that’s 20% nested two-way mirror and 80% nested parity, run:

If your capacity drives are solid-state drives (SSD), change to .

Step 3: Continue in Windows Admin Center

Volumes that use nested resiliency appear in Windows Admin Center with clear labeling, as in the screenshot below. Once they’re created, you can manage and monitor them using Windows Admin Center just like any other volume in Storage Spaces Direct.

Optional: Extend to cache drives

With its default settings, nested resiliency protects against the loss of multiple capacity drives at the same time, or one server and one capacity drive at the same time. To extend this protection to cache drives has an additional consideration: because cache drives often provide read and write caching for multiple capacity drives, the only way to ensure you can tolerate the loss of a cache drive when the other server is down is to simply not cache writes, but that impacts performance.

To address this scenario, Storage Spaces Direct offers the option to automatically disable write caching when one server in a two-server cluster is down, and then re-enable write caching once the server is back up. To allow routine restarts without performance impact, write caching isn’t disabled until the server has been down for 30 minutes. Once write caching is disabled, the contents of the write cache is written to capacity devices. After this, the server can tolerate a failed cache device in the online server, though reads from the cache might be delayed or fail if a cache device fails.

To set this behavior (optional), launch PowerShell as Administrator and run:

Once set to True, the cache behavior is:

Situation Cache behavior Can tolerate cache drive loss?
Both servers up Cache reads and writes, full performance Yes
Server down, first 30 minutes Cache reads and writes, full performance No (temporarily)
After first 30 minutes Cache reads only, performance impacted Yes (after the cache has been written to capacity drives)

Physical Disk «Healthy,» and Operational Status is «Removing from Pool»

In a Windows Server 2016 Storage Spaces Direct cluster, you might see the HealthStatus for one ore more physical disks as «Healthy,» while the OperationalStatus is «(Removing from Pool, OK).»

«Removing from Pool» is an intent set when Remove-PhysicalDisk is called but stored in Health to maintain state and allow recovery if the remove operation fails. You can manually change the OperationalStatus to Healthy with one of the following methods:

  • Remove the physical disk from the pool, and then add it back.
  • Import-Module Clear-PhysicalDiskHealthData.ps1
  • Run the Clear-PhysicalDiskHealthData.ps1 script to clear the intent. (Available for download as a .TXT file. You’ll need to save it as a .PS1 file before you can run it.)

Here are some examples showing how to run the script:

  • Use the SerialNumber parameter to specify the disk you need to set to Healthy. You can get the serial number from WMI MSFT_PhysicalDisk or Get-PhysicalDIsk. (We’re just using 0s for the serial number below.)

  • Use the UniqueId parameter to specify the disk (again from WMI MSFT_PhysicalDisk or Get-PhysicalDIsk).

Проверка готовности отказоустойчивого кластера

Перед созданием кластера необходимо убедиться, что все настройки правильно сконфигурированы. Запустите Failover Cluster Manager из меню Start, прокрутите до раздела Management и кликните Validate Configuration.

Выберите для валидации оба сервера.

Выполните все тесты. Там же есть описание того, какие решения поддерживает Microsoft.

После успешного прохождения всех нужных тестов, можно создать кластер, установив флажок Create the cluster now using the validated nodes (создать кластер с помощью валидированных узлов), или это можно сделать позже. Если во время тестирования возникали ошибки или предупреждения, можно просмотреть подробный отчет, кликнув на View Report.

Где и как скачать Windows Server 2016?

Для того чтобы попробовать Windows Server 2016 можно совершенно бесплатно скачать ознакомительную версию с официального сайта компании Microsoft. Данная версия идет с предустановленным ключом активации, а ознакомительный период составляет 180 дней. После того как ознакомительный период закончится, операционной системой пользоваться будет практически невозможно, поэтому крайне не рекомендуется использовать ознакомительную версию на «боевых» серверах и развертывать сервисы для промышленной эксплуатации (другими словами, ознакомительная версия только для ознакомления).

Также необходимо отметить, что скачать ознакомительную версию, можно только предварительно зарегистрировавшись на сайте Microsoft (регистрация простая сложного в ней ничего нет).

Итак, для того чтобы скачать ознакомительную версию Windows Server 2016, переходим на страницу загрузки ознакомительных версий — вот она TechNet Evaluation Center.

Затем, если Вы уже зарегистрированы, выбираем вариант загрузки я, например, хочу скачать ISO образ, и жмем «Продолжить».

В итоге загрузится ISO образ размером примерно около 5 гигабайт. Данный образ включает две редакции Windows Server 2016 Standard и Windows Server 2016 Datacenter, которые можно установить как с графическим интерфейсом, так и без него.

Понравилась статья? Поделиться с друзьями:
Быть в курсе нового
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: