How to set up netapp nfs and vmware vsphere datastores: a quick guide

Windows server 2012: storage spaces

Введение

Если в вашей локальной сети есть сервер, который используется как хранилище файлов и содержит множество документов, возможно, вы не захотите загружать их все в какой-то веб-сервис и продолжите работать с ними традиционным способом. Но есть простое, надежное и безопасное решение, позволяющее использовать все преимущества редактирования документов онлайн. Все, что для этого нужно:

  1. Настроить WebDAV на сервере. WebDAV (англ. Web Distributed Authoring and Versioning) — это расширение протокола HTTP, позволяющее управлять файлами на удаленном сервере, получать доступ к документам через интернет и совместно работать над ними.
  2. Подключить WebDAV-хранилище документов к модулю «Документы» ONLYOFFICE. Это позволит существенно расширить возможности управления файлами и совместной работы. Вы сможете:
    • задавать различные права доступа к файлам и папкам для пользователей и групп;
    • управлять историей версий и восстанавливать любую предыдущую версию или ревизию;
    • создавать и редактировать документы онлайн, используя самые мощные онлайн-редакторы;
    • использовать широкие возможности для совместной работы, например, совместное редактирование в режиме реального времени, рецензирование, отслеживание изменений, комментирование и многое другое.

Введение

История релиза Hyper-V Server 2019 получилась необычной и даже какой-то драматичной, как и все последние релизы от компании Microsoft. Поясню для тех, кто не в курсе. Сам 2019-й сервер зарелизился в октябре 2018 года с какими-то критичными багами. Подробности проблем не помню, но в итоге релиз отозвали. Через месяц зарелизили еще раз и вроде как успешно.

С сайта микрософт можно было скачать все версии 2019-го сервера, кроме бесплатной версии Hyper-V. Я следил за темой и все ждал, когда же появится iso образ с Hyper-V Server 2019, а его все не было и не было. Причем в Evaluation Center стояла пометка, что релиз пока откладывается, ждите, скоро все будет.

И вот дождались. 15-го июня я увидел новость о том, что Hyper-V Server 2019 доступен для загрузки в Evaluation Center. Зашел, проверил. В самом деле это так. Появился iso образ, который можно свободно загрузить, что я успешно сделал.

К слову, образ hyper-v 2019 гулял в сети, так как после первого релиза еще в октябре 2018, он был доступен и многие его скачали. Но там были какие-то баги. Из того, что я прочитал, люди указывали на то, что не работал rdp доступ к гипервизору. Не смог это проверить, так как у меня просто не проходила установка на сервер. Он то ли не устанавливался вовсе, выдавая ошибку в процессе установки, то ли потом в синий экран падал. Точно не помню. Я не стал разбираться, а поставил предыдущую версию. Как оказалось, не зря.

Final Words

The vSAN NFS share configuration in VMware vSphere 7.0 is very straightforward. It is configured on top of the simple workflow that vSAN provides in general.

The ESX agents that provide connectivity to the vSAN NFS share are automatically deployed and configured. They also allow for rolling upgrades so your file services remain available during upgrades.

The new vSAN in VMware vSphere 7 has gotten even more powerful and much more capable, including new features like the file services capability. Now, you can have basic services like file services built on top of the capabilities of your HCI infrastructure powered by vSAN.

Learn more about VMware vSAN here.

Открытие виртуальных машин в VMware Workstation

Если работа с виртуальными машинами будет производиться и далее в среде VMware Workstation, нет в принципе нужды экспортировать машины. После переустановки хост-системы Windows нужно установить гипервизор и в меню «Файл» выбрать «Сканирование виртуальных машин».

Далее указываем каталог расположения машин, тот, что был до переустановки хостовой Windows.

И добавляем все обнаруженные машины в библиотеку VMware Workstation. Если нужны не все, то, соответственно, снимаем галочки с ненужных.

Далее открываем программную библиотеку и можем работать с добавленными в интерфейс машинами.

По этому же принципу можем поступить и при переходе на другой компьютер. Мы физически переносим каталог хранения виртуальных машин VMware на диск другого компьютера. И в установленной на том другом компьютере программе VMware Workstation добавляем перенесённые виртуальные машины. При добавлении новых готовых машин программа во время их первого запуска обычно выдаёт запрос: мол, обнаружено, что это перенесённая или скопированная машина. Но программе необходимо точно указать, машина перенесена или скопирована. Это нужно для настройки сети и других функций. И вот в ответ на такой запрос нажимаем кнопку «I Moved It», т.е. указываем, что машина перенесённая.

Перенос непосредственно каталога виртуальных машин на другой компьютер – как видим, способ чрезвычайно простой, но он хорош для случаев, когда мы не стеснены средствами переноса данных. К примеру, у нас есть нужного объёма USB-HDD, либо же мы можем перенести каталог с виртуальными машинами в онлайне с использованием торрент-технологии. Но если у нас нет USB-HDD, а каталог с машинами нужно какое-то время где-то передержать, прежде чем он может быть помещён на целевой компьютер, машины лучше экспортировать. Экспортировать с целью сжатия данных. К примеру, в нашем случае папка одной виртуальной машины с фиксированным виртуальным диском весит 50 Гб.

А вес файлов экспортированной машины будет составлять даже менее 5 Гб.

vSAN NFS Share Configuration in VMware vSphere 7.0

Now we are at the point of vSAN NFS share configuration. To do this, we now have the option under the vSAN configuration for file service shares.

Navigate to the vSAN cluster Configure > vSAN > File Service Shares. Then you click Add to begin the process to add a new vSAN NFS share.

Beginning to add a new file services share

This starts the Create file share wizard. The first thing you do is name the file share. Note here you have your vSAN storage policy backing the file share. This is the power of the NFS share being hosted on vSAN. You now have the advantage of the SPBM policies working for your file share, backed by vSAN.

You can also configure Storage space quotas as well as hard limits and adding labels.

Starting the Create File Share wizard for creating a new vSAN NFS share

You have granular control at a network level to which clients can access the file share. You can define subnets and restrict the level of access they have to the file share, either read only, or read/write. You can also check the root squash option. What is this?

The Root squash checkbox provides additional security in NFS which essentially squashes permissions of a root user who mounts the share and accesses the files, thus enforcing the permissions defined.

Creating a net access rule for vSAN NFS share

Review the options defined in the create file share wizard and then click Finish.


Review the configuration of the vSAN NFS share

The tasks will kick off to Create vSAN file share.


Create vSAN file services tasks begin

After the tasks complete, you will see your new vSAN NFS share created. You can click on the name of the share to view further details such as placement, etc.


The new vSAN NFS share is created successfully

Below, you can see the placement details of the new vSAN NFS share that has been created.


Viewing placement details of the vSAN NFS share in the vSAN file services

Перенос операционной системы в гипервизор ESXi при помощи Remote Windows machine

Тут процедура точно такая же, только вместо Powered on выбираем Powered off и Remote Windows machine, а поскольку это машина удалённая, то нам нужно будет
дополнительно прописать доступы к ней (ip адрес, имя пользователя и пароль). После того как соединение с машиной-источником установим нам будет предложено выбрать в диалоговом окне каким образом
мы удалим с конвертируемой машины агента Standalone. Автоматически после переноса или самостоятельно своими ручками чуть позже.

Дальше процесс никак не отличается от клонирования . Не вижу смысла повторять одно и тоже по нескольку раз.

Установка общей папки Synology NAS на VMware ESXi:

Чтобы смонтировать общую папку Synology NAS vmware_esxi, войдите в панель управления VMware ESXi, перейдите к Место хранения раздел и нажмите Новое хранилище данных как отмечено на скриншоте ниже.

Выбирать Смонтировать хранилище данных NFS и нажмите Далее.

Теперь вам нужно ввести необходимую информацию о монтировании NFS, чтобы смонтировать vmware_esxi общая папка на Synology NAS.

Введите имя хранилища данных VMware, введите IP-адрес Synology NAS в поле NFS сервер введите путь монтирования вашей общей папки в поле Общий ресурс NFS раздел и нажмите Следующий как отмечено на скриншоте ниже.

В моем случае IP-адрес моего Synology NAS 192.168.0.110, а путь монтирования общей папки vmware_esxi — /volume2/vmware_esxi. Для вас они будут другими. Так что не забудьте заменить их здесь своими.

Нажмите на Заканчивать.

В vmware_esxi Общая папка должна быть смонтирована как хранилище данных VMware на вашем сервере VMware ESXi, как вы можете видеть на снимке экрана ниже.

Чтобы просмотреть содержимое только что созданного хранилища данных VMware, щелкните его правой кнопкой мыши (ПКМ) и выберите Просматривать как отмечено на скриншоте ниже.

Как видите, файлы ISO, которые я скопировал в iso / папка vmware_esxi общая папка моего Synology NAS доступна из моего Сервер VMware ESXi. Итак, общая папка vmware_esxi успешно смонтирована на моем сервере VMware ESXi.

Реализация

Первоначально начнем с того, что на коммутаторе порты к которым подключены физические машины поместим в собственные VLAN, которых нет в инфраструктуре организации. В итоге получается что в каждом VLAN оказывается по две физические машины. Далее все созданные VLAN помешаем на сервер где установлен VMWare.

На виртуальном switch VMWare получаем следующую структуру:

Для того, чтобы организовать маршрутизацию и разделение на подсети используем Mikrotik CHR. На сервере VMWare разнесем созданные VLAN между виртуальными машинами и Mikrotik. В итоге получаем следующим вид для каждого VLAN:

Новая топологию с Mikrotik CHR выглядит следующим образом:

На виртуальный маршрутизатор в итоге приходят следующие интерфейсы:

  1. Интерфейс для доступа к внутренней сети организации
  2. Интерфейс с реальным IP адресов
  3. Интерфейс каждого созданного VLAN

How to access VMFS Datastore from Linux, Windows, and ESXi

Now let’s take a look at how our Support Engineers access the data stored on the VMFS database of the ESXi host.

If the ESXi host crashes, but the local disk (disks) of the server are still functional, then it is always possible to copy the virtual machine files (both data drives and configuration files) from VMFS datastore and run VM on a different server (even on VMware Workstation or Hyper-V). The main problem is that the common operating systems (Windows and Linux) by default do not recognize the partition with the VMFS file system, because they do not have a VMFS driver.

Let’s see the different ways of accessing data on the VMFS datastore.

How to Mount VMFS file system on Linux (Ubuntu)

First, we connect to a physical disk with the VMFS file system to the computer (server) with Ubuntu.

In order to access the data on the VMFS volume, we have to install a special third-party vmfs-tools package. This package allows accessing VMFS from non-ESXi hosts. It is possible to access data on this partition in read-only mode.

We run the below command to install the package.

#apt-get install vmfs-tools

Next, to install package dependencies, we run the below command.

#apt-get install vmfs-tools

After the package is installed, we need to create a mount point in which the VMFS partition will be mounted:

#mkdir /mnt/vmfs

The next step is to look into the partitions on the disks. Creates a number of service partitions when installed in addition to the partition for virtual machine files (VMFS partition).

If the ESXi version is 4 or earlier, or a VMFS storage has been updated from VMFS 3 to VMFS 5, and its size doesn’t exceed 2TB, then we can display the list of disks and partitions by executing below command.

#fdisk -l

As a result of the above command, we found VMFS partition is /dev/sdb3

Now we only have to mount a partition with the VMFS storage:

#vmfs-fuse /dev/sdb3 /mnt/vmfs

Then list the contents of the mounted partition:

#ls -all /mnt/vmfs

Now we see all the virtual machine files on the VMFS storage that is available in read-only mode. It means that we can now copy the directories and/or individual files of the necessary virtual machines to a separate drive and run them on another ESXi host.

Access VMFS Volume from Windows

In order to connect the VMFS volume and access virtual machine files from Windows, we’ll need a special Java driver – Open Source VMFS Driver. This driver requires Java version 6 or later. It allows mounting VMFS volumes in read-only mode.

  • First, we download Open Source VMFS Driver (fvmfs_r95_dist.zip and unpack it to any directory (e.g., C:vmfs).
  • Next, we can check the operation of the java-application fvmfs.jar by running the below commands. cd vmfsjava -jar fvmfs.jar
  • Next, we determine the number of HDDs containing VMFS storage that is connected to the Windows computer. We can find the disk number in the Disk Management Console or using diskpart (in our example, the connected disk has the index 1 – Disk1. For fvmfs driver, this disk has the following name: \.PhysicalDrive1).
  • Then we try to get information about this disk: java -jar fvmfs.jar \.PhysicalDrive1 info
  • After that, we share this disk with WebDAV: java -jar fvmfs.jar \.PhysicalDrive1 webdav
  • Then mount the shared disk: net use * http://localhost:50080/vmfs
  • A new disk that contains VMFS datastore available for reading should appear in the system;

However, we don’t close the console window while working with files on the VMFS storage.

Mounting an existing VMFS Datastore on a new ESXi host

As we saw earlier in both of the above cases, third-party VMFS drivers for Linux and Windows do not allow working with VMFS 6.0. Therefore, the best way to access data on a VMFS partition of a failed server is to connect its disks to a new ESXi server.

The new ESXi host must correctly identify the attached VMFS datastore and then we will be able to access the files on it.

Here are the steps that we follow to connect an existing VMFS storage to a new ESXi host without formatting it:

  • First, we connect to the new ESXi server using the vSphere Web Client;
  • Next, we connect the drive to the new server and run Storage rescan;
  • Then we go to the Configure >> Datastores section and select Create a new datastore item;
  • After that, we select the storage type: Disk or LUN;
  • In the list of available devices, we select the connected drive (LUN) with the VMFS storage;
  • Then we select the connection mode. Select Keep the existing signature item;
  • We click the Finish button.
  • We go to the host’s storage section. Here we select the connected storage. Its contents can be displayed by clicking on the
  • Datastore browser button;
  • Finally, now we can find the necessary vmx files, register them on the host, and immediately start the critical virtual machines.

Советы по оптимальному использованию Storage Spaces

  • При использовании в кластере используйте только SAS HDD и SSD, избегайте использования SATA дисков с дополнительными интерпозерами.
  • При создании виртульных дисков учитывайте число т.н. . Данный параметр может очень сильно влиять на производительность. Нестандартное число столбцов можно задать только при использовании PowerShell. Использование большего числа столбцов повышает производительность, но накладывает ограничение на добавление дисков в пул.

    Пример (виртуальный диск Dual Parity, 13 столбцов, 1000ГиБ, Fixed Provisioning):

  • Избегайте использования виртуальных дисков Parity и Dual Parity при наличии большой нагрузки на запись и/или случайного доступа малыми блоками.
  • Одним из самых востребованных на сегодня решений является небольшой 2-узловой кластер для Hyper-V. Из-за конкурентного обращения нескольких ВМ достаточно высокий процент нагрузки на дисковую подсистему будет состоять из случайного доступа. При расчёте дисковой подсистемы планируйте использование зеркальных виртуальных дисков (2-way mirror — стандартное двойное зеркалирование, для особых сценариев можно использовать тройное), производительность Parity и Dual Parity будет достаточно только для архивных данных. Планируйте использование минимум двух SSD для tiering’а и кэширования записи.
  • Избегайте добавления дисков с разной производительностью (например, HDD 7200 и 10000 об/мин) в общий пул либо создавайте виртуальные диски только из HDD с одинаковой производительностью, выбирая их вручную в GUI или через параметр при создании через PowerShell. Диски SSD должны быть либо вынесены в отдельный пул, либо использоваться совместно с HDD только в качестве быстрого яруса и/или write-back кэша.

Windows NFS and VMware ESXi FAQs

1. Can VMware ESXi work directly with Windows shares over SMB protocol?

No, VMware ESXi cannot work directly with Windows shares over SMB protocol. You’ll need to use an alternative method, such as mounting a Windows folder in the ESXi configuration, to create an additional VMFS datastore.

2. What storage types can ESXi use as a VMFS datastore?

ESXi can use two types of storage as a VMFS datastore: a local disk or LUN from an external storage device connected over Fibre Channel or iSCSI, and Network File System (NFS) – a network protocol for remote access to file systems, commonly used in Unix/Linux environments. These are formatted with the VMware VMFS file system and VMFS partitions.

3. Can NFS directory be used as storage for VMware VM’s files in a production environment?

It is recommended to use NFS directory as storage for VMware VM’s files only for test or non-critical production environments.

4. How can I install the Server for NFS feature in Windows Server?

You can install the Server for NFS feature using the Server Manager console or with a single PowerShell command: Add-WindowsFeature “FS-NFS-Service”.

5. Can I restrict access to the NFS service using Windows Firewall?

You can restrict access to the NFS service using Windows Firewall by denying access, except for the required IP address or subnet.

6. How do I connect a Windows share to a VMware ESXi host?

After creating a new network NFS share on your Windows Server, log in to your vSphere server or ESXi host, and select your host. From the Action menu, select Storage > New > Datastore. Choose NFS as the datastore type, NFS 4.1 as the version, and enter the Datastore name, NFS folder, and NFS server name. Once the NFS datastore is added successfully, it will appear in the list of available host datastores.

Преимущества и недостатки Storage Spaces

Преимущества

  • Снижение затрат на оборудование.

    Для простых проектов с одиночным сервером: SAS HBA или чипсетный контроллер вместо аппаратного RAID-контроллера; возможность использовать недорогие диски SATA, формально не совместимые с аппаратными RAID (например, WD Red) вместо дисков nearline класса.

    Для проектов с одиночной неотказоустойчивой СХД и большими требованиями к плотности размщениния дисков можно использовать такие платформы (72 диска в 4U, до 432ТБ сырой ёмкости при использовании 6ТБ дисков):

    Для кластерных решений: простые дисковые полки (SAS JBOD’ы) вместо дорогостоящих СХД.

  • Высокая производительность. Решение на базе Storage Spaces и SSD легко масштабируется по пропускной способности и IOPS путём добавления дисковых полок и HBA вплоть до нескольких миллионов IOPS и десятков ГБ/с. Сравнительно невысокая производительность обычных HDD может быть компенсирована применением ярусного хранения с размещением «горячих» данных на SSD и/или использованием SSD для кэширования операций записи.

    Использование tiering’а (ярусного хранения) в сочетании с кэширование записи на SSD в Storage Spaces в большинстве случаев работает эффективнее, обходится дешевле и имеет большие пределы масштабирования в сравнении с реализацией SSD кэша на аппаратных RAID-контроллерах (например, LSI CacheCade или Adaptec MaxCache).

  • Гибкое использование дискового пространства. В Storage Spaces можно комбинировать на одной дисковой группе (в одном пуле) тома с любым уровнем отказоустойчивости, при добавлении в пул SSD — с любым соотношением ёмкости между HDD- и SSD-ярусами и/или ёмкостью write-back кэша.

    Для всех видов томов, за исключением использования в кластере, томов с ярусным хранением и томов Dual Parity поддерживается Thin Provisiong (тонкое выделение ресурсов) — это позволяет выделять ёмкость только по мере реального использования.

Недостатки

  • Низкая производительность на запись при использовании обычных HDD, особенно в Parity и Dual Parity

    Определенный тип нагрузки на запись (случайный доступ небольшими блоками, сосредоточенный в определённой области) может быть легко компенсирован добавлением SSD в качестве быстрого яруса и кэша на запись. Но продолжительную линейную нагрузку на запись компенсировать не получится, так что рекомендовать использование Storage Spaces, например, для видеонаоблюдения нельзя.

    Для бюджетных кластерных решений под Windows (с похожей архитектурой на базе SAS JBOD) с высокой нагрузкой на запись мы советуем использовать вместо Storage Spaces специальные RAID-контроллеры LSI Syncro CS.

  • Ограниченное масштабирование кластера. Для использования Storage Spaces в кластере необходим совместный доступ к дискам через дисковую полку с двумя SAS-экспандерами (SAS JBOD). SAS JBOD не является отдельной самостоятельной СХД, поэтому кластер с использованием Storage Spaces может состоять максимум из 4-х узлов (необходим специальный SAS JBOD с 4-мя входами на каждый экспандер), а в типовых конфигурациях с SAS JBOD Supermicro — максимом из 3-х узлов (или 2-х при необходимости подключать дополнительные JBOD’ы каскадом).

Шаг 2. Настройка сети

если вы развертываете дисковые пространства прямо внутри виртуальных машин, пропустите этот раздел.

дисковые пространства Direct требует сети с высокой пропускной способностью и низкой задержкой между серверами в кластере. Требуется по крайней мере 10 сетей GbE, и рекомендуется использовать удаленный доступ к памяти (RDMA). вы можете использовать либо iWARP, либо роце, если у него есть логотип Windows Server, соответствующий вашей версии операционной системы, но iWARP, как правило, проще в настройке.

Важно!

В зависимости от сетевого оборудования и, особенно с Роце версии 2, может потребоваться настройка коммутатора верхнего уровня. правильная конфигурация коммутатора важна для обеспечения надежности и производительности дисковые пространства Direct.

в Windows Server 2016 введена команда объединения коммутаторов (SET) в виртуальном коммутаторе Hyper-V. Это позволяет использовать одни и те же физические порты сетевого адаптера для всего сетевого трафика при использовании RDMA, уменьшая число необходимых портов физического сетевого адаптера. объединение встроенных коммутаторов рекомендуется для дисковые пространства Direct.

Взаимосвязи узлов с переключением и с переключением

  • Переключение: Сетевые коммутаторы должны быть правильно настроены для работы с пропускной способностью и типом сети. Если используется RDMA, который реализует протокол Роце, сетевое устройство и Конфигурация коммутатора еще более важны.
  • Без переключения: узлы могут быть взаимосоединены с помощью прямых подключений, избегая использования коммутатора. Необходимо, чтобы каждый узел имел прямое соединение со всеми остальными узлами кластера.

инструкции по настройке сети для дисковые пространства Direct см. в разделе руководств по развертыванию Windows Server 2016 и 2019.

Описание тестового стенда

Железо

4 идентичных хоста в следующей конфигурации:

  • Платформа — AIC SB302-LB (3U 16-Bay Storage Server, не сертифицирован под vSphere 6.2)
  • Процессор — Intel Xeon CPU E5-2620 v4 @ 2.10GHz – 8 ядер, включен hyper-threading – 2шт.
  • ОЗУ – 128 ГБ
  • NVMe-flash — HGST Ultrastar SN150 HUSPR3216AHP301, 1,6ТБ PCIe – 2шт (сертифицирован под Virtual SAN 6.2, только под all-flash, по данным HGST также сертифицирован под гибрид)
  • HDD — HGST Ultrastar 7K6000 HUS726020AL5214 2ТБ 7200 rpm SAS 12Гбит/с – 8шт (не сертифицирован под Virtual SAN 6.2, только под 6.5)
  • Загрузочный носитель – SSD 60ГБ
  • Дисковый контроллер — LSI Logic Fusion-MPT 12GSAS SAS3008 PCI-Express (сертифицирован под vSphere 6.2, но не сертифицирован под Virtual SAN 6.2)
  • 2 порта 1GbE
  • 2 порта IB 40Гбит/с – на HCA Mellanox ConnectX-2/ConnectX-3 в режиме IPoIB

IB-коммутатор Mallanox SB7790

ПО: VMware vSphere 6.2

vCenter Server Appliance 6.0.0.20100

ESXi 6.0.0.4600944

Версия драйвера Mallanox ConnectX-3 для VMware для работы в режиме IPoIB: MLNX-OFED-ESX-2.4.0.0-10EM-600.0.0.2494585

Описание кластера Virtual SAN

Пробная лицензия vSphere — полный фарш

vCenter Server Appliance развернут в виде ВМ на выделенном локальном загрузочном SSD одного из хостов

Кластер HA из 4х хостов, на нем же развернут кластер Virtual SAN (vSAN)

Virtual SAN задействует все носители 4х узлов кластера vSphere (за исключением загрузочных SSD): 8 идентичных дисковых групп (ДГ) – по 2 на хост; каждая ДГ включает 1 NVMe-flash под кэш и 4 HDD под capacity. Получаем гибридное хранилище с сырой общей ёмкостью 57,64ТБ — 32 capacity drive по 1,82ТБ (реальная ёмкость диска 2ТБ)

Ранее установленный софт

Очень часто причиной зависания виртуальной машины на ESXI 6.5 выступает недавняя установка обновлений в системе или различного рода программного обеспечения. Обязательно посмотрите в «Панель управления\Все элементы панели управления\Программы и компоненты» по дате установки, что недавно было проинсталлировано.

Тут же можно посмотреть установленные обновления. Недавно Microsoft выпустило обновление KB4015553 (Со временем может меняться), которое в Windows Server 2012 R2 стало вызывать зависание. Необходимо удалить KB4015553, kb4019215 и kb4019217, перезагрузить ваш сервер.

Еще могу по своему опыту сказать, в некоторых случаях виртуальная машина с Windows, может зависать из-за антивируса Sumantec Endpoint Protection, вот пример ветки обсуждения на сайте Microsoft (https://social.technet.microsoft.com/Forums/ie/en-US/330179d1-a252-4c0f-962c-6a639ca6b373/windows-server-2012-r2-vmware-vm-freezes-randomly-no-event-logs?forum=winserver8gen или https://communities.vmware.com/thread/535938). Как вариант попробуйте его удалить, или переустановить заново.

Сама компания Symantec рекомендует в ветке (https://support.symantec.com/en_US/article.TECH236543.html) Исключите из проверки следующий каталог, включая все подкаталоги: путь зависит от вашей версии SEP: «C:\ProgramData\Symantec\Symantec Endpoint Protection\<версия>\Data\Definitions». Пример для SEP 14.0 MP1: C:\ProgramData\Symantec\Symantec Endpoint Protection\14.0.2332.0100.105\Data\Definitions. Если вышеуказанное исключение не решает проблему, также исключите следующий каталог: C:\Windows\rescache.

Эти пути могут отличаться в зависимости от сборки продукта или от того, что каталоги ProgramData или Windows были перемещены на другой диск.

Сделать, это можно в «Change Settings — Exception — SONAR Exception» нажимаем кнопку «Add» и выбираем нужные каталоги.

Если папка ProgramData не видится, то вам необходимо включить отображение скрытых папок.

На этом у меня все, надеюсь, что мой скромный опыт окажется для кого-то полезным, и ваши виртуальные машины перестанут зависать. С вами был Иван Семин, автор и создатель IT портала Pyatilistnik.org.

Настройка сети для iSCSI трафика в VMWare ESXi

Сначала нужно создать отдельный VMkernel сетевой интерфейс, который будет испоьзоваться ESXi хостом для доступа к iSCSI хранилищу. Перейдите в раздел Networking -> VMkernel NICs -> Add VMkernel NIC.

Кроме vmk порта нужно сразу создать новая группа портов (New port group). Укажите имя для этой группы – iSCSI и назначьте статический IP адрес для вашего интерфейса vmkernel.

Теперь перейдите в настройки вашего стандартного коммутатора vSwitch0 (Networking -> Virtual Switches). Проверьте, что второй физический интерфейс сервера vmnic1 добавлен в конфигурацию и активен (если нет, нажмите кнопку Add uplink и добавьте его).

Проверьте в секции Nic Teaming что оба физических сетевых интерфейса находятся в статусе Active.

Теперь в настройки группу портов iSCSI вам нужно разрешить использовать для iSCSI трафика только второй интерфейс. Перейдите в Networking -> Port groups -> iSCSI —> Edit settings. Разверните секцию NIC teaming, выберите Override failover order = Yes. Оставьте активной только vmnic1, порт vmnic0 переведите в состояние Unused.

В результате ваш ESXi хост будет использовать для доступа к вашему iSCSI LUN только один интерфейс сервера.

  • При прошивке биоса видеокарты завис компьютер

      

  • Proxmox уменьшить размер диска виртуальной машины

      

  • Как проверить видеокарту на работоспособность

      

  • Hp pavilion gaming 15 замена видеокарты

      

  • Как скинуть рентгеновский снимок на диск

Действия на стороне СХД

Необходимые настройки на СХД можно разделить на два этапа:

  • Настройка интерфейсов
  • Настройка пространства хранения

Настраивать интерфейсы требуется в основном в случае использования протокола iSCSI: необходимо задать IP адреса портов на вкладке iSCSI Ports. IP адреса портов должны быть из разных подсетей, чтобы однозначно маршрутизировался трафик на стороне хоста.

В случае использования интерфейса Fibre Channel ничего настраивать, как правило, не нужно.

Далее необходимо создать пространство хранения. Сначала создается пул – группа физических накопителей, работающих совместно. Пулов в пределах СХД может быть несколько. Накопители внутри пула объединяются в соответствии с выбранным при его создании уровнем RAID, обеспечивая заданную надежность. Пулы создаются на вкладке Pools → Create Pool, где запускается пошаговый мастер.

Перенос операционной системы в гипервизор ESXi при помощи Remote Windows machine

Тут процедура точно такая же, только вместо Powered on выбираем Powered off и Remote Windows machine, а поскольку это машина удалённая, то нам нужно будет
дополнительно прописать доступы к ней (ip адрес, имя пользователя и пароль). После того как соединение с машиной-источником установим нам будет предложено выбрать в диалоговом окне каким образом
мы удалим с конвертируемой машины агента Standalone. Автоматически после переноса или самостоятельно своими ручками чуть позже.

Дальше процесс никак не отличается от клонирования . Не вижу смысла повторять одно и тоже по нескольку раз.

Vmware vSphere

Будем считать, что мы уже установили два виртуальных сервера. Прежде чем их настраивать в кластер, необходимо предоставить какой-то общий диск.

Добавление общего диска к первой ВМ кластера

  1. Выключаем виртуальную машину.
  2. В списке виртуальных машин выбираем ту, с которой предстоит работать и открываем окно свойств
  3. Для того, что бы добавить общий диск, необходимо сначала добавить новый SCSI контроллер. Раскрываем список «New device», выбираем «SCSI Controller», жмем «Add» и переходим к настройке вновь добавленного контроллера.
  4. Параметры нового контроллера:Уточнения по параметрам:Устанавливаем тип контроллера: LSI Logic SASSCSI Bus Sharing выбираем в зависимости от того где будет работать кластер виртуальных машин:Virtual — виртуальный диск, совместно используемый ВМ в пределах одного хоста ESXiPhysical — файл vmdk может использоваться совместно с ВМ на разных ESXi хостах.У нас чуть больше чем один хост ESXi и виртуальные машины должны распологаться на разных хостах. Поэтому выбираем тип Physical
  5. Жмем «Ok»
  6. Теперь нам на этой ВМ необходимо добавить новый диск, предоставленный дисковым хранилищем. Опять открываем свойства ВМ и в выпадающем списке добавления нового оборудования выбираем «RDM Disk». Нажимаем «Add» и в открывшемся окне выбираем необходимый нам диск.
  7. Устанавливаем параметры диска:VM storage policy — оставляем без измененийLocation — устанавливаем общее хранилище, где будет храниться ссылка на дискSharing — устанавливаем Multi-writerVirtual Device Node — выбираем ранее добавленный SCSI контроллер

Далее переходим к настройкам второй ВМ.

Добавление общего диска к второй ВМ кластера

  1. Так же как и на первой ВМ добавляем новый SCSI контроллер.
  2. Затем добавляем новый диск. В выпадающем списке выбираем «Existing Hard Disk»
  3. Нажимаем «Add» и выбираем ранее созданный диск:
  4. Жмем «Ok» и переходим к настройкам добавленного диска:Устанавливаем Sharing в Multi-writerУстанавливаем Disk Mode в Independent — Persistdend. В этом режиме диск не будет участвовать в процессе снимков виртуальной машины.Virtual Device Node — устанавливаем ранее добавленный SCSI контроллер.
  5. Жмем «Ok»

Если требуется использовать более одного общего диска в VMware, то для каждого из них не требуется дополнительный контроллер SCSI. Один контроллер может обслуживать до 16 различных дисков.

Небольшое, но очень важное уточнение. При использовании SCSI контроллера в режиме «SCSI bus Sharing» не возможно использовать моментальные снимки (snapshot) виртуальных машин

Так же становится невозможной миграция ВМ между хостами. Это необходимо учитывать при планировании кластерной структуры серверов в среде Vmware vSphere.

На этом настройка аппаратной части виртуальных машин завершена. Включаем обе виртуальные машины и приступаем к настройке кластера уже на уровне операционной системы. В следующей статье речь пойдет о создании файлового сервера NFS в кластере высокой доступности.

Что такое общий диск Multi-writer в VMware ESXI

Сейчас уже очень сложно себе представить серьезный сервис без отказоустойчивости, которая может быть реализована на разных уровнях работы инфраструктуры. Очень частым решением выступает отказоустойчивый кластер, который подразумевает использование разных серверов для одного сервиса. Выход из строя одного из серверов не влияет на работоспособность предоставляемых услуг клиентам. Очень часто в кластерах используются общие диски, для хранения баз данных (Microsoft SQL или Oracle), файловые ресурсов. Общие диски могут презентованы, как отдельные LUN с СХД, через ISCSI протокол, через общий диск или RDM в случае с виртуальными машинами.

В данной заметке я опишу реализацию с помощью общего диска для виртуальных машин VMware ESXI 6.5. В некоторых случаях (как правило, в сценариях кластеризации) может потребоваться совместное использование одного и того же диска между двумя (или более) виртуальными машинами. Наиболее оптимальным способом является использование диска vmdk, физически расположенного на общем хранилище или локально на хосте ESXi. Если вы хотите использовать общие диски на разных хостах ESXi, то вы можете использовать только разделяемое хранилище

.На представленной ниже схеме вы видите:

  1. Storage Array, по сути это ваша система хранения данных, на которой реализован RAID массив, по рекомендации производителя.
  2. RAID массив порезан на LUN, это логически порезанное место на вашей системе хранения данных
  3. Далее LUN презентуется хостам VMware ESXI 6.5 и размечается файловой системой VMFS 6. Где из LUN получаются разделы (Datastore-Volume) для гипервизора.
  4. Далее на на Datastore уже разворачиваются виртуальные машины

Вот на таком общем VMFS Volume диске вы создаете общий VMDK диск, который будет доступен двум и более виртуальным машинам под чтение и запись. Сами виртуальные машины могут находится на разных физических хостах и разных географических локациях.Такой режим называется Multi-Writer VMDK, его часто применяют в построении кластеров MS SQL, Oracle RAC, такой режим работы диска применяется в технологии VMware Fault Tolerance.

Понравилась статья? Поделиться с друзьями:
Быть в курсе нового
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: