Добавить диск в кластер
Настраиваем отказоустойчивый кластер Hyper-V на базе Windows Server 2012
Уже на этапе планирования будущей виртуальной инфраструктуры следует задуматься об обеспечении высокой доступности ваших виртуальных машин. Если в обычной ситуации временная недоступность одного из серверов еще может быть приемлема, то в случае остановки хоста Hyper-V недоступной окажется значительная часть инфраструктуры. В связи с чем резко вырастает сложность администрирования - остановить или перезагрузить хост в рабочее время практически невозможно, а в случае отказа оборудования или программного сбоя получим ЧП уровня предприятия.
Научиться настраивать MikroTik с нуля или систематизировать уже имеющиеся знания можно на углубленном курсе по администрированию MikroTik. Автор курса, сертифицированный тренер MikroTik Дмитрий Скоромнов, лично проверяет лабораторные работы и контролирует прогресс каждого своего студента. В три раза больше информации, чем в вендорской программе MTCNA, более 20 часов практики и доступ навсегда.
Все это способно серьезно охладить энтузиазм по поводу преимуществ виртуализации, но выход есть и заключается он в создании кластера высокой доступности. Мы уже упоминали о том, что термин "отказоустойчивый" не совсем корректен и поэтому сегодня все чаще используется другая характеристика, более точно отражающая положение дел - "высокодоступный".
Для создания полноценной отказоустойчивой системы требуется исключить любые точки отказа, что в большинстве случаев требует серьезных финансовых вложений. В тоже время большинство ситуаций допускает наличие некоторых точек отказа, если устранение последствий их отказа обойдется дешевле, чем вложение в инфраструктуру. Например, можно отказаться от недешевого отказоустойчивого хранилища в пользу двух недорогих серверов с достаточным числом корзин, один из которых настроен на холодный резерв, в случае отказа первого сервера просто переставляем диски и включаем второй.
В данном материале мы будем рассматривать наиболее простую конфигурацию отказоустойчивого кластера, состоящего из двух узлов (нод) SRV12R2-NODE1 и SRV12R2-NODE2, каждый из которых работает под управлением Windows Server 2012 R2. Обязательным условием для этих серверов является применение процессоров одного производителя, только Intel или только AMD, в противном случае миграция виртуальных машин между узлами будет невозможна. Каждый узел должен быть подключен к двум сетям: сети предприятия LAN и сети хранения данных SAN.
Вторым обязательным условием для создания кластера является наличие развернутой Active Directory, в нашей схеме она представлена контроллером домена SRV12R2-DC1.
Хранилище выполнено по технологии iSCSI и может быть реализовано на любой подходящей платформе, в данном случае это еще один сервер на Windows Server 2012 R2 - SRV12R2-STOR. Сервер хранилища может быть подключен к сети предприятия и являться членом домена, но это необязательное условие. Пропускная способность сети хранения данных должна быть не ниже 1 Гбит/с.
Будем считать, что на оба узла уже установлена операционная система, они введены в домен и сетевые подключения настроены. Откроем Мастер добавления ролей и компонентов и добавим роль Hyper-V.
Следующим шагом добавим компоненту Отказоустойчивая кластеризация.
На странице настройки виртуальных коммутаторов выбираем тот сетевой адаптер, который подключен к сети предприятия.
Миграцию виртуальных машин оставляем выключенной.
Остальные параметры оставляем без изменения. Установка роли Hyper-V потребует перезагрузку, после чего аналогичным образом настраиваем второй узел.
Затем перейдем к серверу хранилища, как настроить iSCSI-хранилище на базе Windows Server 2012 мы рассказывали в данной статье, но это непринципиально, вы можете использовать любой сервер цели iSCSI. Для нормальной работы кластера нам потребуется создать минимум два виртуальных диска: диск свидетеля кворума и диск для хранения виртуальных машин. Диск-свидетель - это служебный ресурс кластера, в рамках данной статьи мы не будем касаться его роли и механизма работы, для него достаточно выделить минимальный размер, в нашем случае 1ГБ.
Создайте новую цель iSCSI и разрешите доступ к ней двум инициаторам, в качестве которых будут выступать узлы кластера.
И сопоставьте данной цели созданные виртуальные диски.
Настроив хранилище, вернемся на один из узлов и подключим диски из хранилища. Помните, что если сервер хранилища подключен также к локальной сети, то при подключении к цели iSCSI укажите для доступа сеть хранения данных.
Подключенные диски инициализируем и форматируем.
После чего откроем Диспетчер Hyper-V и перейдем к настройке виртуальных коммутаторов. Их название на обоих узлах должно полностью совпадать.
Теперь у нас все готово к созданию кластера. Запустим оснастку Диспетчер отказоустойчивых кластеров и выберем действие Проверить конфигурацию.
В настройках мастера добавим настроенные нами узлы и выберем выполнение всех тестов.
Если существенных ошибок не обнаружено работа мастера завершится и он предложит вам создать на выбранных узлах кластер.
При создании кластера для него создается виртуальный объект, обладающий сетевым именем и адресом. Укажем их в открывшемся Мастере создания кластеров.
На следующем шаге советуем снять флажок Добавление всех допустимых хранилищ в кластер, так как мастер не всегда правильно назначает роли дискам и все равно придется проверять и, при необходимости исправлять, вручную.
Больше вопросов не последует и мастер сообщит нам, что кластер создан, выдав при этом предупреждение об отсутствии диска-свидетеля.
Закроем мастер и развернем дерево слева до уровня Хранилище - Диски, в доступных действиях справа выберем Добавить диск и укажем подключаемые диски в открывшемся окне, в нашем случае их два.
Далее последовательно выбираем: Выбрать свидетель кворума - Настроить диск-свидетель и указываем созданный для этих целей диск.
Теперь настроим диск хранилища, с ним все гораздо проще, просто щелкаем на диске правой кнопкой и указываем: Добавить в общие хранилища кластера.
Для того, чтобы диск мог использоваться сразу несколькими участниками кластера на нем создается CSVFS - реализуемая поверх NTFS кластерная файловая система, впервые появившаяся в Windows Server 2008 R2 и позволяющая использовать такие функции как Динамическая (Живая) миграция, т.е. передачу виртуальной машины между узлами кластера без остановки ее работы.
Общие хранилища становятся доступны на всех узлах кластера в расположении C:\ClusterStorage\VolumeN. Обратите внимание, что это не просто папки на системном диске, а точки монтирования общих томов кластера.
Закончив с дисками, перейдем к настройкам сети, для этого перейдем в раздел Сети. Для сети, которая подключена к сети предприятия указываем Разрешить кластеру использовать эту сеть и Разрешить клиентам подключаться через эту сеть. Для сети хранения данных просто оставим Разрешить кластеру использовать эту сеть, таким образом обеспечив необходимую избыточность сетевых соединений.
На этом настройка кластера закончена. Для работы с кластеризованными виртуальными машинами следует использовать Диспетчер отказоустойчивости кластеров, а не Диспетчер Hyper-V, который предназначен для управления виртуалками расположенными локально.
Чтобы создать виртуальную машину перейдите в раздел Роли в меню правой кнопки мыши выберите Виртуальные машины - Создать виртуальную машину, это же можно сделать и через панель Действия справа.
Прежде всего выберите узел, на котором будет создана виртуальная машина. Каждая виртуалка работает на определенном узле кластера, мигрируя на другие узлы при остановке или отказе своей ноды.
После выбора узла откроется стандартный Мастер создания виртуальной машины, работа с ним не представляет сложности, поэтому остановимся только на значимых моментах. В качестве расположения виртуальной машины обязательно укажите один из общих томов кластера C:\ClusterStorage\VolumeN.
Здесь же должен располагаться и виртуальный жесткий диск, вы также можете использовать уже существующие виртуальные жесткие диски, предварительно скопировав их в общее хранилище.
После создания виртуальной машины перейдите в ее Параметры и в пункте Процессоры - Совместимость установите флажок Выполнить перенос на физический компьютер с другой версией процессора, это позволит выполнять миграцию между узлами с разными моделями процессоров одного производителя. Миграция с Intel на AMD или наоборот невозможна.
Не забудьте настроить автоматические действия при запуске и завершении работы узла, при большом количестве виртуальных машин не забывайте устанавливать задержку запуска, чтобы избежать чрезмерной нагрузки на систему.
Закончив с Параметрами перейдите в Свойства виртуальной машины и укажите предпочтительные узлы владельцев данной роли в порядке убывания и приоритет, машины имеющие более высокий приоритет мигрируют первыми.
На закладке Обработка отказа задайте количество допустимых отказов для виртуальной машины за единицу времени, помните, что отказом считается не только отказ узла, но и потеря пульса виртуальной машины, например, ее зависание. На время настройки и тестов есть смысл указать значения побольше.
Также настройте Восстановление размещения, эта опция позволяет передавать виртуальные машины обратно наиболее предпочтительному владельцу при восстановлении его нормальной работы. Чтобы избежать чрезмерных нагрузок воспользуйтесь опцией задержки восстановления.
На этом настройка виртуальной машины закончена, можем запускать и работать с ней.
Теперь самое время проверить миграцию, для этого щелкните на машине правой кнопкой мыши и выберите Переместить - Динамическая миграция - Выбрать узел. Виртуалка должна переместиться на выбранную ноду не завершая работы.
Каким образом происходит миграция в рабочей обстановке? Допустим нам надо выключить или перезагрузить первый узел, на котором в данный момент выполняется виртуальная машина. Получив команду на завершение работы узел инициирует передачу виртуальных машин:
Завершение работы приостанавливается до тех пор, пока не будут переданы все виртуальные машины.
Когда работа узла будет восстановлена, кластер, если включено восстановление размещения, инициирует обратный процесс, передавая виртуальную машину назад предпочтительному владельцу.
Что произойдет если узел, на котором размещены виртуальные машины аварийно выключится или перезагрузится? Все виртуалки также аварийно завершат свою работу, но тут-же будут перезапущены на исправных узлах согласно списка предпочтительных владельцев.
Как мы уже говорили, прижившийся в отечественной технической литературе термин "отказоустойчивый" неверен и более правильно его было бы переводить как "с обработкой отказа", либо использовать понятие "высокая доступность", которое отражает положение дел наиболее верно.
Кластер Hyper-V не обеспечивает отказоустойчивости виртуальным машинам, отказ узла приводит к отказу всех размещенных на нем машин, но он позволяет обеспечить вашим службам высокую доступность, автоматически восстанавливая их работу и обеспечивая минимально возможное время простоя. Также он позволяет значительно облегчить администрирование виртуальной инфраструктуры позволяя перемещать виртуальные машины между узлами без прерывания их работы.
Научиться настраивать MikroTik с нуля или систематизировать уже имеющиеся знания можно на углубленном курсе по администрированию MikroTik. Автор курса, сертифицированный тренер MikroTik Дмитрий Скоромнов, лично проверяет лабораторные работы и контролирует прогресс каждого своего студента. В три раза больше информации, чем в вендорской программе MTCNA, более 20 часов практики и доступ навсегда.
В этом разделе описывается добавление серверов или дисков в локальные дисковые пространства.
Добавление серверов
Добавление серверов, которое часто называют горизонтальным масштабированием, позволяет увеличить емкость, повысить производительность хранилища и улучшить эффективность хранения. Если ваше развертывание гиперконвергентное, добавление серверов также поможет увеличить объем вычислительных ресурсов для рабочих нагрузок.
Запустите мастер проверки кластера с помощью оснастки отказоустойчивого кластера или командлета Test-Cluster в PowerShell (запустите его от имени администратора). Добавьте новый сервер , который вы хотите добавить.
Это позволит убедиться в том, что новый сервер работает под управлением Windows Server 2016 Datacenter Edition, присоединен к тому же домену доменных служб Active Directory, что и существующие серверы, имеет все необходимые роли и компоненты и для него правильно настроено сетевое взаимодействие.
Если вы повторно используете диски, содержащие старые данные или метаданные, которые вам больше не нужны, очистите их с помощью оснастки Управление дисками или командлета Reset-PhysicalDisk. При обнаружении старых данных или метаданных диски не объединяются в пул.
Чтобы завершить добавление сервера, выполните следующую команду в кластере:
Автоматическое добавление в пул возможно только в том случае, если имеется только один пул. Если вы обойти стандартную конфигурацию для создания нескольких пулов, вам потребуется добавить новые диски в предпочтительный пул самостоятельно с помощью Add-PhysicalDisk.
От двух до трех серверов: разблокирование трехстороннего зеркального отображения
При наличии двух серверов можно создать только тома с двухсторонним зеркалированием (сопоставимо с распределенными массивами RAID-1). При наличии трех серверов вы можете создать трехсторонние зеркальные тома для улучшенной отказоустойчивости. Мы рекомендуем по возможности использовать трехстороннее зеркалирование.
Двусторонние зеркальные тома невозможно обновить на месте до трехстороннего зеркального отображения. Вместо этого вы можете создать новый том и перенести (скопировать, например с помощью реплики хранения) в него свои данные, а затем удалить старый том.
Приступить к созданию томов с трехсторонним зеркалированием можно несколькими способами. Вы можете использовать любой из них по своему усмотрению.
Вариант 1
Укажите значение PhysicalDiskRedundancy= 2 для каждого создаваемого тома.
Вариант 2
Вместо этого можно указать значение PhysicalDiskRedundancyDefault = 2 для объекта ResiliencySetting пула с именем Mirror. После этого все новые зеркальные тома будут автоматически использовать трехстороннее зеркальное отображение, даже если это не указано.
Предложение 3
Задайте значение PhysicalDiskRedundancy= 2 для шаблона StorageTier под названием Capacity, а затем создайте тома, указав уровень.
Оптимизация использования дисков после добавления дисков или серверов
Со временем при добавлении или удалении дисков распределение данных между дисками в пуле может стать неравномерной. В некоторых случаях это может привести к тому, что некоторые диски становятся полными, а другие диски в пуле имеют гораздо более низкое потребление.
Чтобы обеспечить распределение дисков даже в пуле, Локальные дисковые пространства автоматически оптимизирует использование дисков после добавления дисков или серверов в пул (это ручной процесс для дисковые пространства систем, использующих общие корпуса SAS). Оптимизация начинается через 15 минут после добавления нового диска в пул. Оптимизация пула выполняется как фоновая операция с низким приоритетом, поэтому может потребоваться несколько часов или дней, особенно если вы используете большие жесткие диски.
Оптимизация использует два задания: " Оптимизация " и " Повторная балансировка " — и вы можете отслеживать их ход выполнения с помощью следующей команды:
Пул носителей можно оптимизировать вручную с помощью командлета Optimize-StoragePool . Ниже приведен пример.
Поддержка этой версии Virtual Machine Manager (VMM) прекращена. Рекомендуем перейти на VMM 2022.
Из этой статьи вы узнаете о выделении подготовленного хранилища для узлов и кластеров Hyper-V в структуре System Center Virtual Machine Manager (VMM).
Все ответы
Мастер валидации запускал. Много ошибок - "No disks were found on which to perform cluster validation tests".
Диски форматированы в NTFS
Отформатированный в NTFS диск подключен ко всем нодам? Диск под какой нибудь буквой к какой нибудь ноде?
На каждой отдельной виртуальной машине кластера подключен диск с буквой E:
Каким образом подключены диски? Опишите,пожалуйста, чуть подробнее. +конфигурацию хостов. Гостевой кластер с shared vhdx? Какая конечная цель Вашего кластера?
Мне непонятно каким образом их вообще подключать. Приведенные инструкции не работают.
Просьба пояснить пошагово как добавить диски в кластер.
Мне непонятно каким образом их вообще подключать. Приведенные инструкции не работают.
Просьба пояснить пошагово как добавить диски в кластер.
Опишите,пожалуйста, Вашу ситуацию более подробно. Что сейчас есть, что хотите получить? приведенная ссылка актуальна лишь для 2012 R2..я просто предположил..что именно Вы пытаетесь сделать. Что выдаёт следующая команда?
Есть 2 виртуальные машины. Они объединены в кластер.
Каждая виртуальная машина имеет только один раздел 100 ГБ.
Пробовал делить системный диск на разделы. Также подключал VHD диски к виртуальным машинам как SCSI Controller, добиться видимости в Failover Cluster Manager - Storage - Disks не удалось.
Конечная цель: сделать общее отказоустойчивое файловое хранилище для кластера.
Раздел Storage Options
Сценарий, который Вы хотите проделать, схож с shared vhdx , который доступен только в версии 2012 R2. В 2012 такой возможности нет. Используйте рекомендуемые типы хранилища, указанные по ссылке
- Изменено R.Levchenko MVP 8 ноября 2013 г. 15:05
- Предложено в качестве ответа R.Levchenko MVP 8 ноября 2013 г. 15:05
- Помечено в качестве ответа Vladyslav Samko 8 ноября 2013 г. 15:30
ОК, спасибо, про типы дисков почитал.
Понял что в моем случае когда Win Svr 2012 НЕ R2 нужно использовать iSCSI Target Server.
ОК, спасибо, про типы дисков почитал.
Понял что в моем случае когда Win Svr 2012 НЕ R2 нужно использовать iSCSI Target Server.
Как настроить iSCSI Target Server и подключить его диском к кластеру?
Как настроить target в core-среде можете тут почитать. роль кластера у вас какая? что размещать будете?
"Most clustered roles use clustered storage, where the storage is available on any cluster node that runs a clustered role. Examples of clustered storage include Physical Disk resources and Cluster Shared Volumes (CSV). Some roles do not require storage that is managed by the cluster. For example, you can configure Microsoft SQL Server to use availability groups that replicate the data between nodes. Other clustered roles may use Server Message Block (SMB) shares or Network File System (NFS) shares as data stores that any cluster node can access"
Добавление серверов при использовании отказоустойчивости на уровне шасси или стоек
Если в развертывании применяется отказоустойчивость на уровне шасси или стоек, необходимо указать шасси или стойку для новых серверов, прежде чем добавлять их в кластер. Таким образом вы сообщаете локальным дисковым пространствам, как лучше распределять данные для достижения максимальной отказоустойчивости.
Создайте домен временного сбоя для узла, открыв сеанс PowerShell с повышенными привилегиями и выполнив следующую команду, где — это имя нового узла кластера:
Переместите этот временный домен сбоя в корпус или стойку, где новый сервер находится в реальном мире, как указано в :
Добавьте сервер в кластер, как описано в разделе Добавление серверов. Когда новый сервер присоединяется к кластеру, он автоматически связывается (по имени) с доменом-заполнителем сбоя.
Настройка хранилища для кластера Hyper-V
Щелкните СтруктураСерверы>Все узлы. Щелкните правой кнопкой мыши кластер, который требуется настроить, и выберите Свойства. В разделе Имя кластера узлов>Свойства откройте вкладку:
- Доступное хранилище: для добавления, удаления доступного хранилища или его преобразования в общее хранилище (CSV).
- Общие тома: для добавления, удаления общих томов кластера (CSV) или их преобразования в доступное хранилище. Для поддержки общих томов кластера кластер должен использовать по меньшей мере Windows Server 2012.
Настройка хранилища для кластера узлов Обратите внимание на следующее.
- При добавлении доступного хранилища для общих томов кластера (CSV) используйте в номере LUN только буквы и цифры. Обратите внимание на то, что для диска, который уже был инициализирован, нельзя изменить стиль раздела.
- Если вы преобразуете доступное хранилище в общие тома кластера, убедитесь в том, что в кластере отсутствуют виртуальные машины, связанные VHD- или VHDX-файлы, которые находятся в преобразуемом хранилище.
Преобразовывайте тома по одному за раз. После преобразования убедитесь, что логическая единица отображается на вкладке Общие тома.
Когда все готово к фиксации изменений, нажмите кнопку ОК.
Хранилище в отказоустойчивый кластер можно добавить после предоставления всем узлам кластера доступа к этому хранилищу (изменяя маскирование или зонирование LUN). Необязательно добавлять хранилище в кластер, если хранилище уже перечислено для этого кластера в списке Хранилище оснастки «Диспетчер отказоустойчивости кластеров».
Если хранилище добавляется только для конкретной кластеризованной службы или приложения (в отличие от случая добавления полностью нового хранилища в отказоустойчивый кластер как в единое целое), см. Добавление хранилища для кластеризованной службы или приложения.
Если кластер, который нужно настроить, не отображается, в дереве консоли оснастки «Диспетчер отказоустойчивости кластеров» щелкните правой кнопкой мыши Диспетчер отказоустойчивости кластеров, Управлять кластером, а затем выберите или укажите требуемый кластер.
Если дерево консоли свернуто, разверните дерево кластера, который требуется настроить.
Щелкните правой кнопкой мыши Хранилище, а затем выберите Добавить диск.
Выберите диск или диски, которые нужно добавить.
Дополнительная информация
-
Список дисков, отображаемый при щелчке Хранилище в оснастке «Диспетчер отказоустойчивости кластеров». Если диск уже находится в этом списке, добавлять его в кластер не нужно.
Если добавляемый диск вообще не появляется в программе «Управление дисками» (ни для одного узла), проблема может быть связана с конфигурацией хранилища, которая мешает операционной системе распознать или подключить диск. Обратите внимание, что диски, используемые в этот момент кластером, появятся в программе «Управление дисками» только одного узла (узла, который является текущим владельцем этого диска).
Если добавляемый диск появляется в программе «Управление дисками», но не появляется при выборе Добавить диск, убедитесь, что диск настроен как базовый, а не как динамический диск. В отказоустойчивом кластере могут быть использованы только базовые диски.
Чтобы открыть программу «Управление дисками», нажмите кнопку Пуск, выберите Администрирование, выберите Управление компьютером, а затем выберите Управления дисками. (Если появится диалоговое окно Управление учетными записями пользователей, убедитесь, что в окне указано нужное действие, и выберите ответ Да.)
Как добавить диски в кластер. При попытке добавления вручную получаю ошибку: "No disks suitable for cluster disks where found. "
Ответы
Раздел Storage Options
Сценарий, который Вы хотите проделать, схож с shared vhdx , который доступен только в версии 2012 R2. В 2012 такой возможности нет. Используйте рекомендуемые типы хранилища, указанные по ссылке
- Изменено R.Levchenko MVP 8 ноября 2013 г. 15:05
- Предложено в качестве ответа R.Levchenko MVP 8 ноября 2013 г. 15:05
- Помечено в качестве ответа Vladyslav Samko 8 ноября 2013 г. 15:30
Перед началом работы
Перед выделением подготовленного хранилища узлам и кластеру, хранилище необходимо обнаружить и классифицировать в структуре VMM.
- Обнаружение и классификация хранилища
-
. Сведения о классификации.
. Можно выделить весь пул носителей или конкретные логические устройства (LUN).
- Перед выделением хранилища для узлов необходимо выполнить указанные ниже действия.
- MPIO. Если вы используете хранилище Fibre Channel или iSCSI, на каждом узле необходимо включить функцию многопутевого ввода-вывода Multipath I/O (MPIO).
- Если функция MPIO включена до добавления узла, VMM автоматически включит ее для поддерживаемых массивов хранения с помощью модуля DSM от корпорации Майкрософт. При наличии модулей DSM от конкретного поставщика будут использоваться они.
- Если вы добавляете узел в VMM и включаете функцию MPIO позднее, ее необходимо настроить вручную, добавив обнаруженные идентификаторы оборудования для устройств.
- HBA и разделение на зоны. При использовании сети хранения данных (SAN) Fibre Channel на каждом узле должен быть установлен адаптер шины (HBA) и выполнено правильное разделение на зоны.
- iSCSI. Если используется сеть SAN iSCSI, убедитесь в том, что добавлены порталы iSCSI и инициатор iSCSI выполнил вход в массив.
- MPIO. Если вы используете хранилище Fibre Channel или iSCSI, на каждом узле необходимо включить функцию многопутевого ввода-вывода Multipath I/O (MPIO).
- В VMM группа хранения связывает инициаторы узлов, целевые порты и логические устройства.
- Группа хранения содержит один или несколько идентификаторов инициаторов узлов (IQN или WWN) (WWN).
- Группа хранения включает один или несколько целевых портов, а также одно или несколько логических устройств. Инициаторы устройств обращаются к логическим устройствам через целевые порты.
- По умолчанию, когда диспетчер VMM управляет назначением логических единиц, он создает одну группу хранения на каждый автономный узел или узел кластера.
- Для некоторых массивов хранения рекомендуется использовать одну группу хранения для всего кластера, когда инициаторы узлов для всех узлов кластера находятся в одной группе хранения. Для этого следует задать для свойства CreateStorageGroupsPerCluster значение $true, используя командлет Set-SCStorageArray.
Добавление дисков
Добавление дисков (также известное как вертикальное масштабирование) позволяет увеличить объем хранилища, а также повысить его производительность. При наличии доступных слотов можно добавить диски в каждый сервер, чтобы увеличить емкость хранения, не добавляя серверы. Диски для хранения кэша и основных данных можно добавлять независимо друг от друга в любое время.
Мы настоятельно рекомендуем использовать одинаковую конфигурации хранилища для всех серверов.
Чтобы произвести вертикальное масштабирование, подключите диски и проверьте, обнаруживает ли их система Windows. Они должны отображаться в выходных данных командлета Get-PhysicalDisk в PowerShell со свойством CanPool, имеющим значение True. Если они отображаются как CanPool = False, вы можете узнать, почему, изучив свойство CannotPoolReason.
В течение короткого времени соответствующие диски будут автоматически утверждаться Локальные дисковые пространства, добавляться в пул носителей, а тома будут автоматически распространяться равномерно по всем дискам. После этого можно приступать к расширению существующих или созданию дополнительных томов.
Если диски не отображаются, вручную проверьте наличие изменений в оборудовании. Это можно сделать с помощью диспетчера устройств в меню Действие. Если диски содержат старые данные или метаданные, рекомендуем переформатировать их. Это можно сделать с помощью оснастки Управление дисками или командлета Reset-PhysicalDisk.
Автоматическое добавление в пул возможно только в том случае, если имеется только один пул. Если вы обойти стандартную конфигурацию для создания нескольких пулов, вам потребуется добавить новые диски в предпочтительный пул самостоятельно с помощью Add-PhysicalDisk.
От трех до четырех серверов: разблокирование двойной четности
При наличии четырех серверов можно использовать двойную четность, также часто называемую помехоустойчивым кодированием (сопоставимо с распределенными массивами RAID-6). При этом обеспечивается та же двойная отказоустойчивость, что и при трехстороннем зеркалировании, но с повышенным уровнем эффективности. Дополнительные сведения см. в разделе Отказоустойчивость и экономичность хранения.
Если вы начинаете с небольшого развертывания, у вас есть несколько вариантов для создания томов двойной четности. Вы можете использовать любой из них по своему усмотрению.
Вариант 1
Укажите значения PhysicalDiskRedundancy = 2 и ResiliencySettingName = Parity при создании каждого нового тома.
Вариант 2
Установите значение PhysicalDiskRedundancy = 2 для объекта ResiliencySetting пула с именем Parity. После этого для всех новых томов будет использоваться двойная четность, даже если это не указано.
При наличии четырех серверов можно также начинать использовать четность с зеркальным ускорением, при которой для отдельного тома применяется как зеркалирование, так и контроль четности.
Для этого необходимо изменить шаблоны StorageTier так, чтобы она включала уровни Performance и Capacity, которые были бы созданы, если бы вы предварительно выполнили командлет Enable-ClusterS2D на четырех серверах. В частности, должны иметь тип MediaType устройств хранения (например, твердотельные или жесткие диски) и значение PhysicalDiskRedundancy= 2. Уровень Performance должен иметь значение ResiliencySettingName = Mirror, а уровень Capacity — значение ResiliencySettingName = Parity.
Предложение 3
Возможно, будет проще просто удалить существующий шаблон, а затем создать два новых. Это не повлияет на существующие тома, созданные путем ссылки на шаблон уровня: это просто шаблон.
Вот и все! Теперь вы готовы создать тома с зеркально ускоренной четностью, ссылаясь на эти шаблоны уровней.
Пример
Выделение хранилища
- Файловое хранилище можно выделять непосредственно для узлов и кластеров.
- В узлы и кластеры можно добавлять номера LUN.
- Если вы уже подготовили номера LUN в группе узлов, вы можете назначить их узлам и кластерам.
- Если вы подготовили пул носителей в группе узлов, то можете создать номера LUN при выполнении процедуры добавления хранилища в кластер.
- Если необходимо использовать общее хранилище, которым не управляет диспетчер VMM, диски хранилища должны быть доступны всем узлам, чтобы вы могли добавить их. Для всех узлов, которые нужно ввести в состав кластера, следует подготовить один или несколько номеров LUN, а затем на одном из узлов нужно подключить и отформатировать диски хранилища. Обратите внимание на то, что VMM не поддерживает и не блокирует применение асимметричного хранилища, когда рабочая нагрузка может использовать диски, являющиеся общими в подмножестве узлов кластера. Каждый узел кластера должен быть возможным владельцем диска кластера.
- После добавления хранилища iSCSI в узел необходимо создать сеанс для хранилища.
Назначение логической единицы автономному узлу
Назначьте существующую единицу или создайте новую, а затем назначьте ее.
В разделе Структура>Серверы>Все узлы щелкните правой кнопкой мыши узел, который нужно настроить, и выберите пункт Свойства.
Если нужно создать логическую единицу, выполните указанные ниже действия.
- На панели инструментов нажмите кнопку Добавить рядом с элементом Диск. Рядом с элементом Логическое устройство выберите Создание логического устройства.
- В разделе "Создание логического устройства" >Пул носителей выберите пул, из которого требуется создать логическую единицу. Укажите имя (только буквы и цифры), описание и размер единицы. Для завершения нажмите кнопку ОК.
Чтобы назначить существующую логическую единицу узлу, на панели инструментов рядом с элементом Диск нажмите кнопку Добавить и выберите нужную логическую единицу.
В списке Логическое устройство выберите логическую единицу, которую вы только что создали.
Если вы хотите отформатировать диск в области Форматировать новый диск, установите флажок Выполнить форматирование этого тома в том NTFS со следующими параметрами и задайте параметры. Обратите внимание, что при выборе параметра Принудительное форматирование даже при наличии файловой системы будут перезаписаны все существующие данные на томе. Если логическая единица имеет некоторые данные и не используется параметр Принудительное форматирование, задание VMM по назначению логической единицы будет завершено с предупреждением. VMM назначает логическую единицу узлу. Диск можно отформатировать позднее.
В разделе Точка подключения выберите параметры подключения. Затем нажмите кнопку ОК, чтобы назначить логическую единицу узлу.
VMM регистрирует логическую единицу хранения на узле и подключает диск хранилища.
- Для просмотра сведений о соответствующем задании откройте рабочую область Задания.
- Чтобы убедиться, что логическая единица назначена, просмотрите сведения на вкладке Хранилище в диалоговом окне Имя узла>Свойства. Только что назначенная логическая единица отображается в области Диск. Выберите новый диск, чтобы просмотреть сведения о нем.
- Если поле Массив в сведениях о диске заполнено, значит, массив хранения управляется VMM.
Чтобы настроить дополнительные параметры диска, откройте на узле раздел "Управление дисками". Для этого нажмите кнопку Пуск, введите diskmgmt.msc в поле поиска и нажмите клавишу ВВОД. Новый диск появляется в списке в виде базового диска. Если было выбрано форматирование диска, диск уже отформатирован и подключен. Щелкните правой кнопкой мыши диск, чтобы просмотреть доступные параметры, такие как Форматировать и Изменить букву диска или путь к диску.
Больше четырех серверов: повышение эффективности контроля четности
При использовании более чем четырех серверов с контролем четности эффективность новых томов может быть еще выше. Например, при количестве серверов от шести до семи эффективность повышается с 50,0 % до 66,7 %, так становится возможным использовать код Рида-Соломона 4+2 (а не 2+2). Чтобы получить такую эффективность, не нужно предпринимать дополнительных действий. Оптимальное кодирование определяется автоматически при каждом создании тома.
Однако ранее существовавшие тома не будут преобразовываться в новые с расширенной кодировкой. Одна из веских причин этого в том, что для этого потребовались бы сложные вычислительные операции буквально с каждым битом, имеющимся в среде. Чтобы обеспечить более эффективную кодировку существующих данных, их можно перенести в новые тома.
Выделение файлового хранилища для автономного узла
Вы можете назначить общую папку на любом узле, на котором нужно создать виртуальные машины, которые будут использовать общую папку в качестве хранилища.
- Щелкните "Структура" >Серверы>Все узлы и выберите узел или узел кластера для настройки.
- Выберите Узел>Свойства>Доступ к узлу. Укажите учетную запись запуска от имени. По умолчанию указывается учетная запись запуска от имени, которая использовалась для добавления узла в VMM. В поле Учетная запись запуска от имени настройте параметры учетной записи. Нельзя использовать учетную запись, применяемую для службы VMM. Обратите внимание на следующее.
- Если в качестве учетной записи службы VMM используется учетная запись домена, добавьте учетную запись домена в группу локальных администраторов на файловом сервере.
- Если в качестве учетной записи службы VMM используется учетная запись локальной системы, добавьте учетную запись компьютера в группу локальных администраторов на файловом сервере. Например, для сервера управления VMM с именем VMMServer01 добавьте учетную запись компьютера VMMServer01$.
- Любой узел или кластер узлов, который обращается к общей папке SMB 3.0, должен быть добавлен в VMM с помощью учетной записи запуска от имени. VMM автоматически использует эту учетную запись для доступа к общим папкам SMB 3.0.
- Если вы указали явные учетные данные пользователя при добавлении узла или кластера узлов, такой узел или кластер можно удалить из VMM, а затем добавить его снова с помощью учетной записи запуска от имени.
- Щелкните Имя узла > СвойстваХранилищеДобавить общую папку.
- В поле Путь к общей папке выберите нужную общую папку SMB 3.0 и нажмите кнопку ОК.
- Чтобы убедиться, что у узла есть доступ к ней, откройте рабочую область Задания, чтобы просмотреть состояние задания. Кроме того, можно снова открыть свойства узла и перейти на вкладку Хранилище. В разделе Общие папки щелкните общую папку SMB 3.0. Убедитесь, что рядом с полем Доступ к общей папке отображается зеленая галочка.
- Повторите эту процедуру для любого изолированного узла, которому необходимо получать доступ к общей папке SMB 3.0, или для всех узлов в кластере.
Читайте также: