Замена sas диска в raid на сервере на ssd
При создании RAID-массивов на контроллерах HPE Smart Array не допускается комбинированное использование дисков с разными интерфейсами (SAS и SATA) в рамках одного массива. Поэтому, в случае, если ранее операционная система сервера была установлена на RAID-массив, состоящий из дисков одного типа (например SAS HDD), то в случае необходимости переноса ОС на диски другого типа (например SATA SSD), нам потребуется создать отдельный RAID-массив из дисков такого типа. Здесь мы рассмотрим пример подобного переноса ОС Windows Server 2012 R2, развёрнутой на сервере HPE ProLiant Gen9, без необходимости переустановки ОС, то есть с минимальным временем простоя сервера.
Исходные данные, используемые в нашем примере:
- В сервере установлен RAID-контроллер HPE Smart Array P440ar и включена загрузка UEFI;
- Загружаемая ОС сервера установлена на массив RAID-1 из пары дисков SAS HDD 72GB;
- Необходимо перенести ОС сервера на массив RAID-1 из пары дисков SATA SSD 150GB;
- В дисковой корзине сервера имеется хотя бы один свободный слот для установки дополнительного диска (только на время переноса ОС);
- На сервере установлена утилита HPE Smart Storage Administrator (SSA). Загрузить актуальную версию можно здесь;
- Имеются загрузочные образы:
Используемый в нашем случае вариант плана действий по переносу ОС:
Пройдёмся по пунктам этого плана.
Подготовка сервера
Сюда входят пункты 1-2 нашего плана. Особых комментариев по поводу этих пунктов нет, так как смысл их понятен каждому. Единственное, на что стоит обратить внимание перед началом манипуляций с RAID-массивами, так это на то, что контроллер Smart Array должен функционировать в штатном режиме без каких-либо ошибок. Для этого заглянем в утилиту HPE Smart Storage Administrator (SSA) и проверим текущую конфигурацию RAID.
В нашем случае массив RAID-1 состоит из двух дисков SAS HDD, установленных в 9 и 10 слотах дисковой корзины сервера.
Массив работает в штатном режиме.
Изменение конфигурации RAID-массивов
Сюда входят пункты 3-9 нашего плана.
Выключаем сервер, штатно завершая работу ОС.
Извлекаем из дисковой корзины сервера один из дисков SAS HDD из
текущего массива RAID-1. В нашем примере извлекается диск из слота 10.
Не смотря на аварийное состояние нашего текущего RAID-1, операционная система должна успешно загрузиться с доступного диска в слоте 9.
Запускаем утилиту SSA и видим, что статус массива изменился на критический, так как система запущена без зеркального диска
Массив перешёл в режим Interim Recovery Mode и всё ещё находится в работоспособном состоянии.
В свободный слот дисковой корзины сервера устанавливаем первый диск SATA
SSD. В нашем примере SSD диск установлен в 17 слот.
Здесь важно использовать для установки нового SSD диска слот корзины, отличный от того, из которого мы только что вытащили SAS HDD. Если вставить диск в тот же слот, то контроллер будет переводить этот диск в состояние ошибки.
Жмём кнопку Refresh или просто перезапускаем утилиту SSA, чтобы получить обновлённую информацию. Добавленный SSD диск должен появится в разделе Unassigned Drives
Создаём с членством этого SSD диска новый
массив RAID-0
В нашем случае на базе нового RAID-массива создан логический диск, меньшего размера (~107GB), чем позволяет физическая ёмкость диска (150GB) намеренно. Несмотря на то, что производители серверных SSD-дисков уже изначально закладывают некоторый запас резервных ячеек при производстве дисков, есть мнение, что при возможности лучше всё же оставлять небольшой процент неразмеченного пространства дисковой ёмкости. По крайней мере в дальнейшем расширить диск при необходимости нет никаких проблем, так как эта операция давно поддерживается в онлайн-режиме и на уровне самих контроллеров Smart Array и на уровне файловой системы NTFS в Windows Server.
После того, как создан новый массив RAID-0, выключаем сервер, штатно завершая работу ОС.
Если сервер имеет подключения к внешним дисковым массивам через SAN, то на данном этапе желательно отключить сервер от SAN, чтобы избежать потенциальных проблем при последующей работе с загрузочными утилитами для работы с дисковыми разделами.
Копирование дисковых разделов с HDD на SSD
Сюда входят пункты 10-12 нашего плана. Нам предстоит выполнить копирование разделов диска с операционной системой сервера со старого полу-разобранного массива RAID-1 на только что созданный массив RAID-0.
Загружаем сервер с образа MiniTool Partition Wizard. Для этого можно использовать, например, возможность загрузки ISO-образов по сети через интерфейс управления сервером HPE iLO.
В процессе загрузки сервера жмём F11 Boot Menu, чтобы попасть в загрузочное меню.
В меню загрузки указываем загрузочный накопитель. В нашем случае это ISO-образ смонтированный через интерфейс iLO.
Здесь выбираем исходный диск на массиве RAID-1 и жмём на верхней панели кнопку Migrate OS to SSD/HD.
В открывшемся окне мастера миграции выбираем вариант A, чтобы вся структура разделов была скопирована с исходного диска на целевой диск.
На следующем шаге выбираем целевой диск. В нашем случае это массив RAID-0.
Далее выбираем опции копирования разделов. В нашем случае разделы копируются без масштабирования под новую увеличенную ёмкость диска.
На следующем шаге мастер обращаем внимание на уведомление о том, что после копирования может потребоваться переопределение загрузочного диска в настройках микрокода BIOS. В нашем случае выбор загрузочного диска определяется на уровне RAID-контроллера и мы сделаем это позже (п.16 плана).
Мастер миграции будет закрыт, а в главном окне MiniTool Partition Wizard в разделе Operations Pending появится запланированная последовательность действий с дисковыми разделами. Нажимаем кнопку Apply, чтобы запустить фактическое выполнение запланированных действий.
Время выполняемых операций будет напрямую зависеть от скорости исходного и целевого дисков.
Дожидаемся успешного завершения копирования разделов, после чего завершаем работу среды MiniTool Partition Wizard и выключаем сервер.
Удаление массива SAS HDD
На этом этапе выполняем пункты 13-17 нашего плана.
Извлекаем из дисковой корзины сервера второй диск SAS HDD из
старого массива RAID-1. В нашем примере извлекается HDD диск из слота 9.
Загружаем сервер с образа HPE SSA Offline. Опять же, для этого можно использовать возможность загрузки ISO-образов по сети через интерфейс управления сервером HPE iLO.
В процессе загрузки сервера, как и ранее, получим предупреждение о критическом состоянии конфигурации RAID-массива на контроллере Smart Array. Игнорируем его и продолжаем процесс загрузки.
В загрузившейся среде SSA Offline удаляем ссылку на старый массив RAID-1 из
отсутствующих дисков SAS HDD – Delete Array
Понимая что мы делаем, подтверждаем удаление ссылки на RAID-массив
На самом деле здесь только удаляется ссылка на RAID-массив из метаданных, хранящихся в энергонезависимой памяти сервера. При наличии дисков, которые ранее были членами массива, массив может быть автоматически воссоздан, если, например, установить эти диски в этот же или другой сервер с контроллером Smart Array. Поэтому извлечённые нами ранее диски SAS HDD можно сохранять на всякий случай до тех пор, пока все пункты нашего плана не будут выполнены успешно.
В среде SSA Offline, выбрав раздел настроек RAID-контроллера Smart Array, пройдём по ссылке Set Bootable Logical Drive/Volume для того, чтобы определить созданный нами ранее массив RAID-0, как загрузочный.
Выбираем единственный оставшийся у нас логический диск Smart Array, как загрузочный.
После этого завершаем работу среды SSA Offline и выключаем сервер.
Конвертация массива RAID-0 в RAID-1
После того, как ОС успешно загрузится, в высвободившийся ранее слот дисковой корзины сервера (в нашем случае это 9 слот) устанавливаем второй диск SATA SSD.
Запускаем утилиту HPE SSA и конвертируем массив RAID-0 в RAID-1 с
присоединением второго, только что установленного, диска SATA SSD. Для этого выбираем RAID-массив и в меню действий используем ссылку Manage Data Drives.
В форме управления дисками нашего массива RAID-0 выбираем тип преобразования в зеркальный массив RAID-1 - Mirror Array и отмечаем добавляемый диск.
Дожидаемся окончания процесса трансформации, которая будет запущена сразу и пройдёт в онлайн-режиме.
В результате мы получим штатно работающий массив RAID-1 из пары дисков SATA SSD.
Можно считать, что поставленная задача выполнена. Теперь остаётся только подключить сервер к SAN, если ранее выполнялось отключение на этапе п.9.
Как SSD Kingston живут в режиме RAID с контроллерами Broadcom
На заре появления SSD-накопителей RAID-конструкции таили в себе много нюансов. В том числе из-за использования менее отказоустойчивых HDD-дисков. Твердотельные накопители гораздо надежнее своих собратьев на основе магнитных дисков. Как мы знаем, в SSD-решениях нет движущихся элементов, поэтому механические повреждения сведены к нулю. Выход твердотельных накопителей из строя вследствие скачков напряжения тоже маловероятен, учитывая, что на уровне домашнего ПК и любого сервера вас предохраняют ИБП, сетевые фильтры и даже блок питания.
При этом у твердотельных накопителей есть еще один существенный плюс: даже если ячейки памяти износятся на запись – чтение данных с них все равно можно будет произвести, а вот при повреждении магнитного диска – увы.
На сегодняшний день использовать SSD-решения в RAID-массивах разных уровней вполне нормальная практика. Главное – выбирать правильные твердотельные накопители, латентность которых минимальна. А еще в идеале использовать SSD одного и того же производителя и одной и той же модели, чтобы не получилась мешанина из накопителей, поддерживающих разные типы нагрузок и построенных на базе разных типов памяти, контроллеров и прочих технологий. То есть, если уж мы решили закупить для создания RAID-массива четыре или 16 NVMe SSD компании Kingston – пусть лучше все они будут из одной серии и модельного ряда.
К слову, в прошлой статье мы неспроста приводили в пример контроллеры Broadcom, когда говорили о NVMe SSD от Kingston. Дело в том, что в мануалах к этим устройствам сразу прописываются совместимые накопители (включая решения от вышеупомянутого американского производителя SSD), с которыми контроллер будет работать без нареканий. На эту информацию и нужно опираться при выборе связки «контроллер-SSD» для RAID.
Онлайн-курсы Евгения Лейтана
Внедрение Microsoft System Center Operations (SCOM) 2016/2019
13 уроков (6 часов видео), лабораторные работы и вручение именного сертификата.
Промокод "IT-KB_60" со скидкой 60%!
Когда сегодня заходит речь о производительности системы хранения обычно разговор сразу переходит на современные накопители SSD. При этом лидерами являются устройства с интерфейсом PCIe, способные обеспечить на последовательных операциях скорости на уровне нескольких гигабайт в секунду. Если же говорить о моделях с SATA, то здесь у быстрых устройств можно увидеть производительность до 600 МБ/с. На случайных операциях разница между этими классами тоже есть, но она уже менее заметна.
При этом продукты стандартного формата 2,5’’ с интерфейсом SATA имеют несколько преимуществ – они обычно дешевле, могут работать практически в любой системе нескольких последних поколений, из них удобно делать массивы для обеспечения большой емкости СХД (и/или повышения отказоустойчивости), их можно устанавливать в большом количестве в стандартные корпуса.
Использовать чипсетный RAID не очень интересно, так что в этот раз посмотрим, насколько хорошо аппаратные RAID-контроллеры могут работать в подобных конфигурациях. Заметим, что использованное оборудование преимущественно относится скорее к среднему массовому сегменту, чем к наиболее производительным продуктам. Все-таки на рынке уже есть контроллеры и накопители с интерфейсами SAS и PCIe, но это уже совсем другой ценовой уровень.
Выбранные условия тестирования, конфигурации и инструменты наверняка вызовут много вопросов, которые можно будет обсудить и наметить направления для следующих материалов. Все-таки подобные тестирования имеют слишком много вариантов и тонкостей настройки (в том числе и в зависимости от задач), что охватить их все в одной публикации просто невозможно.
Конфигурация тестовой системы была следующей:
материнская плата Asus Z87-A
процессор Intel Core i7-4770
32 ГБ оперативной памяти
отдельный SSD для операционной системы
В роли SSD-накопителей выступали четыре Samsung 850 EVO второго поколения по 1 ТБ. Отметим отдельно, что накопители перед этим отработали около семи месяцев в сервере с Linux и никогда не знали TRIM (и по время проведения данных тестов они этого тоже не узнали). При этом прошлая нагрузка была преимущественно на чтение. Объем проведенной записи не превышал двух емкостей диска. По всем параметрам накопители были в отличном состоянии.
Контроллеров удалось найти сразу пять – четыре модели от Adaptec/Microsemi и один от LSI/Broadcom (на фото попали не все):
Первый, конечно, уже морально устарел, однако по факту еще много где используется. Так что будет интересно посмотреть, насколько эффективно он сможет работать с новыми накопителями. Второй уже имеет 6 Гбит/с порты и работает на шине PCIe 3.0, так что вполне актуален. Третий представляет собой последнее поколение «классических» решений Adaptec и поддерживает 12 Гбит/с интерфейс для дисков SAS. Реализованную в данной модификации технологию maxCache в этой статье мы использовать не будем. SmartRAID был представлен в конце прошлого года и относится к актуальному поколению RAID-решений компании. К сожалению, он использует новую разметку и схему хранения конфигурации и поэтому не может быть использован для замены прошлых моделей с сохранением данных на дисковых томах. MegaRAID 9361-16i можно считать представителем актуальной линейки продуктов LSI для массивов с накопителями SATA и SAS.
SSD подключались через обычный бекплейн с раздельными каналами для каждого диска. От бекплейна к контроллеру шел один стандартный кабель SAS на четыре канала.
На контроллерах, если не указано обратное, были активированы кэши на чтение и на запись. Все контроллеры имели резервные батареи. Том создавался заново на каждом контроллере, хотя по факту серии 6-7-8 у Adaptec позволяют переносить его без потери данных «в любом направлении».
Поскольку мы ходим протестировать в основном контроллеры, то в качестве основной конфигурации для дискового массива был выбран RAID0 с блоком 256 КБ. При этом надо отметить, что подобное решение может быть использовано и на практике, когда хочется иметь относительно большой и быстрый массив на небольшие деньги. Конечно при условии, что есть резервные копии и время простоя не критично. Да и заявленные производителями цифры по надежности SSD все-таки внушают доверие.
В качестве тестового пакета выступал уже очень немолодой, но все еще пользующийся популярностью IOMeter. Прежде всего, отметим, что опций по выбору конфигураций как массива, так и собственно теста слишком много. С этой стороны это хорошо – вы можете подобрать их исходя из требований своих приложений. С другой – это делает бессмысленно долгим их перебор в рамках одной статьи. Так что были выбраны шесть вариантов шаблонов – три (чтение, запись, 50% чтения и 50% запись) на последовательные операции блоками по 256 КБ (совпадающим с размером блока массива) и три на случайные операции с блоками 4 КБ (наиболее часто используемый размер). В первой группе будем ориентироваться на МБ/с, во второй – на IOPS. Во время тестов использовался один worker, в настройках указывалось для Outstanding I/O значение 32. Тесты проводились на неразмеченном «сыром» томе.
BIOSы, драйвера и программное обеспечения для контроллеров использовались последний версий на момент проведения тестов.
Для начала посмотрим на результаты одного SSD, полученные на встроенном в материнскую плату контроллере.
Итак, один диск показывает скорость линейного чтения около 400 МБ/с и линейной записи около 160 МБ/с. На случайных операциях получается примерно 95 000 IOPS на чтении и 7 500 IOPS на записи. Для «использованных» устройств это, пожалуй, неплохие результаты. Напомним, что если оценивать современные жесткие диски, то можно рассчитывать примерно на 150-250 МБ/с на линейных операциях и 100-200 IOPS на случайных.
На следующих графиках представлены результаты тестирования массива со стандартными для дисковых массивов настройками контроллеров – когда для тома используется и кэш самого контроллера. Заметим, что при организации тома на SSD некоторые производители рекомендуют не использовать кэш контроллера для увеличения производительности и снижения задержек. Этот вариант мы рассмотрим далее.
Итак, на линейном чтении мы ожидаемо видим пропорциональный количеству дисков в массиве рост. Все контроллеры показывают около 1 600 МБ/с. А вот на записи и смешанной нагрузке уже можно что-то выбрать исходя из своих требований и возможностей. Даже немолодой Adaptec ASR-6805 смотрится не так уж и плохо в этом сценарии.
А вот случайные операции существенно меняют картину. Здесь уже играют роль возможности установленного на контроллерах процессора и можно увидеть существенные отличия. Старший контроллер Adaptec уже явный аутсайдер. Да и ASR-7805 тоже уже не может обеспечить существенного роста на случайном чтении и записи. Так что если важен именно такой сценарий — стоит смотреть на контроллеры последних поколений. Хотя и они способны только в два раза улучшить IOPS на чтении и записи при использовании четырех SSD. Отметим также, что на смешанной нагрузке заметно лучше других выступили Adaptec SmartRAID 3152-8i и LSI 9361-16i.
Посмотрим теперь, что будет если не использовать кэширование на контроллерах. Для модели Adaptec SmartRAID 3152-8i здесь используется специальный предусмотренный производителем режим SSD IO bypass.
На последовательных операциях чтения результаты мало отличаются от приведенных выше, что вполне ожидаемо. На записи контроллеры при отключении кэша ведут себя по разному и скорость может значительно меняться, так что стоит обратить внимание на тип нагрузки и подобрать оптимальный вариант
Еще более интересно выглядят цифры в сценарии случайных операций. Отключение кэша может существенно увеличить скорость доступа на чтении, но и в два раза снижает IOPS на операциях записи. Так что если не стоит задачи снижения времени отклика на большой нагрузке чтением, лучше оставить кэш включенным.
Заметим, что были протестированы только «крайние» варианты — включение кэшей и на чтение на запись и полное отключение кэширования. В реальности у контроллеров есть независимые настройки на чтение и запись, так что конфигураций можно получить больше. Учитывая, что параметры массива можно менять и «на лету» без потери данных, можно самостоятельно подобрать оптимальный для сценария применения вариант. Кроме того, и сами контроллеры могут иметь множество опций «тонкой настройки», которые стоит хотя бы быстро просмотреть.
Подведем итоги. «Бытовые» SATA SSD при работе с RAID-контроллерами чувствуют себя достаточно хорошо. Для раскрытия их возможностей желательно использовать контроллеры последних поколений, способные обеспечить высокие IOPS на случайных операциях. При этом существенное влияние на результаты оказывают настройки тома на контроллере и очень желательно подбирать их исходя из потребностей задач, поскольку «сделать хорошо» одновременно для всех сценариев невозможно.
В качестве бонуса — результаты тестирования конфигурации RAID5 на контроллере Adaptec ASR-7805 на том же оборудовании.
Причём, как старые, так и свежесоздаваемая (например, Гилёв-тест тот же).
Файловые стали летать, как на самолёте.
Переносил созданием еще одного RAID-массива, остановкой SQL, Сервера 1С:Предприятия, копированием и переназначением букв дисков.
Затем ребут, проверка и на всякий случай еще раз ребут.
Утром бухи пожаловались, что несколько баз начало жутко тормозить, а остальные наоборот - залетали.
Летать стали файловые, тормозить SQL-ные
Тест Гилёва подтвердил: SQL-ная версия - 10 баллов, файловая - 40 баллов.
Вечером ребутну, конечно, сервак, но хотелось бы чьего-то опыта - что могло произойти?
Выгрузить-загрузить базу не предлагать - база теста Гилёва создавалась уже после замены
(1),(2) - ничего не менялось, специально тормозил скуль и буквы дисков после копирования переназначал
(3): А к только что созданной базе это как относится?
(5): Были на SAS-RAID-1, теперь на SSD-RAID-1, буква диска не менялась, пути те же.
(6): Да, RAID-1.
Еще раз повторю: рядом тут же, на этом же диске лежат файловые версии, они стали быстрее в 5 раз после перевода на SSD.
SQL_ные базы замедлились в 10 раз
Ну и чтобы два раза не вставать: данную процедуру проводил на других серверах именно таким образом десятки раз.
Никогда SQL после этого не начинал тормозить
(11) ставили "бытовые". с говорящим названием "адреналин".
пока от поставщика шли серверные. прирост скорости все равно был весьма ощутимым по сравнению с сас
(11): Вы читали всё, что я описывал? Про то, что такую операцию я проводил десятки раз, про то, что замедлился только SQL, причём в десяток раз и пр.
Регламенты проведу вечером полные, в (0) написал про это.
Просто заранее спросил - вдруг решение однозначно, очевидно и давно известно.
Но всё равно ответы типа (11) именно в этой теме умиляют
(14): Сорри, только добрался. Сейчас Гилёв выдает 20, вместо 10 днём (никто не работает).
На Гилёве вот так тест показал:
XE_TIMER_EVENT 540004.0 20.5
SQLTRACE_INCREMENTAL_FLUSH_SLEEP 540000.0 20.5
REQUEST_FOR_DEADLOCK_SEARCH 540004.0 20.5
CHECKPOINT_QUEUE 471756.0 17.9
BROKER_TO_FLUSH 270567.0 10.3
SLEEP_TASK 269590.0 10.2
WRITELOG 3615.0 0.1
Завтра утром проверим, что юзеры скажут, но сегодня удивило именно замедление в 10 раз, хотя для SQL ничего не изменилось, он даже не в курсе был, что ему диск под базы подменили
Может ОФФ но похожий вопрос.
В ноуте с SSD идет можно SSD заменить на HDD (там "разъемы" одинаковые).
(17) Одинаковые. Главное что бы по размеру подошел, SSD как правило тоньше обычных винтов. Но думаю в ноуте место сделано универсальное.
(22) У вас SSD в рэйде. Стало быть TRIM не работает.
Отсюда вопрос - какие SSD серверные или десктопные?
И если десктопные, то какой резерв вы оставили под запись?
(24): SSD - десктопные. Под резерв оставлено 15%.
Первым делом проверил на одиночном SSD (он там есть под Hotspare) - разницы нет никакой.
Как "не работает TRIM" объясняет, что файловые базы ускорились в 5 раз, а SQL-ные - замедлились в 10? На этом же самом сервере, на этой же самой ОС.
Или вы мои посты не читали?
(25) трим не работаеи, файловые прка не упираются в резерв, что там со скулем хз, ибо хитрая вешчь как в плане оперативки так и диска
(26): А десятки проведённых мной точно таких же операций на других серверах, в результате которых ни разу не было подобного глюка замедления как объясняются?
Microsof давненько так заявляла, что при заполнении HDD более 85% производительность резко снижается и исправляется это только переформатированием жесткого диска. Все таки каков размер tempdb?
(28): свободно 50% пространства (100 гигабайт). Tempdb - 670 мегабайт.
(29): Вот я сам только к такому варианту склоняюсь, что SQL как-то на размещение базы не только на файловом, но и на дисково-секторном уровне смотрит. Но тогда непонятен многократный успешный опыт до этого.
(30): А что может случиться с правами на базу, если SQL тот же самый и база та же самая?
(29) так а как без детача-аттача?
(31) да, он статистику как-то перестраивает.
попробуй хотя б перииндексироваться, чтоль..
Но что-то меня в (15) напрягает.
(33) Как то так.
(0) Переносил созданием еще одного RAID-массива, остановкой SQL, Сервера 1С:Предприятия, копированием и переназначением букв дисков.
(16) хотя для SQL ничего не изменилось, он даже не в курсе был, что ему диск под базы подменили
(33): Естественно, что как и говорил днём - вечером провёл полное обслуживание SQL базы. Скорость возросла, но я не могу проверить то, что бухи видят. Жду их прихода.
Детач-Аттач уже переиндексированной базы провёл, скорость осталась той же, но я думаю, что больше 22 по Гилёву и не достичь на такой системе старой. Вчера было 6
(31) Думается, "многократный опыт" объясняется тем, что БД попали в аналогичные сектора, т.е. изначально был пустой диск, на него положили БД, потом скопировали, опять же на пустой - профит (если как-то сместились сектора, придётся делать обслуживание БД для перестройки служебных данных).
(37): Да не помню я в этот раз какие - переставлял из соседнего сервера, в котором временно год назад такую операцию проводили (то есть диски относительно новые), а потом весь сервер заменили на новый.
OCZ какие-то.
Вообще из десктопных постоянно покупаю Kingston 300-ой серии. Выходов из строя пока не было, но всегда беру 3-4 штуки - два в RAID-1 и 1-2 в Hotspare
Понятно, что в "настоящих" серверах использую Intel 37xx Series, но в псевдо-серверах, когда заказчик каждую копейку считает, такие не купишь.
Кстати, у некоторых Кингстонов была фича - если на них много писать - быстро срабатывает ограничитель и скорость записи становится ниже чем у HDD. Типа, чтобы до гарантии не выработался ресурс диска.
В общем, детач-аттач и полный план обслуживания вернули быстродействие.
Не знаю, что из них, но видимо, SQL действительно оперирует не только с самим файлом, но и его положением на диске
Всем спасибо, даже тем, что не читал то, что я явно написал, чтобы избавиться от вариантов в стиле "а чего вы хотите то, SSD не серверный"
(42) Какие ограничители? Какой ресурс?
SSD быстро пишет пока есть куда писать - кончились чистые блоки из резерва и скорсоть записи проседает в десятки раз.
Ибо очистка блока офигенно длительный и ресурсоемкий процесс.
(25) "Под резерв оставлено 15%" - это ни о чем не говорит, пока не известен объем SSD и хотя бы размер скулевой базы, а еще лучше объем однократной записи SQL.
"Как "не работает TRIM" объясняет, что файловые базы ускорились в 5 раз, а SQL-ные - замедлились в 10? " - вот так и объясняет.
Файловая база много читает, и мало пишет, поэтому сильная просадка по скорости записи будет практически незаметна на фоне резкого увеличения скорости чтения.
А скуль все держит в памяти, и сбрасывает на запись огромные массивы данных разом, по сравнению с файловой.
И деградация скорости записи, будет офигенно заметна, при том что в скорость чтения SQL мало упирается и на обычных HDD.
См. про degraded state. Это именно что фича Кингстона для того, чтобы диск прожил гарантию:
"Kingston just confirmed the severe speed issues. This is a "feature" called Drive Life Protection - DLP and it will "throttle back its performance to reduce writes" in order "to protect itself to ensure the warranty period". DLP basically renders the drive useless (temporarily?). Allowing the disk to idle for 13 hours did not make the unit recover. The drive is currently left idle. I'd stay away from the Kingston SSDNow V300 for write intense environments."
для SSD дисков в биосе и винде нужно ОБЯЗАТЕЛЬНО спец настройки делать, как минимум поддержку трима включить.
почитаете. а то угробите все нафиг.
кроме того для SSD утилиты от HDD не подходят.
(49)Нет такой фичи у кингстона.
Это какая то старая и дурацкая статейка на левом ресурсе.
Деградация при записи происходит когда диску банально некуда писать.
Нет свободных ячеек. И диск перед каждой записью должен очистить ячейки.
Например вам нужно записать данные размером 4килобайта, а писать некуда.
Происходит следующее -
1)Читается в оперативную память SSD блок из 128ячеек по 4кб каждая.
2)Стирается весь этот блок.
3)На чистый блок записывается обратно около 100-400Кб информации которую не нужно было удалять, ну и сосбтвенно ваша информация размером 4кб.
Этот процесс требует кучу процессорного времени, и кучу оперативной памяти.
А как вы думаете насколько производительный процессор стоит в SSD за 50$ и сколько оперативки DDR3 там распаяно?
(51) Каких то спецнастроек обязательных для SSD нет.
И уж угробить диск таким образом невозможно.
Максимум что произойдет это он будет работать не так быстро как хотелось.
А в биосе можно только одну настройку для SSD сделать - включить AHCI
(52) Да, да, да. И 230 атрибута в SMART-е нету:
230 Drive Life Protection Status
Current state of drive operation based upon the Life Curve. Extreme conditions will require the drive to protect itself to ensure the warranty period.
Normalized Equation:
100=usage does not require protection
Normalized Value Range: Best = 100 Worst = 90 (protection active)
When protection is not active, this value reads 100.
If the PE Cycle usage trajectory threatens to violate the Life Curve usage schedule for the block that has the minimum PE cycles left unused, protection activates to forbid such violation and this value reads 90.
(54)Это парметр SMART как вы верно заметили, и он показывает состояние защиты, когда диск уже изношен до предела.
Перед тем как рассыпаться, чтобы продлить агонию, и дослужить гарантию.
Т.е срабатывание этой защиты это повод срочно поменять диск. дабы не потерять данные.
И только.
Такого рода защита предусмотрена на всех дисках.
Увидели включение защиты - ставите новый диск, и выкидываете старый на помойку.
(55) Нет, этот атрибут показывает состояние защиты если диск изнашивается быстрее, чем заложено разработчиком, что может вызвать его износ в период гарантии. Он переключается в обоих направлениях. Если диск немного постоит без записи - защита выключится. Почитайте хотя бы описание атрибута, чтоли. Это именно фича Кингстона. Интел на том же контроллере такой защиты не имеет.
Здравствуйте помогите в решении такого вопроса! Есть терминальный сервер с 35 пользователями и postgre база! База набрала уже до 60 гб и конечно начала тупить , встал вопрос об установлении или RAID 10 из 4 винтами или SSD которую нужно каждый год менять так как говорят что они не долго не выдерживают (Запросов к базе в день очень много потому что предприятие)
Вопрос что лучше и дешевле RAID или SSD за и против .
Ну рейд 1 сколько будет стоить примерно 500 $ и 300 $ * 2 SSD это получается 1100 $ .По 600 $ каждый год менять . Меня закапают и не скажут где похоронили .
я считаю что серверный ssd(к примеру intel) будет служить явно больше года. Там у них гарантия 2-3 года
(12) (11) Запросов к базе очень-очень много потому что это предприятие.Одни приемники заказов в день сколько делают, а о других отделах молчу!
Практика показывает что дневной объем записи в базу всегда меньше размера базы.
Простейшая математика показывает что с такой базой обычный десктопный ssd стоимостью 250$ объемом 256 выдержит минимум 5-10лет в самом жестком сценарии работы с такой базой.
Т.е не меньше чем обычный магнитный диск.
(0) Наш сисадмин поставил RAID 0 из SSD (SSD OCZ RevoDrive 3 X2) - пока полет нормальный. Архивы делаю каждый день)))
Обсуждали тут: v8: Увеличение производительности. Переход на SSD
Всё бы нечего и SSD можно нормальный взять который не через год сдохнет (специально обученный для баз данных с большим кол-во запросов), но он стоит около 1к$ +\- за шт. и когда последний раз пытался заказать сказали что в России сейчас нету. А обычные и подобные и правда придётся менять раз в год а то и чаще
Сервер баз данных Подходит
Ресурс SSD 38 петабайт
Из своего опыта -были 2 диска SSD в зеркале,объем базы 1с= 3 гб, на диске размещались файлы и данных и логов. Сдох через 6 месяцев работы. Фирму изготовителя не помню, стоимость боле 30 тыс. рублей. Сейчас SSD используется только под SQL темп
(29) Используется SSD в рэйде уже более двух лет, производитель интел. проблем никаких. Есть интеловские утилиты мониторинга SSD. Если брать серверные SSD у них расширенная гарантия.
(23)Идиотизм.
С чего это вдруг он через год сдохнет?
И где ты видел "специально обученные для баз с большим количеством запросов"?
Совсем уже народ офигел, всякую шнягу сочиняют.
SSD только если несколько штук, для отказоустойчивости. Да и то не надолго. На работе стоял SSD не дешевый, 7 месяцев отработал (база 7.7 80 пользователей), а потом сдох.
(29)Это о чем то говорит?
У меня не один уже ssd сдох, а обычных дак вообще счет потерял, и что теперь вообще диски не использовать? В памяти хранить?
(34) Говорит о том, что необходимо будет менять SSD часто, что автору топика не подходит. Поэтому у него выбор в пользу RAID.
Ресурс обычного пользовательского SSD размером 256Гб сделанного на MLC памяти составляет более 1000террабайт.
База данных 60гб - если ее перезаписывать за день пять раз, т.е каждый день записывать в базу 300гб информации, то диска хватит на десять лет.
И это обычный недорогой ssd.
Чтобы убить его за год надо писать минимум 3тб в день.
(35)Я не считаю что раз в десять лет часто.
А чаще менять придется только по причине морального устаревания.
(15) Винты долго можно использовать до 10 лет, а SSD по все слушай в ребят вылетают через год ну максимум полтора
(16) Насколько мне известно что он рассчитан на определенное количество записи и чтения
(40) это точно!
(46) поправьте пожалуйста в чем я не прав. Потому 10 скорость чтения-записи и отказоустойчивости на свои деньги самые высокие.
(49) к сожалению, не сталкивался . Насколько мне известно то 10 создана с 1 + 0 где 0 это чередование, а 1 это зеркало.
(47)Объясняю=
Что HDD, что SSD можно использовать как угодно долго, пока не сломаются, чаще они кстати морально устаревают, а не ломаются.
Количество поломок HDD и SSD примерно равно.
У SSD ограниченный ресурс по записи, читать можно сколько угодно, от чтения он никак не изнашивается, в отличие от HDD.
А запись ограничена, т.е не бесконечна.
С твоими объемами базы нормального SSD на 256Гб тебе хватит всего лишь на десять-пятнадцать лет, после чего он перестанет записывать, его только читать можно будет.
(48)Поправляю - в (45) описано что угодно но не 10 RAID.
Если использовать SSD - чередование не нужно, только зеркало для бесперебойной работы.
И да - самый скоростной рейд из HDD даже рядом не стоял по скорости с SSD.
(54) Ну, не скажи :). У нас тут админ замутил новый сервак под виртуалки. Воткнул туда 8 SAS дисков 15000rpm в 10 рейд. Должен сказать "качает" :) Стоит правда это все :(
Уже три года я вообще не покупаю HDD на участки где хоть как то критично быстродействие, только SSD.
Под базами некоторые SSD уже больше четырех лет, исправно трудятся, их уже скоро пора менять, ибо морально устаревают.
Ресурс перезаписи ячеек у них не израсходован и на 20%.
(55)Страйп дает линейную скорость.
Причем почти что по формуле скорость диска * количество дисков.
Т.е если надо быстро переписать фильм в BD качестве с одного диска на другой, ему равных нет.
Только вот сколько ты дисков в рейд не ставь, скорость доступа к данынм будет не быстрее чем у самого быстрого из них. Т.е фактически не изменится.
Нужные данные он отдаст не раньше чем головки на винте спозиционируются, а это долго.
В итоге при большом количестве мелких случайных запросов он мало чем лучше обычного HDD.
Старые у меня в основном OSZ и интелы.
Сейчас на самсунги плавно переезжаю, хотя и интелы тоже беру.
Дома уже все самсунги.
(61)Да кстати.
Я чего-то (0) невнимательно прочитал.
Там смотреть надо из за чего она тупит, а то может быть в дисковую систему никаким боком не упирается.
(61) + оно ставится с минимальными установками что бы не нагружать систему. Если его не настраивали, то оно память практически не использует, поэтому и в диск упирается.
(65)ИМХО неоправданно дорого получается. В чем профит?
Скорости SSD как правило и без рейда хватает с запасом.
Поэтому обычно только зеркало ставят.
(68)Дык все таки что нужно было? Иопсы или линейная скорость?
Линейную скорость в рейде из hdd можно нагнать так что не SSD позавидует, только вот для каких задач она нужна?
А IOPSы на hdd какие?
Самый шустрый hdd выдасть 200-250 iops, ну поставишь ты в рейд десяток таких дисков - будет у тебя под тысячу iops.
А самый дохлый ssd показывает на порядок лучший результат.
(70) Учитывая что есть SSD с линейной (последовательной) скоростью больше полутора гигабайт в секунду?
(71)Есть, я сравнивал с обычными недорогими.
(72)Пятнадцать - двадцать тысяч рублей это заоблачная цена?
Среднестатический одинэсник с зарплаты может позволить себе купить два, три SSD на террабайт.
(76) С чего 10 из мелких будет устойчивей, чем 1 из крупных? наоборот скорее. Микросхем памяти у обоих вариантов будет поровну, контроллеров у мелких больше. При одинаковой наработке на отказ сбоев у 10 будет больше.
(79)А с чего надежней то? он умирает при вылете любого диска, а дальше, как я уже писал все упирается в число компонентов. При одинаковой наработке на отказ одного элемента, чем больше элементов тем ниже надежность.
(80) Ну так объем то через 0 добирают. То есть аналоги это
1. RAID 1 из 2 больших и RAID 10 из 2X мелких
2. большой диск без рейда и RAID 0 из X мелких
Кстати, а нормальный RAID 5 из SSD бывает или у них такие скорости, что контроллер RAID их не нагрузит ни разу и скорость выйдет хуже чем у одиночного SSD или RAID 1?
(84)Почему бы нет?
Только хороший рейд контроллер умеющий корректно работать с ssd, и держащий хорошие скорости недешево стоит.
Поэтому в большинстве случаев удобней взять SSD. обеспечивающий нужные характеристики, а не городить огород.
Поэтому рейд чаще всего используется для отказоусточивости, банальное зеркало.
Старые рейд контроллеры к примеру не умеют передавать от ОС на SSD команды TRIM а это повышение износа, и приличная потеря производительности.
К тому же сам по себе SSD фактически является рейдом, только более сложным чем RAID5.
Т.е скоростные характеристики памяти используемой в SSD повышаются с помощью организации блоков в рейд, а рейдом управляет встроенный контроллер, который помимо этого управляет равномерным распределением нагрузки на ячейки, заблаговременным стиранием неиспользуемых ячеек, очисткой мусора, и прочими вещами.
(0)
тут критериев много.
Часто ли пишут в базу?
Может в основном просматривают?
Насколько легче в случае аварии восстановить RAID?
Снимаются ли копии баз или образы дисков?
(86)+
У меня у одного клиента SSD диск работает уже 3 года беспроблем (тьфу тьфу, не сглазить).
Естествено снимаются бакапы баз каждую ночь.
(86)++
Там правда всего 10 юзеров и 5 гиг база.
На твоем месте я бы выбрал РАЙД массив, ка старый и испытанный вариант.
(73) Надо же, ssd подешевели за последние годы.
Но если собирать сервер - только на серверных SSD, которые предназначены для работы в raid-массивах.
(91)Ну тут все зависит от того что за сервер ты собираешь.
У кого то сервер это сотни пользователей, и милионные потери в случае небольшого простоя.
А у кого то пять-шесть не сильно загруженных работой бухов, лениво ковыряющихся в базе. И недельный простой этих бухов будет дешевле одного хорошего серверного SSD.
В общем - тут чисто по ситуации.
(90)Ну ты предложил рейд из HDD, мотивирую что это старый проверенный вариант, в противовес современному SSD.
Я предлагаю счеты, карандаш и бумагу, это еще более старый и многократно проверенный вариант ведения учета ;)
В прошлом материале мы уже рассмотрели вопрос о том “Применим ли RAID на SSD” на примере накопителей Kingston, но сделали это только в рамках нулевого уровня. В текущей статье мы разберем варианты использования профессиональных и домашних NVMe-решений в самых популярных типах RAID-массивов и расскажем о совместимости контроллеров Broadcom с накопителями Kingston.
RAID 10 на базе SSD Kingston и контроллеров Broadcom
Итак, RAID 0 предоставляет нам двукратный прирост скорости и времени доступа, а RAID 1 обеспечивает надежность. В идеале бы их совместить, и тут на помощь приходит RAID 10 (или же 1+0). “Десятка” собирается из четырех SATA SSD- или NVMe-накопителей (максимум – 32) и подразумевает массив из “зеркал”, количество накопителей в котором всегда должно быть кратно четырем. Данные в этом массиве записываются посредством разбиения на фиксированные блоки (как в случае с RAID 0) и чередования между накопителями, распределяя копии между «дисками» в массиве RAID 1. А благодаря возможности одновременного доступа к нескольким группам дисков, RAID 10 показывает высокую производительность.
Так как RAID 10 способен распределять данные по нескольким зеркальным парам, это означает, что он может допускать сбой одного накопителя в паре. Однако в случае сбоя обеих зеркальных пар (то есть всех четырех накопителей) произойдет неизбежная потеря данных. В итоге мы также получаем хорошую отказоустойчивость и надежность. Но стоит иметь в виду, что, как и RAID 1, массив десятого уровня использует только половину суммарной емкости, а потому является дорогостоящим решением. Да еще и сложным в настройке.
RAID 10 подходит для использования с хранилищами данных, которым требуется 100-процентная избыточность групп зеркальных дисков, а также повышенная производительность ввода-вывода RAID 0. Это лучшее решение для баз данных среднего размера или любой среды, которая требует более высокой отказоустойчивости, чем в RAID 5.
Всего комментариев: 3 Комментировать
Спасибо большое за статью - помогла очень.
Вчера делал подобную процедуру.
Контроллер HPE ssa 408i . сервер prolliant ml350 gen10
4 физ диска были в рейде 1+0.
- Два(зеркальных) вытащил, вставил так же один рядом.
- Туда склонировал систему win_server_2016 minitool.
- У меня правда вин не загрузился, то есть начал грузится и все. Можно было восстановить, но сделал другой - запустилось.
- Удалил рейд 1+0.
- Переставил диск с ситемой в 1-й слот - создал рейд0, установил загрузку.
- Во второй добавил диск - отзеркалил в рейд1(все как здесь описано). Только hpe ssa запускал прямо с рабочей ос.
- паралельно почти установил два оставшихся диска, сделал друой рейд 1 - программа ругнулась, что одновременно два массива не может сделать(первый еще зеркалился) и сделала один массив из дух дисков(вроди бы рейд 0).
- Потом первое зеркало создалось и я решил убрать второй рейд0, дабы сделать нужный мне второй массив рейд1.
Дальше веселее.
- Грохнул рейд1 с системой или . я не понял что сделал (перепутал скорее всего).
Дальше наша песня хороша .
- Достал по сети образ(создал несколько предварительно всеми прогами, что были под рукой).
отказался моей программой разворачиваться по сети. После мучений:
- установил еще один жесткий диск, скопировал с сети образ на него, с локального диска развернулся и дальше аналогично как в статье и в моих предыдущих действиях удачно закончил сформировав два рейда1 на 4 дисках
( 1- система, 2-й для бекапа и как резерв дисков. в случае выхода из строя диска с 1-го системного рейда вытащу диск из второго, не несущего важной нагрузки, с быстрой поставкой запчастей - не реально).
Примерно так закончилось с удачнім завершением.
Фирмваре обновил. Там оказывается в биосе (в общем во флеше) есть полноценный HPE SSA OffLine, то есть с загрузочного диска я не грузился (без ОС). Только какой то из него интересный выход - при выходе висит долго и говорит, что подождать - перегрузится. Я ждал - не дождался, перегрузил жестко.
Перепроверять нет возможности - сервер в работе.
Подскажите, а какой смысл было вначале разваливать рейд 1 (вытаскивать один диск из массива и выводить в ошибку), когда можно сразу на новый третий ссд диск сделать образ рейд 0 из рейда 1 который хотим убрать из сервака?
Разумеется, ситуации и варианты "переезда" могут быть разными. Здесь рассматривался вариант, который, возможно, ответил на вопросы тех, кто опасался подобных манипуляций со Smart-Array (в плане того, что это действительно работает и опробовано неоднократно).
Подводим итоги:
Несмотря на то, что зеркалирование обеспечивает большую отказоустойчивость, чем RAID 50/60, оно также требует гораздо больше места. Поскольку количество данных удваивается, вы фактически получаете только 50% от общей емкости установленных в сервере накопителей для записи и хранения информации. Выбор между RAID 50/60 и RAID 10, скорее всего, будет зависеть от имеющихся бюджетов, емкости сервера и ваших потребностей в защите данных. Причем стоимость выходит на первый план, когда мы говорим об SSD-решениях (как корпоративного, так и потребительского класса).
Не менее важно, что теперь мы точно знаем – RAID на базе SSD вполне безопасное решение и нормальная практика для современного бизнеса. В рамках домашнего применения тоже есть резон переходить на NVMe, если позволяют бюджеты. А если у вас еще остался вопрос, зачем же все это нужно, вернитесь к началу статьи – мы уже подробно ответили на него.
Данная статья подготовлена при поддержке наших коллег из Broadcom, которые предоставляют свои контроллеры инженерам Kingston для тестирования с накопителями SATA/SAS/NVMe корпоративного класса. Благодаря этому дружескому симбиозу, клиентам не приходится сомневаться в надежности и стабильности работы накопителей Kingston c HBA- и RAID-контроллерами производства Broadcom.
Дополнительную информацию о продуктах Kingston можно найти на официальном сайте компании.
Разбираем работу SSD Kingston в самых популярных типах RAID — “1”, “5”, “10”, “50”
Итак, “нулевой” уровень RAID не обеспечивает избыточности данных, а только увеличивает производительность. Никакой защиты данных RAID 0 не предоставляет вообще, поэтому в рамках корпоративного сегмента мы его рассматривать не будем. RAID 1, с другой стороны, обеспечивает полную избыточность, но лишь скромный прирост производительности, и поэтому его следует рассматривать в том случае, если повышение производительности не является основополагающим фактором при создании RAID-массива из SSD.
Добавить комментарий Отменить ответ
Похожее
Похожее
RAID 6 и RAID 60: про них мы тоже не забыли
Раз уж мы поговорили о массивах пятого и пятидесятого уровней, грех не упомянуть и о таких типах организации массивов как RAID 6 и RAID 60.
Производительность RAID 6 аналогична RAID 5, но здесь уже минимум два накопителя отдаются под контроль четности, что позволяет массиву пережить выход из строя двух накопителей без потери данных (в RAID 5 такая ситуация крайне нежелательна). Благодаря этому обеспечивается более высокая надежность. В остальном все так же, как и в массиве пятого уровня: в случае сбоя одного или двух дисков контроллер RAID использует блоки четности для воссоздания всей недостающей информации. При сбое двух накопителей восстановление происходят не одновременно: сначала реанимируется первый накопитель, затем – второй. Таким образом, выполняются две операции по восстановлению данных.
Нетрудно догадаться, что, если RAID 50 представляет собой массив нулевого уровня из массивов пятого уровня, то RAID 60 – это массив нулевого уровня из массивов шестого уровня, о которых мы только что рассказали. То есть такая организация RAID-хранилища позволяет пережить потерю двух SSD в каждой группе накопителей RAID 6. Принцип работы схож с тем, про который мы рассказывали в разделе про RAID 50, но количество сбоев, которые может выдержать массив шестидесятого уровня, вырастает с 8 до 16 накопителей. Обычно такие массивы используются для онлайн-обслуживания клиентов, которое требует высокой отказоустойчивости.
Зачем нужен RAID на SSD?
Преимущества массивов хранения на основе SSD по сравнению с массивами хранения на жестких дисках включают сокращение времени доступа к данным на накопителе и превосходную производительность в операциях чтения/записи. Однако для идеальной производительности RAID’а на базе SSD требуется оптимальное сочетание процессора, кэша, программного и аппаратного обеспечения. Когда все эти факторы идеально работают вместе, RAID-массив из SSD может значительно превзойти сопоставимую конфигурацию с применением традиционных HDD.
Типичный SSD потребляет меньше энергии, чем жесткие диски, поэтому при объединении большого количества твердотельных накопителей в RAID-массив экономия энергии по сравнению с RAID-массивом из HDD может привести еще и к снижению расходов при оплате корпоративных счетов за электроэнергию.
Однако SSD RAID имеет ограничения и недостатки: в частности, более высокая цена за гигабайт пространства по сравнению с жесткими дисками сопоставимой емкости. А время наработки флеш-памяти на отказ ограничено определенным количеством циклов перезаписи. То есть у SSD-накопителей есть определенный срок службы, который зависит от эксплуатации: чем активнее перезаписывается информация на нем, тем быстрее накопитель выйдет из строя. С другой стороны, корпоративные твердотельные накопители имеют приличный срок службы, сопоставимый с механическими жесткими дисками.
RAID 5 на базе SSD Kingston и контроллеров Broadcom
Для организации RAID-массива пятого уровня нам потребуется как минимум три накопителя, данные на которых чередуются (циклически записываются на все накопители в массиве), но не дублируются. При их организации следует учитывать их более сложное устройство, так как здесь появляется такое понятие, как “контрольная сумма” (или же “четность”). Под этим понятием подразумевается логическая алгебраическая функция XOR (она же исключающее „ИЛИ“), которая и диктует использование минимум трех накопителей в массиве (максимум – 32). При этом информация о четности записывается на все «диски» в массиве.
Для массива из четырех SATA SSD-накопителей Kingston DC500R с емкостью по 3,84 Тбайт каждый, мы получим 11,52 Тбайт пространства и 3,84 для контрольных сумм. А если объединить в RAID пятого уровня 16 NVMe-накопителей Kingston DC1000M U.2 с емкостью 7,68 Тбайт — поучим 115,2 Тбайт с потерей 7,68 Тбайт. Как видите, чем больше накопителей, тем в итоге лучше. Лучше еще и потому, что чем больше накопителей в RAID 5, тем выше суммарная производительность при операциях записи. А линейное чтение будет достигать уровня RAID 0.
Группа дисков RAID 5 обеспечивает высокую пропускную способность (особенно для больших файлов) и избыточность с минимальной потерей мощности. Лучше всего такой тип организации массива подходит для сетей, которые выполняют много небольших операций ввода-вывода (I / O) одновременно. А вот использовать его для задач, требующих большого количества операций записи небольших или небольших блоков, не стоит.
Есть и еще один нюанс: при отказе хотя бы одного из NVMe-накопителей, RAID 5 переходит в режим деградации и выход из строя еще одного устройства хранения может стать критичным для всех данных. В случае сбоя одного накопителя в массиве RAID-контроллер использует информацию о четности для воссоздания всех недостающих данных.
RAID 50 на базе SSD Kingston и контроллеров Broadcom
Комбинированный массив, аналогичный RAID’у десятого уровня, который представляет собой массив нулевого уровня, созданный из массивов пятого уровня. Как и в предыдущем случае, основная цель данного массива состоит в получении удвоенной производительности при сохранении надежности данных в массивах RAID 5. При этом RAID 50 обеспечивает повышенную производительность записи и лучшую защиту данных, нежели стандартный RAID 5 в случае сбоя диска, а также способен к более быстрому восстановлению в случае отказа одного из накопителей.
Группа дисков RAID 50 разбивает данные на более мелкие блоки, а затем распределяет их на каждый массив RAID 5. Группа дисков RAID 5, в свою очередь, также разбивает данные на более мелкие блоки, вычисляет четность, производит логическую операцию OR для блоков, а затем выполняет операции записи в блоки данных и контроля четности для каждого диска в группе дисков.
И хотя производительность неизбежно снижается в случае сбоя одного из накопителей, это не столь существенно, как в массиве RAID 5, поскольку один сбой влияет только на один из массивов, оставляя другой полностью работоспособным. На самом деле RAID 50 может выдержать до восьми отказов HDD/SSD/NVMe-накопителя, если каждый отказавший “диск” находится в отдельном массиве RAID 5.
RAID 50 лучше всего использовать для приложений, которым требуется высокая надежность и которые должны обрабатывать большое количество запросов при сохранении высокой скорости передачи данных и более низкой стоимости накопителей, чем в массиве RAID 10. Однако, поскольку для настройки массива RAID 50 требуется минимум шесть накопителей, стоимость не полностью исключается как фактор. Одним из недостатков RAID 50 является то, что, как и RAID 5, ему нужен сложный контроллер: такой как упомянутый нами в прошлой статье MegaRAID 9460-16i от Broadcom.
Стоит также отметить, что RAID 50 имеет меньше используемого дискового пространства, чем RAID 5, из-за выделения емкости для содержания записей контроля четности. Тем не менее, он все еще имеет больше полезного пространства, чем другие уровни RAID, особенно те, которые используют зеркалирование. При минимальном требовании в шесть дисков RAID 50 может быть дорогостоящим вариантом, но дополнительное дисковое пространство оправдывает затраты, защищая корпоративные данные. Этот тип массива рекомендуется для работы с данными, требующими высокой надежности хранения, высокой частоты запросов, высокой скорости передачи и большой емкости для размещения.
RAID 1 на базе SSD Kingston и контроллеров Broadcom
Итак, RAID-массив первого уровня на базе контроллера Broadcom MegaRAID 9460-16i объединяет от двух до 32 накопителей Kingston, которые являются копиями друг друга, и обеспечивает полную избыточность. Если при использовании традиционных HDD скорость записи и чтения данных оставалась на уровне этого самого HDD, то с использование NVMe SSD-решений мы получаем десятикратный прирост производительности. Особенно по части времени доступа к данным. Например, с двумя SSD Kingston DC1000M U.2 NVMe в серверном RAID 1 мы получим 350 000 IOPS при чтении случайных данных и 75 000 IOPS при записи.
В отношении последовательной скорости чтения результаты будут соответствовать характеристикам накопителя — 3200 Мбайт/с. Но, поскольку оба NVMe SSD находятся в рабочем состоянии, данные могут считываться с них одновременно, что делает операции чтения довольно быстрыми. А вот скорость записи (заявленная составляет 2000 Мбайт/с) будет медленнее, потому что каждая операция записи выполняется дважды.
Массив RAID 1 идеально подходит для небольших баз данных или любой другой среды, которая требует отказоустойчивости, но небольшой емкости. Зеркальное копирование накопителей особенно выручает в сценариях аварийного восстановления (производительность при этом немного ухудшается), поскольку обеспечивает мгновенную “реанимацию” важных данных, если один из накопителей в массиве выходит из строя. Но, поскольку этот уровень защиты требует удвоения емкости для хранения зеркальной копии данных (для хранения 100 Тбайт потребуется 200 Тбайт места), во многих корпоративных системах используются более экономичные варианты хранения: RAID 5 и RAID 6.
Читайте также: