Fedora установка на raid
Зеркалирование при помощи RAID подразумевает создание точной копии (то есть зеркала) одних и тех же данных, которые при этом записываются на два диска.
Для того чтобы создать массив RAID1, требуется как минимум два диска. Это имеет смысл только когда скорость чтения или надежность выше, чем у зеркалируемого носителя.
Зеркала служат для того, чтобы предотвратить потерю данных в результате отказа диска. Каждый диск на зеркале хранит точную копию зеркалируемых данных. В случае отказа одного из них, те же данные можно получить при помощи функционирующего диска. При этом вышедший из строя диск можно заменить, не выключая компьютер.
2. Определения и критерии
Fedora 21 использует не более 1 Гб памяти, при этом система позволяет использовать до 16 ГбDDR3, поэтому для запуска Fedora будем использовать 16 Гб RAM, для создания RAM-drive, на котором будем использовать Fedora.
5. RAMдиск& (LVM) RAID 1
Так как мы установили Fedora 20 через сетевую установку с MATE, корневой раздел выражен размером экстентов (2559 = ~10Гб), RAM диск может легко использоваться RAID.
Drive Mirroring
Your hard drive stores your personal data. Some of your data can be backed up automatically by scheduled backup jobs. But those jobs scan the files to be backed up for changes and trying to scan an entire drive would be very resource intensive. Also, anything that you’ve changed since your last backup will be lost if your drive fails. Drive mirroring is a better way to maintain a secondary copy of your entire hard drive. With drive mirroring, a secondary copy of all the data on your hard drive is maintained in real time.
An added benefit of live mirroring your hard drive to a secondary hard drive is that it can increase your computer’s performance. Because disk I/O is one of your computer’s main performance bottlenecks, the performance improvement can be quite significant.
Note that a mirror is not a backup. It only protects your data from being lost if one of your physical drives fail. Types of failures that drive mirroring, by itself, does not protect against include:
Some of the above can be addressed by other file system features that can be used in conjunction with drive mirroring. File system features that address the above types of failures include:
- Using a Journaling or Log-Structured file system
- Using Checksums (ZFS , for example, does this automatically and transparently)
- Using Snapshots
- Using BCVs
This guide will demonstrate one method of mirroring your system drive using the Multiple Disk and Device Administration (mdadm) toolset. Just for fun, this guide will show how to do the conversion without using any extra boot media (CDs, USB drives, etc). For more about the concepts and terminology related to the multiple device driver, you can skim the md man page:
6. Systemd Unit file
Теперь дадим возможность systemd управлять созданием/удалением RAM диском &RAID 1. Для этого создадим компонент systemd, под названием 2Ro2L (RAMdiskRAIDonLVM&LUKS) и два скрипта:
[Unit]
Description=Enable RAMdisk RAID 1 on LVM & LUKS
After=multi-user.target
Теперь создадим, запустим и затем остановим скрипты:
Далее необходимо запустить службу, затем остановить службу, и если все пройдет хорошо, включить службу для многопользовательской цели
В RAID1 или зеркальной конфигурации используется два жестких диска для полного дублирования . Это обеспечивает аппаратную избыточность — если один диск выходит из строя , то другие могут продолжать работать независимо . Аппаратный RAID обеспечивается контроллером, который представляет для операционной системы один логический диск и управление RAID совершенно прозрачно .
Такие контроллеры RAID производятся Adaptec, LSI MegaRAID и 3ware . Последний предоставляет драйверы для всех операционных систем ). Будьте в курсе проблем с производительностью , связанных с программным RAID.
Примечание : большинство встроенных SATA RAID контроллеров не являются реальным аппаратным RAID , но только обеспечивают расширение для операционной системы. Драйвер должен быть установлен для правильного использования таких контроллеров . Так PowerEdge компании Dell 1850 и 1950 имеют MegaRAID , которые требуют драйверов для корректной работы под Linux.
Настройка программного RAID-массива во время установки системы с использованием Disk Druid — не является простой процедурой . Этот документ описывает шаги, которые необходимо предпринять для того, чтобы такой конфигурация заработала . Во время написания этого руководства , я использовал два 8GB SATA жестких диска ; первый
/dev/sda и второй /dev/sdb . BIOS был настроен с отключенным встроенным SATA RAID , и оба диска управлялись непосредственно BIOS. Так операционная система видит два жестких диска .
0. Итак …
Необходимо выполнить следующее , чтобы достичь цели :
- Создание разделов и настройка RAID с помощью Disk Druid
- Построение массивов RAID
- Настройка GRUB
- Тестирование
Дополнительные важные шаги :
- Проверить состояние RAID и установить мониторинг RAID
- Восстановление диска после сбоя ( не дай бог )
1. Создание разделов и настройка RAID с помощью Disk Druid
Во время установки Fedora , вам будет предложено автоматическое разбиение с помощью Disk Druid или разбивка на разделы вручную. Независимо от того, что вы выберете, вы должны удалить все существующие разделы и начать с чистых дисков ( NB: это, конечно, удалит все ваши данные ) :
Вы должны создать 3 раздела : /boot, swap и / (root — корень) . Наша цель состоит в том , чтобы иметь коренной и / boot разделы на RAID1 . Н еразумно ставить swap на программный RAID, так как это создаст излишнюю нагрузку .
Важно: раздел / boot должен быть первым на диске , т.е. начаться с цилиндра 1. Кроме того , убедитесь, что вы установили « Force to be a primary partition» для каждого раздела , который вы создаете . Загрузочный раздел ( / boot) размером 100MB достаточен для большинства конфигураций .
Давайте начнем с создания раздела /boot ( загрузки). Нажмите на кнопку RAID и выберите « Создать программный RAID раздел «( «Create a software RAID partition») :
Для типа файловой системы выберите « Software RAID», выберите первый диск и установите фиксированный размер 100 Мб :
Повторите то же самое для второго диска , в результате чего появятся два программных RAID раздела по 100MB , по одному на каждом диске . Эти разделы готовы для RAID устройства и создания точки монтирования :
Нажмите на кнопку RAID и выберите « Создать RAID устройство «( «Create a RAID device»). Для точки монтирования выберите «/ boot «, RAID Level должно быть RAID1 для устройства md0 , как показано на следующем рисунке :
Теперь создайте раздел подкачки( swap) . Размер раздела подкачки должен, по крайней мере , соответствовать размеру оперативной памяти. swap не должен находиться на программном RAID , так что все что вам нужно сделать , это нажать на New, и создать swap на каждом жестком диске. Результатом будет два раздела подкачки, каждый на отдельном диске :
Теперь, после создания /boot и /swap разделов , необходимо выделить оставшееся свободное пространство как md1 и создать корневой(root) раздел на нем . Вы должны быть уже знакомы с шагами . Окончательные результаты разбиения должны быть похожи на следующий рисунок:
Завершите установку Fedora . После перезагрузки система , вероятно, будет остановлена д о загрузки GRUB. С ообщение об ошибке может варьироваться между ошибками в файловой системе , паникой ядра и ошибки GRUB 17 .
Не разочаровывайтесь (пока) , поскольку есть еще несколько действий , которые необходимо предпринять .
2. Построение массивов RAID
Загрузитесь с первого установочного компакт-диска , но вместо того, чтобы начинать установку, выберите « linux rescue «, чтобы запустить командную строку в режиме восстановления . В командной строке установите новый root и постройте массив RAID :
Статус RAID сообщается через файл /proc/mdstat . Давайте посмотрим на его и увидим, как наш RAID работает :
Если вы видите подобные результаты, то мы имеем правильную конфигурацию RAID . [ UU] означает, что оба жесткие диски запущены. Но, хотя на рейд сконфигурирован , он не работает правильно , так как не установлен как « горячий»(«hot»). Выполните следующую команду( « hotadd») чтобы перестроить массив :
Во время перестроения вы можете запустить cat /proc/mdstat , чтобы проверить текущий прогресс и статус. Этот процесс может занять некоторое время в зависимости от размеров разделов .
Важно: Подождите, пока процесс завершится , прежде чем вы перейдёте к следующему шагу.
3. Настройка GRUB
Первый диск ( на моей системе это /dev/sda ) еще не стал загрузочным. В следующих действиях мы завершаем установку загрузчика GRUB на обоих дисках и устанавливаем /boot как загрузочный.
Продолжаем работу в командной строке режима восстановления , и загружаем оболочку GRUB :
В оболочке GRUB введите следующие команды , чтобы повторно установить загрузчик на оба диска, когда (не если — когда! ), каждый из дисков будет повреждён, ваша система будет по-прежнему загружаться. Вам возможно, потребуется заменить р асположение жесткого диска , чтобы соответствовать конфигурации системы :
Выйти и загрузиться с жесткого диска. Система должна загрузиться . Не пропустите этап тестирования, чтобы убедиться, что все ДЕЙСТВИТЕЛЬНО работает должным образом.
4. Тест
Лучший способ проверить состоит в том, чтобы физически отключить каждый диск, и посмотреть, загрузится ли система с другого подключенного диска ( убедитесь, что вы выключили систему , прежде чем отсоединять диск ).
Важно: Тестирование вызывает разрушение (degraded) вашего RAID . Это означает, что после того, как вы заново подключили диск, вы должны hotadd диск обратно в массив с помощью команды
Если тест завершен успешно , и ваша система загружается с каждого диска , то вы в основном достигли нужного результата . Хотя я полагаю, что вы будете продолжать следующие процедуры , чтобы узнать больше о более серьезном кризисе (стучу по дереву).
5. Проверка состояния RAID и мониторинг состояния RAID
Есть несколько способов проверить текущее состояние вашего RAID, но лучше всего использовать команду mdadm —detail . В следующем примере вы можете видеть, что RAID ухудшается (degraded). Только /dev/sdb1 является активным , а другой /dev/sda1 отсутствует в RAID.
Другие способы проверки RAID заключаются в проверке системного журнала :
Мы можем запустить мониторного демона , который будет отправлять оповещение по электронной почте , когда есть проблема с RAID :
Чтобы проверить , что отправка письма работает , добавьте параметр -t в строке выше , и будет отправлено тестовое письмо . Не забывайте убивать тестовый процесс, который вы только что создали. Рекомендуется записать эту строку внутри /etc/rc.local так, что она будет автоматически запущена после загрузки системы .
6. Восстановление после сбоя диска
Когда вы сталкиваетесь с сбоем в RAID, первое, что я хотел бы предложить вам делать — не паниковать! Вы должны все еще быть в состоянии получить доступ к данным и даже загрузиться , но следующее, что вы должны сделать, это сделать резервную копию всех данных. Это случилось со мной однажды, что после сбоя диска , я случайно удалил хороший диск …. К счастью, я не паниковал , и сделал полную резервную копию перед любыми другими действиями .
Итак, после стакана холодной воды и резервного копирования всех данных, необходимо определить неисправный диск , проверив содержимое файла /proc/mdstat . В моем примере ниже вы можете видеть, что /dev/sda3 больше не член RAID, и, очевидно, RAID не работает :
/dev/sda - это жесткий диск SATA , подключенный к первому контроллеру SATA. Я физически удалил его из системы и заменил его на новый . Обратите внимание, что /dev/sda1 , который находится на том же жестком диске не упал , но когда я заменил неисправный диск — мне придется перестроить оба массива .
Когда вы подключаете новый жесткий диск, вам не придется беспокоиться о размере диска — просто убедитесь, что он больше, чем тот, который вы уже установили . Свободное пространство в новом диске не будет членом в RAID.
После замены неисправного диска таблица разделов должна быть создана при помощи fdisk , в точности на основе таблицы разделов хорошего диска . Здесь /dev/sda совершенно новый жесткий диск 250GB .
Прежде чем продолжить — вы уверены, что всё сохранено ? Если это так, то запускаем fdisk с новым диском в качестве параметра. Мои вводы выделены . Вы должны будете изменить ввод, чтобы он соответствовал вашей системе .
Вот объяснение процедуры :
Установите загрузчика GRUB на поврежденный диск , как описано на шаге 3 выше. Теперь новый жесткий диск готов участвовать в RAID. Нам просто нужно hotadd его в RAID с помощью команды mdadm /dev/mdx --add /dev/sdxx:
Mdadm stands for Multiple Disk and Device Administration. It is a command line tool that can be used to manage software RAID arrays on your Linux PC. This article outlines the basics you need to get started with it.
The following five commands allow you to make use of mdadm’s most basic features:
5A. Создание RAM диска и добавление его вLVMRAID 1
Посмотрим процент построения зеркала
Наконец изменим HDD наwritemostly, для того, чтобы чтение происходило изRAMдиска:
Шаг 1: Установка требуемого ПО и проверка дисков
- Как было сказано ранее, в данном примере для создания и управления RAID на Linux используется mdadm с пакетным менеджером yum или apt-get.
- После установки mdadm нужно проверить, сконфигурированы ли жесткие диски для использования RAID с помощью следующей команды:
4. LUKSAES шифрование & файловая система Ext4
На данный момент у нас должно быть пятьРНв системе, lv_root~10GiB, lv_opt16GiB, lv_var16Джибе, lv_swap16Джибеиlv_home~768GiB. Исходя из Cryptsetup тестов, AES-XTS обладает самой высокой пропускной способностью, при использовании с 256-битным ключом. Также, вместоSHA1 мы используем sha512, и зададим время 5сек(-i 5000) нахэшитерации. При установке через mapper, Fedora монтирует LUKSшифрованные разделы на /Dev/mapper/luks-[UUID]. Для подключения раздела через mapper вручную, мы должны будем использовать CryptsetupluksUUID[DEV] для полученияUUID.
Для каждого из 5 LV необходимо будет повторить одни и те же операции, в качестве примера рассмотрим 2 LV, что бы наглядно продемонстрировать изменения:
3В. Логический том
Остальные разделы в системе (/, / OPT, / VAR)
При наличии свободного места, его можно использовать под lv_home: lvcreate -l 90% Free -nlv_homefedora_localhost
Повторитеэтидействиядляостальныхлогическихтомов, также рекомендуется сохранить / DEV / fedora_ [hostname] / lv_home.
Notes on features
Шаг 4. Создание файловой системы на RAID-устройствах
- Теперь создайте файловую систему при помощи ext4 для md0, а затем смонтируйте устройство при помощи /mnt/raid1.
- Далее смонтируйте только что созданную файловую систему при помощи /mnt/raid1, создайте несколько файлов и проверьте содержимое точки монтирования.
- Для автоматического монтирования RAID1 во время перезагрузки системы, создайте запись в файле fstab. Откройте файл /etc/fstab и добавьте в конце файла следующую строку:
- Выполните команду “mount -a”, чтобы удостовериться, что добавление записи в файл fstab прошло успешно.
- Теперь вручную сохраните настройки RAID в файле mdadm.conf при помощи следующей команды:
Теперь при каждой перезагрузке система будет выполнять чтение данного файла и загружать RAID-устройства.
Шаг 5. Проверить целостность данных после ошибки диска.
- Главная цель создания RAID-массива – сохранения целостности данных даже после отказа одного из дисков. Поэтому нужно проверить, что происходит, когда не удается получить доступ к одному из дисков массива.
На данный момент наш RAID-массив имеет два доступных и два активных устройства. Теперь давайте посмотрим, что произойдет, если диск sdc будет удален или откажет.
Теперь один из наших дисков отсутствует. Он был отключен в виртуальной машине. Давайте посмотрим, как поживают наши драгоценные данные.
В результате выполнения данных команд можно убедиться, что данные по-прежнему доступны. Таким образом, мы увидели, в чем преимущество использования зеркалирования по средствам RAID1. Следующая статья будет посвящена настройке RAID5 с чередованием блоков данных и контрольной суммы. Надеюсь, данная статья помогла вам понять, как работает зеркалирование при помощи RAID1.
Гибридный RAID (избыточный массив независимых дисков) 1 (Зеркало) RAM drive & SATA HDD, используя LVM с LUKS на Linux Fedora.
Video Demonstrations
Шаг 3 Создание дискового массива RAID1
- Теперь создайте RAID1-устройство под названием “dev/md0”, а так же проверьте его. Для этого нужно выполнить данную последовательность команд:
- Далее проверьте тип RAID-устройств и RAID-массива при помощи следующих команд:
После выполнения данной будет выведена информация об уровне RAID (в данному случае RAID1), а так же количестве RAID-устройств (в данном случае два)
В результате выполнения данной команды так же будет получена информация о количестве активных (2), работающих (2) и свободных(0) устройств, а так же устройств, во время работы которых произошла ошибка.
Как видите, убедится в том, что массив RAID1 создан, а так же использует разделы /dev/sdb1 и /dev/sdc1 , довольно просто. При этом можно получить информацию о статусе повторной синхронизации.
mdadm --assemble
The assemble command above fails if a member device is missing or corrupt. To force the RAID array to assemble and start when one of its members is missing, use the following command:
Требования
Для того, чтобы использовать RAID1, требуется не менее двух дисков. Однако можно использовать любое, кратное двум число: 2, 4, 6, 8 и так далее. Для того, чтобы использовать большее количество дисков, требуется установка физического RAID-контроллера (то есть аппаратного адаптера).
В данном случае речь идет о программной, а не аппаратной базе для RAID, однако если у вас имеется RAID-контроллер, вы можете работать с ним через пользовательский интерфейс соответствующей утилиты или при помощи комбинаций клавиш Ctrl+I.
3A. Физический том (pv)
Выберем следующую схему разделов: sda1 /boot/efi 256 MiB, sda2 /boot 512 MiB, sda3LVM2 все остальное пространство(~ 930,76Мб)
3Д. Удаление и пересоздание lv_rootчерез экстенты
В нашем случае используется 2559 экстента, которые в данный момент соответствуют размеру HDD. Для удаленияlv_root введём следующее:
Теперь пересоздадим lv_root указав экстенты, а не Мб:
3Г. Величина RAM диска
Создадим виртуальный диск для RAID. Модуль ядра brd использует K, поэтому 1048576K=1Гби, следовательно, 10(для 10Гб) = 10485760.Однакоlv_rootраздел, созданный ранее,был размером 16Гб. Мы собираемся удалить этот раздел в следующем шаге и сократить его до 10Гб, однако лучше увеличить объём lv_root и затем уменьшить его, а не пытаться угадать, сколько еще памяти вам нужно.
Создадим модуль ядра Kernelbrd, размером 10 Гб:
Затем создадим физический том pv вместе с Ram диском:
Создадим временную группу томов VGдля получения экстентов/dev/ram0
Далее создадим логический том, используя 100% от RAMдиска:
Теперь выянимсколько*экстентов*находятся надиске:
На диске RAM находится 2559 экстентов.
Теперь логический том можно удалить:
Теперь удалим группутомов:
Последним удалим физический том:
Наконец разгрузим RAM диск:
Обратите внимание, LVMsне ожидает, что RAMдискибудут логическим томом LVиочень чувствительны кневозможностинайти физический том PV, поэтому всегда аккуратно выключайте RAMдиск.
The Procedure
– If the drive that you will be using for the second half of the mirror in step 12 is smaller than this drive, then you will need to adjust down the size of the last partition so that the total size of all the partitions is not greater than the size of your second drive.
– A few of the commands in this guide are prefixed with a test for the existence of an efivars directory. This is necessary because those commands are slightly different depending on whether your computer is BIOS-based or UEFI-based.
– The missing parameter tells mdadm to create an array with a missing member. You will add the other half of the mirror in step 14.
– You should configure sendmail so you will be notified if a drive fails.
– You can configure Evolution to monitor a local mail spool.
– Dracut will include the /etc/mdadm.conf file you created in the previous section in your initramfs unless you build your initramfs with the hostonly option set to no. If you build your initramfs with the hostonly option set to no, then you should either manually include the /etc/mdadm.conf file, manually specify the UUID’s of the RAID arrays to assemble at boot time with the rd.md.uuid kernel parameter, or specify the rd.auto kernel parameter to have all RAID arrays automatically assembled and started at boot time. This guide will demonstrate the rd.auto option since it is the most generic.
– The new Boot Loader Specification states “if the OS is installed on a disk with GPT disk label, and no ESP partition exists yet, a new suitably sized (let’s say 500MB) ESP should be created and should be used as $BOOT” and “$BOOT must be a VFAT (16 or 32) file system”.
– You may need to set your root password before rebooting so that you can get into single-user mode in step 7.
– See “Making Temporary Changes to a GRUB 2 Menu” for directions on how to set kernel parameters on compters that use the GRUB 2 boot loader.
– The dotglob flag is set for this bash session so that the wildcard character will match hidden files.
– Files are removed from the boot directory because they will be copied to a separate partition in the next step.
– This copy operation is being done from the dracut shell to insure that no processes are accessing the files while they are being copied.
– It is OK to run these commands in the dracut shell shown in the previous section instead of doing it from single-user mode. I’ve demonstrated using single-user mode to avoid having to explain how to mount the non-root partitions from the dracut shell.
– The parameters being past to the cp command for the boot directory are a little different because the VFAT file system doesn’t support symbolic links or Unix-style file permissions.
– In rare cases, the rd.auto parameter is known to cause LVM to fail to assemble due to a race condition. If you see errors about your swap or home partition failing to mount when entering single-user mode, simply try again by repeating step 5 but omiting the rd.break paramenter so that you will go directly to single-user mode.
– You can re-enable selinux after this procedure is complete. But you will have to relabel your file system first.
– The grub2-switch-to-blscfg command is optional. It is only supported on Fedora 29+.
– The cp command above should not be necessary, but there appears to be a bug in the current version of grub which causes it to write to $BOOT/grub2/grubenv instead of $BOOT/efi/fedora/grubenv on UEFI systems.
– You can use the following command to verify the contents of the grub.cfg file right after running the grub2-mkconfig command above:
– You should see references to mdraid and mduuid in the output from the above command if the RAID array was detected properly.
– How to select the new drive is system-dependent. It usually requires pressing one of the F12 , F10, Esc or Del keys when you hear the System OK BIOS beep code.
– On UEFI systems the boot loader on the new drive should be labeled “Fedora RAID Disk 1”.
– WARNING: You want to make certain that everything is working properly on your new drive before you do this. A good way to verify that your old drive is no longer being used is to try booting your computer once without the old drive connected.
– You can add another new drive to your computer instead of erasing your old one if you prefer.
– It is important that the partitions match in size and type. I prefer to use the parted command to display the partition table because it supports setting the display unit:
As soon as your drives have finished synchronizing, you should be able to select either drive when restarting your computer and you will receive the same live-mirrored operating system. If either drive fails, mdmonitor will send an email notification. Recovering from a drive failure is now simply a matter of swapping out the bad drive with a new one and running a few sgdisk and mdadm commands to re-create the mirrors (steps 13 through 15). You will no longer have to worry about losing any data if a drive fails!
Настройки моего сервера
Операционная система: CentOS, 6.5 Final
Диск 1 [20 Гб] : /dev/sdb
Диск 2 [20 Гб] : /dev/sdс
Данная статья содержит пошаговую инструкцию по настройке программного обеспечения для RAID1, то есть использованию mdadm (утилиты для создания и управления RAID) на платформе Linux. Этот алгоритм работает для различных дистрибутивов Linux, например, RedHat, CentOS, Fedora и прочих.
3Б. Группа томов (vg)
При создании группы томов выбреем имя хоста:localhost:
mdadm --create
The create command shown above includes the following four parameters in addition to the create parameter itself and the device names:
- –homehost:
By default, mdadm stores your computer’s name as an attribute of the RAID array. If your computer name does not match the stored name, the array will not automatically assemble. This feature is useful in server clusters that share hard drives because file system corruption usually occurs if multiple servers attempt to access the same drive at the same time. The name any is reserved and disables the homehost restriction. - –metadata:
mdadm reserves a small portion of each RAID device to store information about the RAID array itself. The metadata parameter specifies the format and location of the information. The value 1.0 indicates to use version-1 formatting and store the metadata at the end of the device. - –level:
The level parameter specifies how the data should be distributed among the underlying devices. Level 1 indicates each device should contain a complete copy of all the data. This level is also known as disk mirroring. - –raid-devices:
The raid-devices parameter specifies the number of devices that will be used to create the RAID array.
By using level=1 (mirroring) in combination with metadata=1.0 (store the metadata at the end of the device), you create a RAID1 array whose underlying devices appear normal if accessed without the aid of the mdadm driver. This is useful in the case of disaster recovery, because you can access the device even if the new system doesn’t support mdadm arrays. It’s also useful in case a program needs read-only access to the underlying device before mdadm is available. For example, the UEFI firmware in a computer may need to read the bootloader from the ESP before mdadm is started.
3. LVM или создание PV, VG&LG
2Б. Linux Unified Key Setup (LUKS)
В простейшем случае, LUKS расширяет функциональность Crypt setup, с целью соответствия TKS1. TKS1 использует ключ хэш для выполнения данных де/шифрования через алгоритм шифрования.
Шаг 2: Разделение жестких дисков для RAID
- Как уже говорилось, для создания RAID1 требуется как минимум два диска ( /dev/sdb и /dev/sdc) . При помощи команды fdisk можно создать разделы на них и изменить при этом тип RAID.
Для того, чтобы создать раздел:
- Нажмите клавишу n для создания нового раздела
- Затем выберите “P”, что означает «Первичный раздел»
- Теперь выберите число разделов 1
- Установите размер по умолчанию (для этого дважды нажмите клавишу Enter)
- Далее нажмите клавишу “P”, чтобы получить данные о разделах
- Нажмите клавишу “L” чтобы выбрать доступные типы
- Нажмите клавишу “T” чтобы выбрать разделы
- Теперь снова нажмите клавишу “P”, чтобы увидеть произошедшие изменения
- Нажмите клавишу “W” для того, чтобы их сохранить
После создания раздела на /dev/sdb, таким же образом можно создать новый раздел диска /dev/sdc :
- После завершения создания разделов, убедитесь в том, что оба диска (sdb и sdc) были необходимым образом изменены. Для этого следует использовать ту же команду mdadm. Так же при этом нужно выбрать тип RAID.
Отличительные черты RAID1
- Высокая производительность зеркал.
- Для хранения некоторого объёма данных требуется вдвое больше места. Таким образом, при использовании двух жестких дисков по 500 Гб (то есть общей емкостью примерно 1 Тб), возможно зеркалирование только 500 Гб информации.
- Потери данных при зеркалировании практически невозможны, так как одна и та же информация находится на двух дисках.
- Скорость чтения превышает скорость записи данных.
1. Вступление
IT-отрасль постоянно балансирует между безопасностью и стабильностью. С таким балансом, производительность обычно затрагивает практичность. В области защиты зашифрованных данных существует 3 фактора, влияющих на производительность, а следовательно и на практичность: жесткий диск, центральный процессор и оперативная память. Из этих факторов жесткий диск всегда является наиболее слабым фактором (даже несмотря на твердотельные накопители SSD).
FreeSoftware предлагает довольно элегантное решение для защиты шифрованных данных, под названием Linux Unified Key Setup (LUKS).
2А. RAID 1
В данной статье ссылка на RAID 1 (зеркало) означает, что RAID 1 реализован через LVM2.
2Г. Тестирование CPU (AES-NI), RAM и HDD
Новейшие процессоры Intel включают расширение системы команд AES-NI. Для проверки процессора на наличие данных команд введём следующее:
Далее протестируем пропускную способность процессора для различных алгоритмов шифрования:
AES-XTS с 256 битным ключом показывает наилучшие результаты. По умолчанию Fedora (через Anaconda) устанавливает AES-XTS 512 битный ключLUKS раздела, используя хэш SHA1.
Для отображения данных о памяти введём следующее:
В нашем случае получим:
Предположим, что у нас достаточно оперативной памяти для создание виртуального диска на 1 Гб для тестирование пропускной способности:
Теперь протестируем скорость чтения:
После тестирование виртуальный диск можно удалить:
Для сравнения теперь протестируем жесткий диск:
При создании зеркала RAID 1, мы пытаемся увеличить пропускную способность шифрования для Fedora(OS) от 100,51МБ / с (скоростьHDD) в 1260Mб/~1321Мб / с размещением шифрования на ЦП.
2В. образ Fedora для загрузки с флешки
На официальном сайте проекта Fedora можно найти информацию как по созданию образа для сменного носителя (типа флэш), чтобы загружаться непосредственно с него, так и образа сетевого установщика (net-install image). Обычно Fedoda USB media позволяет загрузиться и установить gparted. Как показала практика, современная версия Fedora 21 занимает примерно 2 Гб на флэшке.
5Б. Удаление RAM диска из LVMRAID 1 (в случае потери мощности системы)
Other important notes
Avoid writing directly to any devices that underlay a mdadm RAID1 array. That causes the devices to become out-of-sync and mdadm won’t know that they are out-of-sync. If you access a RAID1 array with a device that’s been modified out-of-band, you can cause file system corruption. If you modify a RAID1 device out-of-band and need to force the array to re-synchronize, delete the mdadm metadata from the device to be overwritten and then re-add it to the array as demonstrated below:
These commands completely overwrite the contents of sdb1 with the contents of sda1.
To specify any RAID arrays to automatically activate when your computer starts, create an /etc/mdadm.conf configuration file.
For the most up-to-date and detailed information, check the man pages:
The next article of this series will show a step-by-step guide on how to convert an existing single-disk Linux installation to a mirrored-disk installation, that will continue running even if one of its hard drives suddenly stops working!
Nothing lasts forever. When it comes to the hardware in your PC, most of it can easily be replaced. There is, however, one special-case hardware component in your PC that is not as easy to replace as the rest — your hard disk drive.
Читайте также: