Какой raid выбрать для виртуализации
Прежде, чем задам тупые вопросы, маленькая предыстория.
Помогаяю небольшой (но само собой перспективной) фирмочке со всякими там вопросами связаным с АйТи - то сайт им допилить, то всякие интеграция со всем, что можно написать, то софт специализированный захостить в ДЦ, сеть и VPNы настроить, ну и все в таком духе. В общем, задумал их директор полностью отказаться от AWS, на котором висит тупо Wordpress и несколько инстансов и RDS (PostgreSQL) для BI - DWH, всякие скрипты для ETL, Jenkins как пускалка кронов, импорт / экспорт данных во всякие PowerBI и прочие рисовалки для дашбоардов. В общем, ничего такого мишен-критикал - если отвалится - ноу проблем, паники пару тройку дней не будет. Но из-за того, что там довольно серьезный workload со стороны базы, то хотелось бы получить хорошей производительности от ФС.
Да, самое главное - бюджета нифига нет и познания с моей стороны в области железа (да и администрирования реального железа, а не тыкания сервисов в AWS) отсутсвуют тоже. Поэтому, ЛОР - выручай.
Моя идея проста - купить поддержанный сервер, новые SSD диски, воодрузить что-нибудь для виртуализации, и чтобы виртуалки тупо использоваил локальный диск (RAW image, LVM LV, или что-нибудь подобное). И тут у меня случился ступор, когда мне предложили выбрать контроллер для хардварного RAIDa:
И собственно вопрос - нужен hardware raid для моих целей? Я рассчитывал тупо взять пару Интелловский SSD и сконфигурировать RAID 1. Получу ли я нормальную производительность для БД с софтварным рейдом или нужен HW RAID? И если да, то почему такая разница в цене между ними, оправдны ли лишние деньги для моего юз-кейса, и нужно ли что-то особенное для этих контроллеров, чтобы они с SSD дружили?
Ну, и на последок, что лучше дружит с софтварным рэйдом, что лучше дружит с хардваным - oVirt или Proxmox? Ни с тем, ни с другим дела не имел, но хочется что-то попробовать. До этого для всяих диллетантских setup’ов ставил всегда вручную KVM/QEMU и управлял тупо чезер libvirt, но хочется что-то менее хардкорного в этот раз (т.е. с веб-мордой). ESXi free edition тоже как вариант, но было бы хорошо без него обойтись
оставь «аппаратные» рейды 1990-м, им там самое место
targitaj ★★★★★ ( 11.02.20 00:45:49 )
Последнее исправление: targitaj 11.02.20 00:46:28 (всего исправлений: 1)
Круто! Не часто увидишь материал, который по стилю написания еще хуже, чем мой пост ) Постараюсь разобраться, о чем там вообще
Имхо лучше арендовать сервер в хетзнере, чем поддерживать свой дц.
Ну и овирт это не про один сервер, а про десятки. Лучше проксмокс
apmucm ★ ( 11.02.20 01:11:21 )
Последнее исправление: apmucm 11.02.20 01:12:58 (всего исправлений: 1)
Железный рейд для рейд1 - деньги на ветер,а с ссд может вообще уменьшить производительность
И собственно вопрос - нужен hardware raid для моих целей?
После того, как сгорел хардварный рейд и не оказался запасной и все данные ушли в тар-тарары, сижу на софтварном рейде. Он норм. ХЗ по производительности. Алгоритм то тот же. Проц всё равно простаивает.
С хетцнером-то да, все проще, и я так и делаю обычно. Но, если честно, я не особо пытаюсь переубедить. Повозиться с железом - мне это тупо интересно, я это не умею, могу чему-то научиться и платят-то столько же - прям win win.
По поводу Proxmox, с их вики:
All Proxmox VE versions do not support Linux Software RAID (mdraid). That means, it’s not tested in our labs and not recommended, but it’s still used by experienced users. If you want to run a supported configuration, go for Hardware RAID or a ZFS RAID during installation.
Вот кому верить? :) А ZFS вообще надо будет админить как-то по особенному, или в Proxmox искароки все дефолты будут как надо?
Это значит, что у них не запилено управление через их средства управления, только и всего.
оставь «аппаратные» рейды 1990-м, им там самое место
Enterprise сегмент над вами смеётся. Контроллеры всё ещё актуальны.
Они актуальны там НЕ по причине здравого смысла, а потому что
esxi / windows тупо не умеют тоже самое что мдадм в линукс
инерция мышления ентерпрайзных админов
Сервера некоторых ентерппайзных производителей идут уже со встроенным рейдом и выкинуть его из сервера нельзя
Кстати была статья недавно на хабре про баг в рейд контроллере hpe, изза которого контора чуть не потеряла ВСЕ данные
Proxmоx это управлялка , которая ставится на дебиан. А значит на сервере можно сделайть все тоже самое что и на любом линуксе. Мдадм рэид в том числе.
Нужно ставить сначала голый дебииан и поверх него проксмокс
Повозиться с железом - мне это тупо интересно, я это не умею, могу чему-то научиться и платят-то столько же - прям win win.
Имхо за умение работать с железом платят копейки и в перспективе вообще не нужно. А вот за знания облаков всяких aws azure gcp готовы платить и много. Вот такой парадокс.
Свою работу я бы назвал программист инфраструктуры, потому что пишу код на terraform, ansible, kubernetes yaml, немного python/shell, пушу в гит , далее ci/cd раскатывает в облаке все что напрогал (виртуалки, контейнеры, сети, балансировшики итд).
apmucm ★ ( 11.02.20 10:24:03 )
Последнее исправление: apmucm 11.02.20 10:27:17 (всего исправлений: 1)
А ZFS вообще надо будет админить как-то по особенному, или в Proxmox искароки все дефолты будут как надо?
В zfs лучше вообще не лезть без опыта и понимания как оно работает. Я не говорю, что он плохой, но тебе не нужен точно
Имхо лучше арендовать сервер в хетзнере, чем поддерживать свой дц.
Это не прокатывает в ФГБУ. Держать (доверять) данные неизвестно у кого и сесть на попу в форсмажоре не айс.
Причем тут фгбу в этом кейсе ТСа? Они вообше на aws живут. Для них этой проблемы не существует
Моя идея проста - купить поддержанный сервер,
IMHO, идея так себе. Главное отличие сервера от десктопа - это не производительность, как многие думают, а надежность. Надежность оборудования б/у - сами понимаете, вещь неизвестная.
И еще момент - если у Вас выходит из строя десктопное железо, заменить его обычно труда не составляет. А вот с серверным железом все гораздо сложнее. Так что думайте.
выбрать контроллер для хардварного RAIDa: Fujitsu
Вы уверены, что контроллеры этого бренда будут работать в серверах других производителей? Это далеко не факт. Или сервер тоже Fujitsu будет?
Это первый момент. Второй - диски. Брендовые контроллеры часто требуют брендовых дисков. Работа с обычными дисками - лотерея. Может, все будет штатно работать. А может вообще не завестись. Но это еще пол-беды. Беда - это когда все вроде заводится, а потом контроллер начинает случайно диски терять :(.
В общем, я Вам крайне не рекомендую приобретать брендовые (Fujitsu, IBM, HP, Dell и т. п.) серверы и контроллеры. Это имеет смысл только в одном случае - при покупке оборудования новым вместе с соответствующими сервисными контрактами. В Вашем же случае, если, все-таки, решите брать серверное железо, лучше ограничиться самосбором из серверных комплектующих Supermicro или Intel.
И еще по поводу сервера, чтобы больше к этому вопросу не возвращаться. Если будете брать серверное железо, обязательно предусмотрите возможность удаленного управления сервером (у разных производителей это называется по-разному: Intel/Suprmicro - IPMI, HP- iLO и т. д.). Важно, чтобы поддерживалась функция IP-KVM и возможность удаленного монтирования дисков.
Теперь по поводу Вашего основного вопроса. Proxmox основан на Debian, поэтому без проблем поддерживает и софтварный RAID, и LVM. Вопрос, планируете ли Вы ограничиться одних хостом, или будете разворачивать полноценную инфраструктуру Proxmox с возможностью миграции виртальных машин и HA? Во втором случае стоит подумать о создании отдельного дискового хранилища.
Если полноценной инфраструктуры не планируется, то софтварное зеркало - вполне нормальный вариант. Надо только понимать, что в этом случае RAID обслуживается CPU сервера, а следовательно, зависит от надежности его работы. Если вдруг Ваши приложения повесят сервер, или создадут пиковые нагрузки, RAID может развалиться. Впрочем, для зеркала это не представляет такой угрозы, как для других типов массивов.
Достоинство аппаратного RAID - полная независимость от CPU и, соответственно, большая надежность. Но платой за это обычно бывает более низкая производительность.
ESXi free edition тоже как вариант
Я давно не работал с ESXi, но раньше этот гипервизор принципиально не поддерживал софтовые RAIDs. Возможно, сейчас ситуация изменилась, я не в курсе.
Вам же черным по белому пишут, что софтварный рейд работает (it’s still used by experienced users), но они не тестируют такие конфигурации и не несут ответственности за возможные проблемы (it’s not tested in our labs and not recommended).
По сути внизу Proxmox лежит обычный Debian, поэтому никаких проблем с софтварным рейдом у Вас не будет (кроме того, о чем я выше писал).
А ZFS вообще надо будет админить как-то по особенному
Имеем простенький сервер на supermicro и пачку дисков sata (не фонтан, но что есть). Хочу сделать на его базе hyper-v сервер. Машин виртуальных предпологается не более 4-5 (без особых нагрузок). Raid контролер встроенный в мамку (ICH10), поэтому предполагаю использование storages space. Варианты:
1) система на отдельном диске, 5 дисков в raid 5 (один как "горячая замена)
2) система на отдельном диске, 2 зеркальных raid по 2 диска (машины по ним раскидать)
3) система на отдельном диске, raid 10 (через мамку).
Как я понимаю raid 10 в storage spaces реализовать нельзя.
Посоветуйте что будет оптимальным? (PS server 2012 и 2012r2)
Ответы
То что отдельный raid контролер предпочтительнее - это я знаю. Но в данном случае он встроенный в мат плату, так что он немного преимуществ имеет. На счет SSD - планируется в ближайшее время, собственно это один из аргументов за storage spaces, дабы потом raid не переделывать.
Тогда RAID 1 под систему. Остальные под Storage Spaces можно . Для Hyper-V - mirror (2-way в Вашем случае, для 3- way > 5 дисков надо) более оптимально, нежели parity.
Все ответы
всего 6 дисков получается?
Raid 1 под систему,как правило. далее делайте raid на базе контроллера (raid 10 + 1 Hot Spare).
Storage Spaces vs HW RAID . HW Raid (на отдельном контроллере) всегда предпочтительнее. imo
Но, стоит заметить, в 2012 R2 SP стал привлекательнее за счет Storage tiers. Можно рассмотреть вариант, если имеются SSD.
То что отдельный raid контролер предпочтительнее - это я знаю. Но в данном случае он встроенный в мат плату, так что он немного преимуществ имеет. На счет SSD - планируется в ближайшее время, собственно это один из аргументов за storage spaces, дабы потом raid не переделывать.
То что отдельный raid контролер предпочтительнее - это я знаю. Но в данном случае он встроенный в мат плату, так что он немного преимуществ имеет. На счет SSD - планируется в ближайшее время, собственно это один из аргументов за storage spaces, дабы потом raid не переделывать.
Тогда RAID 1 под систему. Остальные под Storage Spaces можно . Для Hyper-V - mirror (2-way в Вашем случае, для 3- way > 5 дисков надо) более оптимально, нежели parity.
А что даст 3-way? дополнительную отказоустойчивость?
Да дисков 6.
А что даст 3-way? дополнительную отказоустойчивость?
Да. 2-way хранит 2 копии данных. 3-way = 3 копии = +1 диск к отказоустойчивости, по сравнению с 2-way
А за счет того, что системе придется делать параллельно лишнюю копию файлов производительность не просядет? К тому что раз storage spaces, то могу найти лишний диск такой же емкости, но иной модели
А за счет того, что системе придется делать параллельно лишнюю копию файлов производительность не просядет? К тому что раз storage spaces, то могу найти лишний диск такой же емкости, но иной модели
Конечно, в теории "просядет". Но будем реалистами. Хотите скорость - simple (~raid 0) = нет отказоустойчивости. Хотите быть чуть спокойнее за конфигурацию - mirror/parity. 2-way/3-way (~raid 1)
/single parity(~raid 5)/dual parity(~raid 6). Raid 5/6, как правило, под бекапы, архивы и т.д. Остальные типы - под продакшен. Это моё видение. Ситуации разные бывают. Может Вы не хотите жертвовать местом в случае с mirror и предпочтете другие варианты, к примеру.
Подскажите какое максимальное количество HDD дисков можно объединить в массив RAID 5? и сколько в RAID 6?
Ответы
Для SQL - RAID 10, однозначно, причем логи лучше вынести на отдельный LUN другого массива. А в виртуальную машину цеплять сам LUN, а не LUN к хостовой подключать и на нем VHD машины хранить. но это понятно.
По поводу кластера. В принципе - верно, но этот параметр зависит от размера страницы.
И где в таком случае хранить VHD самой виртуальной гостевой ОС?
Согласно best practices при виртуализации SQL Server рекомендуется использовать для баз и логов именно pass-through диски.
Все ответы
Минимум - 3, а сколько максимум - зависит от воли производителя RAID-контроллера, но обычно - 16 штук. У RAID5 есть и смешанные и расширенные уровни функционирования, определяемые производителем контроллера. Да, и потом, диски могут ведь быть назначены в резерв. Про RAID6 - то же самое, только там 4 диска минимум, ну, а масимум, - те же 16, вроде.
Так что Вам лучше обратиться к документации Вашего контроллера.
P.S. Мне, например, RAID5/6 не нравится. Я сторонник 1/10 и т.п. простых отказоустойчивых конфигураций.
В RAID-5, кроме относительно высокой производительности ничего хорошего нет, соглашусь с Дмитрием Пономаревым. Вылетает хотя бы один диск - и весь массив переходит на отказоустойчивость и производительность одного же диска.
А объем получаемого диска разве не преимущество? :) Сам например зачастую выбираю 5-й уровень рейда для размещения некритичных приложений (в целях экономии места на san).
Кому - преимущество, а кому - нет. :) Я RAID 5 вообще не признаю, уж очень капризный.
Спасибо за ответы и мнения.
Я имею 2 полки по 12 дисков SAS по 300 ГБ, хранилище DS 3400.Технология RAID поддерживаемый ею 0, 1, 3, 5, 6, 10. Тоже бы не хотелось делать RAID 5, т.к. главная задача это хранение важных данных и их потеря крах всего. Имею задачу создания 3 вирт. машины, но каждая под свои нужны, например под SQL как лучше, сделать в хранилище диски под какой RAID? Воторую вирт. машину под Лотус-сервер тоже как лучше сделать диски в какой массив?
И еще вопрос сказали что под SQL лучше чтобы жесткий диск отформатирован был под 64 кб в кластере винта? это так или нет и как это осуществить?
На него планируется поставить 5-6 виртуалок с разными осями (пара линуксов, windows 2012, windows 2003, windows 7).
Виртуализация на Centos7 (KVM)
Как правильно сделать массивы чтобы виртуалки не тормозили диски другим? Просто сделать raid5 или 6? Или сделать несколько массивов?
1. Не знаю как там чистый KVM, но Proxmox позволяет ограничить доступную виртуальным дискам шину (по MB/s, и по ops/s). Подозреваю, что это фича KVM'а. Так что разбивать по массивам смысла особого нет.
2. Определись с нагрузкой на диски. Какие виртуалки будут стоять, что на них будет крутится. Сколько в процентах будет чтение, а сколько записи на RAID массив
4. Исходя из того, сколько % от всех операций будет составлять запись, выбери уровень RAID. Общее правило, чем больше запись, тем выгоднее 10ый рейд, и тем не выгоднее 5ый/50ый, и еще больше не выгоден 6ой/60ый.
Общее правило, чем больше запись, тем выгоднее 10ый рейд, и тем не выгоднее 5ый/50ый
Производительность 5-го и 6-го рейда очень сильно зависит от контроллера и/или от рук.
1. Долго смотрел в графики, но так и не понял, в чём же я не прав с вышеприведенным утверждением. 2. Скорость нужно мерять не мегабайтами, а IOPSами. Так как 90% серверных приложений плевать хотели на МБ, а вот IOPSики это хорошо.
Рандомная запись в IOPS на RAID10 - % на 50 выше чем на RAID5/6. Производительность RAID5/6 на запись ниже производительности одного диска в общем случае (для записи - считывается блок со всех винтов, правятся данные, пересчитывается кс и заливается на 2 или 3 из винтов; для RAID10 - считывается блок с одного винта, правится и записывается на 2 из 4, следующая транзакция с 50% вероятностью заденет вторую пару винтов).
NiTr0 ★★★★★ ( 23.05.15 23:29:44 )
Последнее исправление: NiTr0 23.05.15 23:30:07 (всего исправлений: 1)
Есть сервер виртуализации, на котором крутится LXC-контейнер с samba-файлопомойкой. В этот контейнер смонтирован (bind mount) некий каталог с хоста. На хосте в этот некий каталог смонтирован soft-raid из двух дисков. Каким-то Кощеем уже попахивает, да?
Плюсы решения: можно использовать некий каталог во всех контейнерах одновременно и отвал файлопомойки повредит только тем, кто к ней подключен.
Минусы решения: можно использовать некий каталог во всех контейнерах одновременно :) никакого нормального разграничения прав у меня сделать не получилось, хотя с ACL я наплясался вдоволь.
Есть мысль поднять не контейнер, а нормальную виртуальную машину, которой отдать оба диска для файлопомойки и собрать raid уже внутри ВМ. Таким образом, практически исключаем влияние хоста. Стоит ли так делать? Какие тут могут быть подводные камни?
RAID в виртуалке - дикость.
и тут ты такой с пруфами
Тебе самому не кажется, что файлопомойка в виртуалке - не очень хорошее решение? Я понимаю еще, если бы ты гейт к хранилищу виртуализировал, но целиком.
А чего не так? Вот без шуток?
По идее, при использовании виртуализации уровня ОС оверхэдом можно вообще пренебречь, так что должно быть фиолетово.
Я обычно цепляю к LXC-контейнерам LVM-тома, и всё работает нормально.
Только есть нюанс: модули ядра нужно подгружать из хоста.
Я как раз хочу уйти от виртуализации уровня ОС. А так, я ещё в OpenVZ монтировал всякое с переменным успехом.
хм, а что там с оверхедом из-за работы с железом из гостя будет? Идея непривычная, да, ничего дикого вроде нет. Скорее всего, просто медленнее будет.
Минусы решения: можно использовать некий каталог во всех контейнерах одновременно :)
Мнэээ. Ну так не используй, если это минус? Или это какой-то многоюзерский хост?
Я бы собирал рейд в любом случае на хосте, как-то это логичнее выглядит.
thesis ★★★★★ ( 06.05.16 16:19:25 )
Последнее исправление: thesis 06.05.16 16:22:35 (всего исправлений: 1)
Ты вместо 1 ос + одно железо, получаешь 2 ос с системой виртуализации + 1 железо. Точек отказа стало больше (причем глюк в ос словить проще железного), но принесло ли такое решение какие-то плюсы? Имхо - нет. У меня уже года полтора такая файлопомойка - сплошная головная боль, жду не дождусь новых винчей для переезда на отдельный сервер.
В целях эксперимента, таки поднял raid внутри VM. Пока полёт нормальный. Тему закрываю.
А как ты это будешь обслуживать? Ты не можешь перенести ВМ на другой хост, потому что ВМ жёстко привязана к дискам и их структурам. Чтобы заменить вышедший из строя диск придётся выключать ВМ, менять диск, пробрасывать новый диск в ВМ, из-под ВМ перенастраивать RAID.
ИМХО, это ерунда, так как это не виртуализация, а извращение.
Ну, для начала, я в решённую тему не буду писать. Но, таки отвечу:
Ты не можешь перенести ВМ на другой хост, потому что ВМ жёстко привязана к дискам и их структурам.
У меня один хост. Второго нет и не будет.
Чтобы заменить вышедший из строя диск придётся выключать ВМ, менять диск, пробрасывать новый диск в ВМ, из-под ВМ перенастраивать RAID.
Ты не поверишь, но мне придётся выключать ХОСТ. Остальные телодвижения на этом фоне меркнут.
dhameoelin ★★★★★ ( 08.05.16 11:20:04 )
Последнее исправление: dhameoelin 08.05.16 11:20:45 (всего исправлений: 1)
Ты не поверишь, но мне придётся выключать ХОСТ. Остальные телодвижения на этом фоне меркнут.
vxzvxz ★★★ ( 08.05.16 18:25:58 )
Последнее исправление: vxzvxz 08.05.16 18:26:09 (всего исправлений: 1)
Ясно, обычный десктоп, а не сервер, без hotswap корзин. Тогда всё ясно и такое извращение укладывается в моё представление об админах локалхоста.
Ясно, обычный десктоп, а не сервер, без hotswap корзин.
Почему так категорично? Сервер тоже может быть без hotswap корзин. У меня в стойке н-цать таких с софтрейдом. Не всегда время простоя критично.
Ясно, понятно. Нищеброд. Теперь вопросов совсем не имею.
Ваще не смешно при учете что это proliant юнитовые, вы пробовали для старых (относительно) hp найти киты для hotswap ? Судя по всему нет, даже корзинки и то проблема. Например поиск корзинок для DL120G6 уже проблема.
С такой категоричностью суждений, Вы, сударь, можете смело добавить меня в игнор и не утруждать Ваше Высочество ответами нищебродским админам самосборных локалхостов.
Пф, не ведись. Дяденька админит сириоуз бизнес.
Пф, не ведись. Дяденька админит сириоуз бизнес.
Очень впечатляет, серьезный дядька, че :)
Да, пробовал. Брали клиенту 1-2 года назад для 360G5. Без особых проблем гуглятся в Москве, в СПб фирме торгующими б/у комплектующими. Если не нравится б/у, то при покупке нового диска HP, салазки в подарок.
Вырвано из контекста. Обсуждалось б/у железо для локалхоста . Не вижу проблем, чтобы для своего домашнего локалхоста (за свои деньги) использовать б/у железо, если это оправдано.
Очень впечатляет, серьезный дядька, че :)
В контексте темы и моего ответа про hotswap, ещё раз повторяю, проблем не имею, если речь идёт про домашний и уютный локалхост (извращайтесь как хотите, только делайте это без широкой огласки). Но в контексте компании, серверы без hotswap, сюда же можно добавить модуль удалённого управления, это всё лишняя трата времени на поддержку и ненужная головная боль для системного администратора. Компания сэкономила денег при покупке, но теперь сисадмин будет за это расплачиваться своим временем. Ведь, чтобы заменить диск, при hotswap требуется 5 минут, а без hotswap - не меньше часа (согласование окна, которое обычно в нерабочее время, выключить сервисы и серверы, заменить диск, не перепутать с другими дисками, сервер включить, проверить работу RAID и запущенных сервисов).
Чтобы заменить вышедший из строя диск придётся выключать ВМ, менять диск, пробрасывать новый диск в ВМ, из-под ВМ перенастраивать RAID.
ну что за чушь! kvm позволяет на горячую заатачить физический диск, том lvm, raw или zvol, и заменить находу в виртуалке диск массива не проблема, если на борту хоста саташные диски никакие хотсвапы не нужны, сата прекрасно подключаюся нагорячую без всяких железных приблуд
не можешь перенести ВМ на другой хост
в случае с zfs не проблема
перенести vm с массивом на другой хост можно, заменить на горячую диск в массиве внутри виртуалки можно
камни есть, виртио дрова не могут переинициализировать уже подключенные диски, добавить в виртуалку нагорячую новый диск можно, а вот изменить параметры существующего не получиться (в случае если это том lvm или zvol) ну и само собой у виртуалки меньше возможностей для кеширования дисковых операции ввода-вывода
раздел Горячее подключение дисков SATA
проброс диска в vm на ходу:
virsh attach-disk pxe32 /var/lib/libvirt/images/img.raw vdc
vxzvxz ★★★ ( 09.05.16 11:29:37 )
Последнее исправление: vxzvxz 09.05.16 11:29:49 (всего исправлений: 1)
Ты имел в виду сложнее, или я чего-то не понимаю сейчас?
Вы на свет летите что ли?
Человече, тема решена. Узбагойзя.
Брали клиенту 1-2 года назад для 360G5.
1. Все-таки 2 года назад и 360-й != 120-й (я в августе прошлого года без проблем корзинки с хардами для 380G5 покупал)
2. Так брали чего: корзинки или кит?
Если не нравится б/у, то при покупке нового диска HP, салазки в подарок.
No, для чуть более старых моделей их просто нет (я про корзинки). Для тогоже DL120G6 в ноябре прошлого года найти можно было, но уже с трудом, многие просто отказывали хотя по инету у них в прайсах они фигурируют. емнип на оф сайте hp их уже нет, давно сняли с производства и забыли.
Компания сэкономила денег при покупке, но теперь сисадмин будет за это расплачиваться своим временем.
Естественный исторический фактор. Но это же не повод выкидывать на помойку и покупать новый за мнооого денюшек.
Ведь, чтобы заменить диск, при hotswap требуется 5 минут, а без hotswap - не меньше часа
- не меньше часа
Вы видимо как-то ооочень вдумчиво меняете, с несколькими перекурами попутно. Или у вас в серверной помойка и заодно со сменой харда и сервак продуваете. В норм условиях это 15-20 минут.
согласование окна, которое обычно в нерабочее время, выключить сервисы и серверы, заменить диск, не перепутать с другими дисками, сервер включить
Кажется тут возникло не понимание, я выше писал что «Не всегда время простоя критично.» чаще это 1u двуххардовые серваки, т.е. чего-то суперпупер на них и не крутиться. А фраза «в нерабочее время» вообще смешна, вы случайно не с 8 до 17 работаете?
Читайте также: