Какой raid выбрать для 1с
Логический диск в настольном ПК - это, зачастую, физический диск, разделенный на несколько логических. RAID - это процесс наоборот - несколько физических дисков (на нашем хостинге в подавляющем большинстве это специализированные middle-intensive SSD, корпоративного сегмента) объединяются в 1 логической с помощью специального ПО (программный рейд) или специального оборудования, так называемого контроллера (рейд-контроллера)
Как RAID-массивы формируются. Аппаратный рейд и программный рейд:
- Аппаратный RAID – формируется с помощью отдельного контроллера с собственным процессором и кэширующей памятью, полностью забирающий на себя выполнение всех дисковых операций. Наиболее затратный, однако, самый производительный и надежный вариант для использования.
- Программный RAID-массивы - наименее затратный вариант, но и наименее производительный. Массив создается средствами операционной системы, вся нагрузка по обработке данных «ложится на плечи» центрального процессора.
- Интегрированный аппаратный RAID (еще его часто называют Fake-RAID) — микрочип, установленный на материнскую плату, который берет на себя часть функционала аппаратного RAID-контроллера, работая в паре с центральным процессором. Этот подход работает чуть быстрее, чем программный RAID, но надежность у такого массива оставляет желать лучшего.
"Для чего все эти сложности и зачем столько вариантов?" возникает закономерный вопрос. Всё достаточно просто: смысл RAID - обеспечивать более высокую производительность и более высокую стабильность дисковой подсистемы такой сложной инфраструктуры, как выделенный сервер .
Какие бывают уровни RAID
По сути, RAID это связка из нескольких дисковых накопителей, от конфигурации которых зависит скорость работы, безопасность сервера и размещенных на нем данных клиента. Далее приводится список наиболее популярных типов RAID (так называемые "уровни" рейд-массивов) и в конце сравнительная таблица по основным типам. Жирным текстом выделены наиболее популярные (ввиду соотношения цена - достигнутые цели) уровни RAID
Исходные: есть "недо-сервер" на хорошей десктопной материнке, ASUS P8P67-Pro, камень Core i5, 32 ГБ ОЗУ. В настоящий момент работает 1 RAID-контроллер Intel RS2BL080 с BBU. К нему подключены массивы:
- RAID 1 2*WD VelociRaptor 300 GB - система (с соответствующей разбивкой);
- RAID 1 2*WD Velociraptor 600 GB - WAL
- RAID 10 4*WD RE4 FBYX - /var/lib/pgsql
Диски SATA.
Все 8 хвостов заняты.
Вопрос, собственно, вот в чем:
во-первых, насколько такая конфигурация адекватна (понимаю, лучше SAS, да в корзины, да RAID 10 по 8 дисков, но есть некоторые финансовые ограничения);
во-вторых, есть ли смысл купить еще один контроллер типа Intel RS2BL040 и вынести, скажем, WAL или систему, или и то, и то на него? Дело в том, что пока у нас около 50 баз, не очень больших. Но в перспективе их будет более 100, а кол-во пользователей - порядка 50. Однозначно придется масштабировать дисковую систему.
Порты на материнке практически не используются - только пара резервных дисков с бэкапами системы и баз.
И еще: может, /tmp/1c перенести на отдельный быстрый винт на материночный порт и хоть немного разгрузить системные диски?
Как Вы понимаете, надежность во всем этом хозяйстве на первом месте.
Или есть еще какие-то более рациональные способы организации дисковой системы?
Заранее всем большое спасибо!
(1) audion,
[quote]И еще: может, /tmp/1c перенести на отдельный быстрый винт на материночный порт и хоть немного разгрузить системные диски?[/quote]
Я бы смонтировал /tmp как tmpfs, т.е. отобразил на виртуальную память, а swap вынес на RAID10. Должно мочь.
Тут как раз и третье ядро приготся :)
(17) audion, извините. просто задолбали "заказчики", желающие получить функционал энтерпрайза за деньги SMB/SOHO.
(1) audion, Не важно какие контроллеры вы купите, одно только упоминание о десктопной маме говорит за себя, хорошую рабочую станцию вы можете получить но сервер не получите.
(25) посту из (0) уже 4 года, и вопрос уже не актуален, да и речь больше шла о том, надо ли для pg_xlog отдельный контроллер (не надо). Для сравнения разных решений и обкатки вполне было на тот момент достаточно десктопной материнки, в продакшен все пошло на серверной. И с тех пор уже стоооолько систем собрано, настроено, отгружено, и, главное, работает :-)
около 50 баз, не очень больших. Но в перспективе их будет более 100, а кол-во пользователей - порядка 50.
Какие-то все словосочетания несочетаемые.
Каков бюджет? Каково время работы сервера? Каков максимальный простой? Какого рода нагрузка юзверями планируется? Если уж в самоделкина играть, то давайте исходные поточнее.
(2) VasMart, что такое RAID, плюсы и минусы уровней - это я в курсе.
RAID 5 для постгре не рекомендуют, ни для WAL, ни для баз. Смита искурил вдоль и поперек, и не только его.
RAID1 под систему - мера вынужденная, поверьте, был печальный опыт вылета системных дисков. Восстановление из образа занимало довольно долго, да и потом куча телодвижений - образ был не очень свежий, и как на зло кое-что изменилось. Ну да дело не в этом. Потери в скорости RAID1 по сравнению с одиночным (для системы) не очень существенны, интенсивная запись идет именно в раздел /tmp/1c, потому и думаю его вынести на отдельный шпиндель.
BTW, не играть в самоделкина - гут, но решение на серверных компонентах обошлось бы минимум в 200 т.р., у меня было ТЗ уложиться в 90 по железу.
С виртуальными серверами - заманчиво. Но пока что это слишком напряжно. Изначально была мысль сделать два аппаратных сервера - один под 1С, другой - СВМ (Proxmox) с энным кол-вом виртуалок с СУБД. Но организация дисковой системы в этом случае мне лично представляется излишне усложненной, плюс потеря в скорости из-за LVM. Нет, пока надо ограничиться одним чисто аппаратным сервером. В перспективе будет кластер серверов, но в очень отдаленной.
2 ALL, коллеги, я, наверное, слишком расплывчато сформулировал проблему, попробую поконкретнее.
В текущей конфигурации все данные крутятся внутри одного RAID-контроллера. Т.е., в конечном счете, весь поток гоняется по одной шине PCI-E x16. Шин на материнке 2. Если я поставлю два контроллера, один под базы, другой - под WAL и систему, предположим, для простоты, при прочих равных, т.е. не меняя кол-во дисков и конфигурацию массивов, - даст ли это заметное повышение производительности дисковой системы? Иными словами, разнесение БД и системы + WAL по разным шинам и разным контроллерам - приводит ли это к существенному росту производительности?
Пока что уложился в 90 тыс., максимум до конца года - еще порядка 20 т.р. Как раз контроллер и пара дисков.
Круглосуточно, 24*7, время для обслуживания можно согласовать в период с 22 до 6. В рабочее время - ни-ни.
Скажем так, в рабочее время - не более часа в месяц, документально не фиксируется, но просьба начальства.
У нас не режимный объект, но когда по-человечески просят - чтобы система нормально работала, хочется именно по-человечески все и сделать. А нормально - значит, чтобы бухи и прочие не сидели без дела из-за моих косяков.
В настоящий момент - 20 лицензий, свободных почти не бывает, обычная бухгалтерская работа с типовыми или слегка измененными базами нормальных предприятий, все базы суммарно занимают на диске около 50 ГБ.
К концу года планируется дозакупка лицензий до 50 и кол-во баз возрастет примерно вдвое. В таком виде все это, вроде как, стабилизируется на 2013-й год, далее Х.З.
В текущем виде к серверу претензий нет. При удвоенном кол-ве подключений и кол-ве баз - могут быть. Вот и думаю.
В любом случае, спасибо, помогли собраться с мыслями :-)
(9) audion,
Производительность шины PCI-E x16 измеряется гигабайтами в секунду,
сильно удивлюсь, если она у Вас загружена более 5%.
Это точно не узкое место.
Выносить WAL из под контролера имеет смысл, чтобы организовать RAID10 на восьми дисках для всего остального, включая swap.
Покупать второй Intel RS2BL080 под RAID1/WAL - ИМХО пустая трата денег - кэш на запись там не нужен, так же как и аппаратный XOR.
Просто прицепите два диска к свободным портам на материнке и сделайте программный RAID1.
. тем более, что после расширения все равно придется покупать новый сервер ;)
(10) wkon, ОК, успокоили, спасибо!
Насчет нового сервера - однозначно придется. Тут же видите, какая история - каша из топора: изначально говорилось, типа, ладно, вот тебе деньги на диски, на остальное покупай десктопную систему без наворотов, ставь, пробуй, как оно под Lin+Postgre, а если вообще заработает, тогда и будем модернизировать. Серверная платформа изначально обошлась бы сильно дороже. Вот так и работали - памяти не хватает - докупили, RAID понадобился - организовали. Весь процесс внедрежа занял почти три месяца - с октября по декабрь. Зато с НГ - все на восьмерке.
Пока решили действующий сервер (в будущем) оставить чисто под 1С, а еще один, уже на серверной комплектухе, под СУБД.
(11) wkon, SSD (нормальный) стоит куда дороже 20 т.р. Например, у Seagate серии Pulsar, Pulsar XT. А к "ширпотребу" доверия нет пока. ИМХО рановато, вот лет через пару - мэйби, а пока что не хочется рисковать. Я лучше за эту цену 4 раптора возьму, в 10-м рэйде.
Ну не знаю, мне кажется, что с аппаратным райдом и кэшем на запись 512M лучше все запихать в один RAID10 и не парится.
Как раз и получите RAID10 - 8 дисков.
При таком размере кэша котролер по идеее должен успевать раскидывать все задания по дискам элеваторным методом.
Фишка в том, что ZFS позволяет организовать КЭШ на базе SSD дисков,
что должно заметно увеличит скорость доступа к данным по чтению.
Цена вопроса - 10т.р.
нет такого метода RAID-записи :)
(1) audion,
вы определитесь - что хотите: надежность, быстроту, или и то, и то, но - посерединке.
Посморите, что такое RAID'ы 5, 10, 50.
Под систему вообще рэйд смысла нет ставить (разве что - на быстрых дисках и RAID 0), если навернется - восстанавливать её не надо, а восстановление инфо - основная задача RAID. А в RAID 1 под ОС вы только теряете в скорости.
Под систему вообще можно сделать виртуальный сервер (да, собственно, и под каждую базу данных), и рулить на уровне виртуалок - возможно, комлекс из серверов и EMS будет по стомиости сопоставим с вашими расходами на это дело (хотя и недешево).
И никакой RAID все равно не заменит бэкапы - самая лучшая система - это комбинированная.
[quote] Под систему вообще рэйд смысла нет ставить (разве что - на быстрых дисках и RAID 0), если навернется - восстанавливать её не надо [/quote]
зато возможно надо будет вернутся из отпуска .
А вообще-то, автор темы организовал систему изначально правильно, в соответсвии с классическими рекомендациями, не стоит советовать ему "сходить и почитать про RAID".
(4) AlexO, ОК, спасибо, разумеется, бэкапы настроены и работают. Пока что ежедневные полные дампы рабочих баз (там еще тестовые, разработочные, всякие клиентские, т.е. не все надо архивировать постоянно) на диск на самом сервере, плюс копия через SCP на отдельный сервер бэкапов в другом помещении, раз в неделю запись на два комплекта ДВД - один в сейф руководству, другой - в еще более надежное место (ГУСАРЫ! :-)) Дамп всех баз - раз в 10 дней, та же схема. Архив образа системы - по мере необходимости (после существенных изменений).
Ну не знаю, мне кажется, что с аппаратным райдом и кэшем на запись 512M лучше все запихать в один RAID10 и не парится.
Как раз и получите RAID10 - 8 дисков.
При таком размере кэша котролер по идеее должен успевать раскидывать все задания по дискам элеваторным методом.
Была такая мысль, если честно :-) Еле-еле заставил себя от нее отказаться. Опять же, Смит не рекомендует.
Оптимизацию алгоритма работы с дисками, если честно, пока не изучал детально, оставил "на потом".
Насчет ZFS - спасибо, посмотрел статью. Выбор ФС для меня лично был продиктован только одним соображением: сравнительно высокой надежностью ext3 и 4 и, главное, опытом восстановления данных. Есть просто такое правило: для производства выбирать ту ФС, которую умеешь восстанавливать :-) С ZFS практически не сталкивался, но в перспективе посмотрю, спасибо!
Еще один вариант, купить на оставшиеся 20т.р. два SSD, объедините их в RAID1, как раз ваши базы данных туда поместятся.
[quote]
wkon, SSD (нормальный) стоит куда дороже 20 т.р. Например, у Seagate серии Pulsar, Pulsar XT. А к "ширпотребу" доверия нет пока. ИМХО рановато, вот лет через пару - мэйби, а пока что не хочется рисковать. Я лучше за эту цену 4 раптора возьму, в 10-м рэйде.
[/quote]
Intel X25-M SSD 120 Gb вполне приличный по цене 10 т.р.
У нас такой на загруженном корпоративном почтовом сервере уже года три как работает, пока нареканий не было.
Впрочем, как знаете. Успехов.
(13) wkon, спасибо за информацию, подумаем. А на почтовике он "кем" работает. под систему или под базы?
(18) asved.ru, да ладно, все нормально :-)
Думаете, мне не хотелось бы заменить зоопарк на пролианты? Но людям ведь надо зарплату платить. Дело не в желании "на грош пятаков", а просто выжать из имеющегося в наличии железа все, на что оно способно.
К нам из ИТС девочка приходит, приносит диск и всякую лабуду, так она говорит, что мы у нее одни такие, у кого сервер, SQL, компьютеры нормальные. У остальных - расшаренная папка на "сервере" и пяток заморенных бухгалтерш. Не от хорошей жизни ведь, правда?
Я лично прекрасно понимаю разницу между энтерпрайз и сохо. Но это не значит, что тем, у кого 50-100 пользователей, надо делать все, как у 500+. Мы только на одних лицензиях MS SQL и Win Server в конкретном случае реализации сервера Linux+ 1С + POstgreSQL сэкономили столько, что железо досталось практически даром.
К слову, дружественная конторка тоже сделала себе примерно нечто похожее, но силами сторонних "внедрителей". Сервак еле шевелился. На все вопросы - ответ "а че вы хотите, чтоб летало - надо MS SQL". Пришел, посмотрел. Оказалось, эти бараны, иначе и не назовешь, даже не удосужились диски разбить по-человечески, поставили убунту "искаропки". Как оно вообще запустилось, не понимаю. Сделал как надо, люди довольны. Железо не трогал вообще. А иначе бы еще одни орали "этот ваш линукс вообще не работает и фуфло".
[quote]wkon, спасибо за информацию, подумаем. А на почтовике он "кем" работает. под систему или под базы?[/quote]
(19) audion, под базы конечно, только у нас X-25M не 120 а 160Гб.
/dev/mapper/vgSSD-lvVarSpool
99G 69G 27G 73% /var/spool
/dev/mapper/vgSSD-tmp
4.0G 788M 3.2G 20% /tmp
/dev/mapper/vgSSD-lvPool
16G 13G 2.7G 83% /pool
(19)Подскажите как правильно разбить диски для установки серверной Ubuntu и 8.3 на 5 пользователей. С Линуксом до этого не доводилось работать.
Прекратите уже нищебродство и возьмите полку. Навтыкайте в нее маленьких недорогих SSD, если уж так жаба давит.
А вообще при таких требованиях к отказоустойчивости я конторе с таким бюджетом предложил бы долгую и увлекательную прогулку.
И еще. При наличии коммерческого дистрибутива аналогичный некоммерческий следует использовать только предыдущей ветки. Вам же за тестирование никто не платит?
я бы на аппаратные рейды даже не смотрела
что вы будете делать через пару лет когда контроллер прикажет дольше жить
уж лучше софт рейд.
(22) Не все так страшно. Во-первых, вся информация о массиве хранится на самих дисках, так что контроллер сдох - не беда, заменим; во-вторых, на моей памяти из десятков аппаратных плат в хлам (невосстановимо) сдохли 1 адаптек и 1 промайз, туда ему и дорога. LSI ремонтировались и работают, наверное, по сей день. Во-вторых, восстановление массива обычно возможно без бубна, если менять контроллер на аналогичный, не обязательно такой же точно. Грубо говоря, адаптек на адаптек, LSI на LSI. Просто понятно, что HBA-only контроллер в принципе не сможет восстановить RAID-массив, ну и "безмозглый" контроллер, поддерживающий только 0,1,1+0 массивы будет бесполезен для 5,6,50,60. В общем, не все так страшно.
Да и вообще, ладно, если надо сделать зеркало из 2 дисков, а если надо 10-й рэйд из 8 дисков забацать? На материнке столько и портов-то нет. А если из 32 дисков? В общем, для домашних целей - может, Вы и правы, но в продакшене - пардон, не согласен.
Да, про специальный софт типа Raid Reconstructor и необходимость регулярных РАБОЧИХ бэкапов я даже говорить не буду.
Всем доброго дня. Небольшая предыстория: Не так давно стал заниматься поддержкой серверного оборудования на предприятии где собственно и работаю. В тонкой настройке еще откровенно слабоват, посему и прибегаю к просьбам о помощи на данном ресурсе. Ситуация такая, а наличии есть сервер (тех.характеристики ниже), поставлена задача запилить его под работу 1с 8.3 местной бухгалтерии, переход. Еще один сервер пока на переходный период крутит 1с 7 версию, его пока и не трогаем. Программист 1с постоянно жалуется на "тормознутость" системы, все работает но притормаживает по его словам (по монитору ресурсов более менее загружена дисковая система). В общем работает 15-17 бухгалтеров/экономистов, все работаю локально.
Сервер: SuperMicro X8DT3-3F / Intel Xeon E5506 (4 core) x2 / Оперативная память DDR3 Kingstone 32Gb (4x8Gb) / HDD Seagate Cheetah 15k 2x147Gb + 2x600Gb / Adaptec RAID 3405 kit / сеть и прочее.
* На машине развернута виртуалка VMware (работаю две виртуальных машины (оперативная разбита 28Gb под 1с и 4Gb вторая виртуалка), винты собраны в Raid 1 (в системе видятся 1-147Gb и 1-600Gb соответственно). Операционки на обоих машинках Win2008 Server с терминальными серверами (RDP), домена нет, да и особой настройки не производилось.
Исходя из выше перечисленного прошу совета по оптимизации сервера, как убрать эти лаги, задержки при обработке задач на машине? У меня возникла идея по остановке машины сносу виртуализации, пересобрать рейд в 10. Чистая и прямая установка ОС, восстановление юзеров и прочее (как вариант доустановка еще одного винта для перемещения всех tmp). Но насколько это мне поможет я к сожалению не осознаю, вот и возник вопрос о стоимости овчины и выделки. Еще вопрос к знающим насколько сильно в целом систему тормозит виртуализация?
(24) DimaN.70rus, виртуализация весьма существенно сказывается на производительности. Если у вас файловая 1с, то при 15 одновременных пользователях есть смысл переходить на sql. Виртуалки, конечно, хороши удобством бэкапа и простотой переноса на другое железо, но лаги чудовищные.
Что касается дисковой системы, полагаю, разумно иметь два массива: один под ОС, другой под БД, причем последний строго 10, никаких 5/6. Хотя, у 3405 только 4 хвоста, ну, поэтому мы такие и не применяем.
И еще: радиатор у адаптеков чисто символический, и если охлаждение в корпусе недостаточное, то он очень сильно греется. Мы обычно всегда ставим дополнительный кулер на радиатор (при этом теряется соседний слот), или обдув сбоку, если позволяет конструкция корпуса.
Печальные характеристики. 1С, да и не только, любит процессоры с высокой тактовой частотой, желательно не ниже 3Ггц.
А по сабжу - поставить свежую 8.3.8.1502, поднять Апач 2.4 и опубликовать на нем базу с БП 3.0, настроить подключение к БП 3.0 через тонкий клиент по хттп. Тормоза, с вероятностью 80%, пропадут.
Достопочтенные гуру-админы 1С, поделитесь опытом, какую модель RAID правильно будет использовать на сервере 1С ?
Планируется перенос базы с обычного компьютера без RAID, на нём сейчас стоят два SSD накопителя и один хард HDD, на одном SSD установлен Win2016+1C Server 8.3+MS SQL 2017, на другом SSD развернуты базы SQL, ну и на хард производятся регулярные бэкапы через настроенные "Планы Обслуживания" на СУБД.
На период внедрения 1С такая схема устраивала, пользователей было не много,( их и сейчас не сильно больше стало), простой и восстановление из бэкапов представлялись допустимыми издержками.
Но сейчас перспектива неожиданного выхода из строя одного из дисков стала беспокоить больше, база выросла и выросла значимость этих данных, терять время на восстановление из бэкапов уже не очень устраивает.
Короче говоря будут заказывать серверную машину с рейд контроллером, под диски должно быть минимум 6 посадочных мест, а может и 8.
Как на ваш взгляд следовало бы распределить и настроить массив? Сделать 2 отдельных RAID 5 массива по 3 накопителя в каждом, итого 6 шт. дисков, также поставить WinOS+СУБД+1С Сервер на один RAID 5 массив, а на другом развернуть базы SQL ? Либо какой-то иной подход нужен? Поделитесь пожалуйста опытом, какую схему вы используете ?
В случае NVMe дисков восстановление из бэкапа занимает минимум времени.
Ну сделай для баз зеркало из пары SSD и все
Есть RAID или нет его, один фиг бекапы надо делать часто. Чем чаще, тем лучше.
Для меня оптимальный вариант рейда - зеркало.
(2) многие модель восстановления делают simple, а архивы ночью. Представляешь сколько времени займет восстановление документов за весь день?
(1) Ну, 5-й вроде как самый простой и оптимальный вариант по расходу на количество дисков и восстановления (отказоустойчивости). В зеркале RAID 1 нужен такого же размера диск, в RAID 5, на все три диска будет запись. Блоки данных и контрольные суммы записываются циклически на все диски массива.
(3) С этим спору нет, бэкапы не обсуждается, просто когда дохнет диск, то нужен человек, который побежит туда, вскроет компьютер, заменит дохлый на новый и восстановит базу с бэкапа.
А рейд просто всё сделает сам и физически один из дисков можно будет заменить при первой возможности.
Еще если сдохнет диск на котором ОСь стоит и СУБД, так это еще придется заново поднимать, переустанавливать.
(3) Какое зеркало, просто RAID 1 ? RAID 10 ?
Как распределяете ОСь СУБД 1С, базы ? Всё на одном, зеркальном массиве из двух и более дисков? Или 2 диска-зеркала для ОСи и установленных приложений и отдельный зеркальный массив для данных ?
мне кажется raid 1 (зеркало) из двух SSD более чем достаточно, для любой типовой, лучше деньги остальные потратить на резервные харды такие же,
вероятность что сразу сдохнут оба харда крайне мала, ну и про бэкапы не забываем
1. Под базы стоит забыть про рейды отличные от 1 и 10. Я бы 1 рейд собрал под систему и tmpdb или индексы. И 10 или 1 под данные базы.
2. Бекапы в любом случае нужно делать, на случай, если кто-то что-то случайно удалит.
(16): 1 - это резервирование в зеркало, 2/1 устойчивости к поломке. для системника, который и не так часто меняет свое критическое содержимое, и если рухнет - поднять из бэкапа проще но надо быстро - лучше 0 ставить (чередование, двойная скорость без резервирования) - тем паче, что и темпдб тоже в скорости нуждается а при разрушении достаточно перезапустит sql-сервер.
ну и под базы голая единица - наверное, все-таки. медленновато. если финансовый ресурс позволит - все-таки, наверное. лучще 10 (та же единица но скорость вдвое выше).
нэ?
(17) Вообще надо отметить, что из бэкапа на СУБД база довольно быстро поднимается, особенно на SSD, проводил эксперимент, но правда размер был тогда не большой, около 3гб примерно наверное, может и меньше.
По-большому счёту, если через Планы Обслуживания создаются ежедневные бэкапы, а они у меня настроены и создаются, с предварительной проверкой на целостность, индексирование, очистку кеша, вообщем по-букварю настраивал в свое время, то вроде бы и ничего страшного нет, если сдохнет диск с бэкапами, можно просто за несколько минут поднять базу с бэкапа.
Но вот системный диск с ОСью и установленными на этот же диск MS SQL+1C Сервером у меня вообще никак не бэкапится, то есть если этот диск сдохнет и система упадет, то придется все поднимать с нуля на чистый диск ставить и ОСь и СУБД и 1С сервер. Видимо нужно какие-то снэпшоты делать системного диска, хотя бы раз в неделю, чтобы в случае чего можно было восстановиться с этого образа с случае чего.
У вас сейчас оптимальная схема и есть: обычный комп, 2 SSD и HDD для быкапов. Если перенесете на труЪ-сервер с аппаратным RAID-контроллером, готовьтесь к значительному снижению производительности! ИМХО, не стоит. RAID'ы для SSD неактуальны, в них нет движущихся частей.
>>Но вот системный диск с ОСью и установленными на этот же диск MS SQL+1C Сервером у меня вообще никак не бэкапится,
Поставьте бесплатный Veeam Agent и быкапьте диск С куда-нибудь. Восстановление из такого образа идет быстро.
(11) Как вариант - зеркало из двух _разных_ ssd (имеется в виду чип контроллера) - они вряд ли выйдут из строя одновременно.
(22) А мне интересно, проводил ли кто-то эксперименты на скорость, сравнение одиночного ссд и райд10 из таких же?
+(23) И дополнительно, чтобы избежать влияние райд-контроллера - массив должен быть создан средствами винды
Я понимаю, что я не совсем корректные примеры и видео привожу. Но тенденция примерно такая.
Для себя я сдела вывод - либо простые ssd диски в первый рейд, либо nvme.
(17) Я ориентирован строить надежные системы, которые могут работать без простоя. Лучше уже совсем не ставить рейд под систему чем 0. Если 1-й рейд может выдержать поломку 1-го диска, то 0 выйдет из строя при поломке 1-го из двух. То есть 0 рейд повышает веротяность потери данных в 2 раза по сравнению с диском без рейда.
(22) Глупости. 10 рейд почти в 2 раза быстрее чем 1
(27) если говорим о шпинделях - однозначно. Если говорим о SSD, то не так все однозначно. Я не даром про скорость в (22) ничего не написал. Я написал "Смыcла в 10 рейде нет".
(18) //Но вот системный диск с ОСью и установленными на этот же диск MS SQL+1C Сервером у меня вообще никак не бэкапится,
Разверни на виртуалке. Я бы ещё на разные установил.
(31) На этапе внедрения рассматривал такой вариант, в первую очередь именно из-за простоты и удобства восстановления в случаях сбоя и потери данных, виртуальную систему из гипервизора конечно же и бэкапить легко и поднимать. Но честно говоря не решился с гипервизором связываться, железо не достаточно производительное было, старый i5, второго поколения, ну и в частности в плане эффективности разворачивания и работы 1С сервера приложений в виртуальной среде мнения не такие однозначные, довольно много на этот счёт неодобрительных высказываний и статей, немало противников такой модели работы, вроде как-бы производительность теряется и прочее.
(33) Я не сомневаюсь в общем-то, просто как я уже сказал, железо было не особо пригодное для экспериментов, не хотелось разочаровываться, скорее всего производительность не обрадовала бы, а так с приличным железом надо попробовать конечно.
Системный raid1 на ssd и raid1 под базу на NVME. Raid на NVME можно создать с помощью ключа VROC через UEFI (у этих ключей 3 ценника - самый дешевый raid 0-1-10, но только под Intel диски, второй около 10 тыс. - поддержка других производителей, третий - за 20 тыс. добавляется raid5), единственно, что приходится каждый процессор настраивать на UEFI и перенастраивать слоты PCI-E, в которые установлены NVME -платы. А так, когда настраиваешь в биосе UEFI, в биосе появляется возможность управления рейд-массивами, безо всяких Ctrl-A, и настроек визуально больше. Соответственно весь временный контент 1с пишется на системный raid, на NVME - только базы, индексы. Производительность - примерно раз в 5 быстрее, чем на SAS 10.
(0) Обычно делаю следующую схему.
Под ОС - RAID 1
Под данные RAID 10.
Итого 6 дисков минимум.
В идеале, еще RAID 1 под tempdb.
Аппаратные сбои были, но система работала. Заменяешь сломавшийся диск на новый. Несколько часов тормозов пока идет синхронизация, а затем все нормально.
(39)///Аппаратные сбои были, но система работала. Заменяешь сломавшийся диск на новый. Несколько часов тормозов пока идет синхронизация, а затем все нормально.
Да, понимаю вас, спасибо за комментарий, я вот тоже так хотел бы в идеале, чтобы спокойно спать. Чтобы на сбой сломя голову не реагировать, а чтобы всё в массиве подтянулось откуда нужно, а потом в спокойном режиме менять сдохший диск.
(38)
SEQ1M Q8T1 read 5286 write 1954
SEQ1M Q1T1 read 2371 write 181
RND4K Q32T16 read 578 write 682
RND4K Q1T1 read 38 write 94
Здравствуйте помогите в решении такого вопроса! Есть терминальный сервер с 35 пользователями и postgre база! База набрала уже до 60 гб и конечно начала тупить , встал вопрос об установлении или RAID 10 из 4 винтами или SSD которую нужно каждый год менять так как говорят что они не долго не выдерживают (Запросов к базе в день очень много потому что предприятие)
Вопрос что лучше и дешевле RAID или SSD за и против .
Ну рейд 1 сколько будет стоить примерно 500 $ и 300 $ * 2 SSD это получается 1100 $ .По 600 $ каждый год менять . Меня закапают и не скажут где похоронили .
я считаю что серверный ssd(к примеру intel) будет служить явно больше года. Там у них гарантия 2-3 года
(12) (11) Запросов к базе очень-очень много потому что это предприятие.Одни приемники заказов в день сколько делают, а о других отделах молчу!
Практика показывает что дневной объем записи в базу всегда меньше размера базы.
Простейшая математика показывает что с такой базой обычный десктопный ssd стоимостью 250$ объемом 256 выдержит минимум 5-10лет в самом жестком сценарии работы с такой базой.
Т.е не меньше чем обычный магнитный диск.
(0) Наш сисадмин поставил RAID 0 из SSD (SSD OCZ RevoDrive 3 X2) - пока полет нормальный. Архивы делаю каждый день)))
Обсуждали тут: v8: Увеличение производительности. Переход на SSD
Всё бы нечего и SSD можно нормальный взять который не через год сдохнет (специально обученный для баз данных с большим кол-во запросов), но он стоит около 1к$ +\- за шт. и когда последний раз пытался заказать сказали что в России сейчас нету. А обычные и подобные и правда придётся менять раз в год а то и чаще
Сервер баз данных Подходит
Ресурс SSD 38 петабайт
Из своего опыта -были 2 диска SSD в зеркале,объем базы 1с= 3 гб, на диске размещались файлы и данных и логов. Сдох через 6 месяцев работы. Фирму изготовителя не помню, стоимость боле 30 тыс. рублей. Сейчас SSD используется только под SQL темп
(29) Используется SSD в рэйде уже более двух лет, производитель интел. проблем никаких. Есть интеловские утилиты мониторинга SSD. Если брать серверные SSD у них расширенная гарантия.
(23)Идиотизм.
С чего это вдруг он через год сдохнет?
И где ты видел "специально обученные для баз с большим количеством запросов"?
Совсем уже народ офигел, всякую шнягу сочиняют.
SSD только если несколько штук, для отказоустойчивости. Да и то не надолго. На работе стоял SSD не дешевый, 7 месяцев отработал (база 7.7 80 пользователей), а потом сдох.
(29)Это о чем то говорит?
У меня не один уже ssd сдох, а обычных дак вообще счет потерял, и что теперь вообще диски не использовать? В памяти хранить?
(34) Говорит о том, что необходимо будет менять SSD часто, что автору топика не подходит. Поэтому у него выбор в пользу RAID.
Ресурс обычного пользовательского SSD размером 256Гб сделанного на MLC памяти составляет более 1000террабайт.
База данных 60гб - если ее перезаписывать за день пять раз, т.е каждый день записывать в базу 300гб информации, то диска хватит на десять лет.
И это обычный недорогой ssd.
Чтобы убить его за год надо писать минимум 3тб в день.
(35)Я не считаю что раз в десять лет часто.
А чаще менять придется только по причине морального устаревания.
(15) Винты долго можно использовать до 10 лет, а SSD по все слушай в ребят вылетают через год ну максимум полтора
(16) Насколько мне известно что он рассчитан на определенное количество записи и чтения
(40) это точно!
(46) поправьте пожалуйста в чем я не прав. Потому 10 скорость чтения-записи и отказоустойчивости на свои деньги самые высокие.
(49) к сожалению, не сталкивался . Насколько мне известно то 10 создана с 1 + 0 где 0 это чередование, а 1 это зеркало.
(47)Объясняю=
Что HDD, что SSD можно использовать как угодно долго, пока не сломаются, чаще они кстати морально устаревают, а не ломаются.
Количество поломок HDD и SSD примерно равно.
У SSD ограниченный ресурс по записи, читать можно сколько угодно, от чтения он никак не изнашивается, в отличие от HDD.
А запись ограничена, т.е не бесконечна.
С твоими объемами базы нормального SSD на 256Гб тебе хватит всего лишь на десять-пятнадцать лет, после чего он перестанет записывать, его только читать можно будет.
(48)Поправляю - в (45) описано что угодно но не 10 RAID.
Если использовать SSD - чередование не нужно, только зеркало для бесперебойной работы.
И да - самый скоростной рейд из HDD даже рядом не стоял по скорости с SSD.
(54) Ну, не скажи :). У нас тут админ замутил новый сервак под виртуалки. Воткнул туда 8 SAS дисков 15000rpm в 10 рейд. Должен сказать "качает" :) Стоит правда это все :(
Уже три года я вообще не покупаю HDD на участки где хоть как то критично быстродействие, только SSD.
Под базами некоторые SSD уже больше четырех лет, исправно трудятся, их уже скоро пора менять, ибо морально устаревают.
Ресурс перезаписи ячеек у них не израсходован и на 20%.
(55)Страйп дает линейную скорость.
Причем почти что по формуле скорость диска * количество дисков.
Т.е если надо быстро переписать фильм в BD качестве с одного диска на другой, ему равных нет.
Только вот сколько ты дисков в рейд не ставь, скорость доступа к данынм будет не быстрее чем у самого быстрого из них. Т.е фактически не изменится.
Нужные данные он отдаст не раньше чем головки на винте спозиционируются, а это долго.
В итоге при большом количестве мелких случайных запросов он мало чем лучше обычного HDD.
Старые у меня в основном OSZ и интелы.
Сейчас на самсунги плавно переезжаю, хотя и интелы тоже беру.
Дома уже все самсунги.
(61)Да кстати.
Я чего-то (0) невнимательно прочитал.
Там смотреть надо из за чего она тупит, а то может быть в дисковую систему никаким боком не упирается.
(61) + оно ставится с минимальными установками что бы не нагружать систему. Если его не настраивали, то оно память практически не использует, поэтому и в диск упирается.
(65)ИМХО неоправданно дорого получается. В чем профит?
Скорости SSD как правило и без рейда хватает с запасом.
Поэтому обычно только зеркало ставят.
(68)Дык все таки что нужно было? Иопсы или линейная скорость?
Линейную скорость в рейде из hdd можно нагнать так что не SSD позавидует, только вот для каких задач она нужна?
А IOPSы на hdd какие?
Самый шустрый hdd выдасть 200-250 iops, ну поставишь ты в рейд десяток таких дисков - будет у тебя под тысячу iops.
А самый дохлый ssd показывает на порядок лучший результат.
(70) Учитывая что есть SSD с линейной (последовательной) скоростью больше полутора гигабайт в секунду?
(71)Есть, я сравнивал с обычными недорогими.
(72)Пятнадцать - двадцать тысяч рублей это заоблачная цена?
Среднестатический одинэсник с зарплаты может позволить себе купить два, три SSD на террабайт.
(76) С чего 10 из мелких будет устойчивей, чем 1 из крупных? наоборот скорее. Микросхем памяти у обоих вариантов будет поровну, контроллеров у мелких больше. При одинаковой наработке на отказ сбоев у 10 будет больше.
(79)А с чего надежней то? он умирает при вылете любого диска, а дальше, как я уже писал все упирается в число компонентов. При одинаковой наработке на отказ одного элемента, чем больше элементов тем ниже надежность.
(80) Ну так объем то через 0 добирают. То есть аналоги это
1. RAID 1 из 2 больших и RAID 10 из 2X мелких
2. большой диск без рейда и RAID 0 из X мелких
Кстати, а нормальный RAID 5 из SSD бывает или у них такие скорости, что контроллер RAID их не нагрузит ни разу и скорость выйдет хуже чем у одиночного SSD или RAID 1?
(84)Почему бы нет?
Только хороший рейд контроллер умеющий корректно работать с ssd, и держащий хорошие скорости недешево стоит.
Поэтому в большинстве случаев удобней взять SSD. обеспечивающий нужные характеристики, а не городить огород.
Поэтому рейд чаще всего используется для отказоусточивости, банальное зеркало.
Старые рейд контроллеры к примеру не умеют передавать от ОС на SSD команды TRIM а это повышение износа, и приличная потеря производительности.
К тому же сам по себе SSD фактически является рейдом, только более сложным чем RAID5.
Т.е скоростные характеристики памяти используемой в SSD повышаются с помощью организации блоков в рейд, а рейдом управляет встроенный контроллер, который помимо этого управляет равномерным распределением нагрузки на ячейки, заблаговременным стиранием неиспользуемых ячеек, очисткой мусора, и прочими вещами.
(0)
тут критериев много.
Часто ли пишут в базу?
Может в основном просматривают?
Насколько легче в случае аварии восстановить RAID?
Снимаются ли копии баз или образы дисков?
(86)+
У меня у одного клиента SSD диск работает уже 3 года беспроблем (тьфу тьфу, не сглазить).
Естествено снимаются бакапы баз каждую ночь.
(86)++
Там правда всего 10 юзеров и 5 гиг база.
На твоем месте я бы выбрал РАЙД массив, ка старый и испытанный вариант.
(73) Надо же, ssd подешевели за последние годы.
Но если собирать сервер - только на серверных SSD, которые предназначены для работы в raid-массивах.
(91)Ну тут все зависит от того что за сервер ты собираешь.
У кого то сервер это сотни пользователей, и милионные потери в случае небольшого простоя.
А у кого то пять-шесть не сильно загруженных работой бухов, лениво ковыряющихся в базе. И недельный простой этих бухов будет дешевле одного хорошего серверного SSD.
В общем - тут чисто по ситуации.
(90)Ну ты предложил рейд из HDD, мотивирую что это старый проверенный вариант, в противовес современному SSD.
Я предлагаю счеты, карандаш и бумагу, это еще более старый и многократно проверенный вариант ведения учета ;)
Чтобы грамотно сконфигурировать сервер для 1С, нужно сначала разложить по полочкам планируемую вычислительную нагрузку. Система «1С: Предприятие 8» требовательна к ресурсам даже в том случае, если пользователей можно по пальцам пересчитать.
Это касается как небольших компаний, использующих базовые конфигурации: «Управление торговлей»,
«Зарплата и Управление Персоналом», «Бухгалтерский учет», так и применяющих версии «Управление
Производственным Предприятием» или «1С: Предприятие 8.3. Сервер приложений».
Если в вашей компании более 100 сотрудников, то потребуется удаленная работа через Remote Desktop, что
потребует дополнительных ресурсов сервера 1С. Во всех перечисленных случаях грамотный подбор сервера,
полностью (или даже с избытком) отвечающего профилю нагрузки - лучший способ избежать традиционных
для использования 1C проблем.
Выбор процессора и определение объема оперативной памяти для сервера 1С Предприятие 8.3
По моим наблюдениям, в компаниях, штат которых не превышает 10 сотрудников, а база 1-5 гигабайт, «1С:
Предприятие 8.3» обычно устанавливается на выделенном компьютере. И компьютер этот работает в
режиме файлового сервера. Такая нагрузка вполне по силам процессорам Intel Core i3 и E3-12xx. А памяти
оперативной нужно не менее 8 гигабайт (из них 2 гигабайта под ОС).
Средним компаниям, где 5 до 25 пользователей работают с базой до 4 гигабайт лучше всего подойдут
четырехядерные Intel Xeon E3-12xx либо AMD Opteron 4ххх. По четыре гигабайта оперативной памяти хватит
для подсистемы «Сервер приложений» и сервера базы данных MS SQL Server. Традиционно 2 гигабайта
займет ОС. Получается около 10 гигабайт, из которых не менее трети рекомендуется отвести для
кеширования базы данных. С учётом рекомендаций производителей процессоров и постоянно
снижающейся цены за гигабайт памяти рекомендуем 16Гб памяти с коррекцией чётности.
В средних и крупных компаниях (100-150 пользователей и БД от 1 гигабайта) с 1C обычно работают в
терминальном режиме. При этом на сервере одновременно запускается и сама система, и пользовательское
приложение. Опыт подсказывает, что серверные процессоры начального уровня для таких задач не
подходят.
Стоит обратить внимание, что когда оперативной памяти недостаточно, ОС может выгрузить «1С:
Предприятие 8.3. Сервер приложений» в файл подкачки (swap file). Нередко в таких ситуациях приложение
может оказаться недоступным на какое-то время. Закономерный вывод – оперативной памяти всегда
должно быть более чем достаточно.
Чтобы рассчитать требуемые для терминального доступа ресурсы, исхожу из того, что одно процессорное
ядро продуктивно обслуживает до 10 пользовательских сессий. Для сеанса из 20 таких сессий будет вполне
достаточно одного высокочастотного процессора, например, Intel Xeon E3-12xx. Из-за особенностей кода
программы 1С четыре быстрых ядра будут работать эффективнее, чем восемь медленных. Если число
пользователей перевалило за 20, а объем базы данных за 4 гигабайта, необходимы двухпроцессорные
решения на Intel Xeon E5-26xx или AMD Opteron 62xx.
Читайте также: