Hetzner vds подключить дополнительный диск
Арендую VDS в хецнере. Сегодня сервер отвалился. Не пингуется, ssh не подключается.
В панели пишет что все работает, запускаю консоль и вижу что в inet addr нет ipv4 (не заскринил, спешка), т.е. все онлайн, но работает только ipv6. Решил перезагрузить и потом уж в ТП писать, после ребута все заработало как и должно.
Может кто сталкивался с подобным?
Оказывается, хетцнер вот прямщаз, по запросу в суппорт, умеет выставлять инвойсы на 3 или 6 месяцев. Раньше вроде подобное было, но только банковским переводом. Сейчас можно картой.
Явно удобнее, чем скачивать интернет на флешки и потом перебрасываться ими через финскую границу.
Добрый день! Есть 2 VDS на Hetzner. На хостах стоит promox 6.4-13. Между хостами vswitch id4000. Настройки такие:
У гостевых (ubuntu 20.04):
На виртуалках стоят ноды. Пинги с хоста address 46.4.96.45 до 192.168.1.46(гостевой на том же хосте) и 192.168.100.2(локальный ip второго сервера) есть. Ноды имеют доступ к интернету (отключить нельзя), друг с другом должны соединиться по локалке. гостевые друг с другом должны соединиться через хосты. Пробовал просто добавить на гостевых такое:
Но при такой конфигурации на интерфейсе хоста обнаруживается трафик с маком виртуалок, что показывает команда:
Подскажите пожалуйста как конфигурировать сеть, чтобы гостевые видели друг друга и не было трафика с гостевыми мак адресами?
Привет! На Хетзнере стоят 2 дедика с ubuntu 20.04. На каждом по 2 виртуалки ubuntu. В личном кабинете поднял vswitch для объединения машин. Дополнительных ip нету. Она вроде не нужна для локальной сети. У обеих стоял vbox. Конфигурация сети такая:
Второй тоже такой же, только ip vlan 192.168.100.3/24
Между ними все работала. Пинги между всеми машинами работали. iptables все поставил ACCEPT и плюс только:
Все работало. Потом решил перейти на promox. Поставил на втором сервере, первый пока оставлен на vbox
Промох не обновлял. Стоит с коробки installimage Сейчас на promox на хосте сеть такой:
На виртуалках ubuntu делаю так:
Но пинга между серверами нет. Проверил все возможные комбинации. Что можно сделать? Спасибо!
Коллеги , купили второй ип на хетзнеровcкий dedicated сервер. Проблема в том что этот выделеный ИП после добавления к интерфейсу (по сути alias eth0:1 ) ,пинг на него идёт и ssh если ИЗВНЕ пашет.
Но нужно сделать чтобы часть трафика шла с этого ИП ( а там default gateway тот же ИП что тебе и дали ) . подскажите как решить ,плиз ?
subj, просто обратил внимание на примечание мелкими буквами на Hetzner.
меня сетап, конечно, не интересует, но изменения заметные.
Здравствуйте, есть у меня сервер на Hetznere, на который часто идут DDOS атаки по UDP. Iptables не справляется с ними от слова совсем, так как гигабитный канал просто забивается мусором и соответственно пропадает возможность как-либо подключиться. Сделал в файрволле хетзнера чтобы открыты были только пара нужных TCP портов, остальное всё по дефолту отклоняется. Но дилема в том, что с закрытым UDP не работает большая часть программ: Docker, curl, тот же apt. Проблема решается если открыть в файрволле 32000-65536 порты UDP, но тогда всё теряет смысл, так как на них начинается атака и всё падает.
У меня есть 2 варианта развития событий: Сделать как-то (как-то это главное) чтобы все ответные соединения шли на один порт и постоянно менять его. Сделать перенаправление через какой-то VDS, чтобы в крайнем случае ложился он, а не основной сервер.
Хочу спросить совета, в ту ли сторону я думаю, или можно как-то более просто решить эту проблему? P.S. в поддержку хетзнера писал, ответили шаблоном что никого не видели, ничего не знают.
Пытаюсь выбрать новый сервер в хетцнере. Из требований только память с ECC и диски от 8 терабайт. Из подходящих:
- PX62 (64gb, 2*8tb) - 89 евро
- SX64 (64gb, 4*16tb) - 89 евро
- AX65 (64gb, 2*8tb) - 64 евро
Почему такая разница по деньгам за интел? Процы отличаются, но по производительности вроде не особо. Есть какие-то нюансы против АМД?
И второй вопрос насчет надежности дисков. С теми что на 16 терабайт в SX64 связываться или не стоит?
Коллеги посоветуйте бюджетные аналоги того же hetzner по части выделенных серверов с Ryzen ?
Добрый день Купил я выделенный сервер у hetzner с одним IP. Развернул там KVM. Сделал VLAN на него повесил bridge что бы организовать локальную сеть для виртуалок, а виртуалки через NAT выпустил в мир. И тут мне приходит письмо от hetzner
you can use virtualization, but you may only use MAC that we have authorized. The hardware MAC is always authorized, additional MAC can be request by buying single IP in robot. The cost neutral solution is to use a routed setup, so only 1 MAC is used for all VM when communicating with our network.
Мол нельзя светить mac адреса на их IP и предлагают как-то организовать маршрутизацию. Я не понимаю как и как это поможет убрать мак адрес с IP адреса?
Как сделать эту маршрутизацию о которой они говорят?
Выбрал хостинг провайдера, теперь дело за малым - определить какой ЦОД быстрее относительно меня. Хватит ли обычной статистики пинга (1000 запросов) до трех ЦОДов?
Такой проверки достаточно или есть какие-то неочевидности?
Коллеги, встала проблема запуска одного проприетарного софта под винду и соотвественно ищу у кого подешевле заказать пару выделенных серверов с поддержкой аппаратной виртуализацией , чтобы установить туда тот же proxmox
- хватит и 8 гигов рама и слабого проца и винта.
- цена пониже чем тот же hetzner
P.S Linux тут притом , что под него есть наиболее удобные и эффективные инструменты использующию аппаратную виртуализацию
Люди добреньки, поможите определить проблему передачи пакетов на пути в заграничную Германию и обратно.
Локально Спидтест выдает 500/500 Mbps до сервака поблизости и ~300 до сервака в Берлине:
Замеры же MTR’ом от локального компа до своего серва на Хецнере показывают энто:
В обратном направлении:
При этом, с серва Хецнера на локальный файло весом 3Tb льется со скоростью 5 Мбайт(?)/сек:
Ростелеком говорит - это не он, Хетцнер говорит - это не он. Куда копать? У меня торренты быстрее загружаются, чем файлы с родного серва.
Всем привет ✋ Есть следующая инфраструктура:
- ovirt engine (hetzner cloud, engine standalone installation)
- ovirt node (hetzner robot, dedicated server)
- hetzner private cloud network (выделенный сервер воткнут в нее посредством хецнеровского vSwitch)
- сеть oVirt, ovirtmgmt, с обязательно включённым VLAN tag (иначе связи с нодой не будет, особенности работы hetzner vSwitch)
- Машина-роутер с pfSense (hetzner cloud, в той же приватной сети и подсети, что и ovirt engine)
- Виртуалка для тестов в кластере oVirt. Её NIC – ovirtmgmt (на время тестов, дальше другая, изолированная сеть будет создана).
Сеть на узле oVirt выглядит, так: a) enp1s0 (публичный интерфейс) b) enp1s0.4010 (VLAN, для связи с приватной сетью Hetzner Cloud) c) ovirtmgmt (мост oVirt)
Из-за того, что мост поднят на enp1s0.4010, а не enp1s0 нет интернета из коробки для виртуалок oVirt.
Даже если он и был бы, всё равно нужно замаршрутизировать трафик иначе: заставить его ходить через pfsense
Кто делал интернеты в виртуалках oVirt? Поделитесь, пожалуйста, best-practices в эту тему.
В доке я нарыла два варианта кастомной маршрутизации: network external provider и просто сменить маршруты на узле. Но для меня оба варианта не работают. Первый – потому что оно не работает с VLAN tagging (а без этого я не достучусь в Hetzner Cloud). Второй – из-за особенностей сети hetzner и ovirtmgmt, последяя не может смаршрутизировать корректно трафик на роутер pfsense. при этом сам роутер доступен из тестовой виртуальнйо машины и пингуется.
Чот припарило уже.
console -> mc -> в одной панели (shell link) - ssh до сервера на hetzner -> ставлю копироваться файл
и рвется связь, файл не докачивается
что это? это хетцнер так работает или у них дефолтные настройки ssh сервера такие? как пофиксить?
Здравствуйте! Для своего сервера заказал виртуальный сервер на Хецнере, ОС Убунту 20.04 мин, дали айпи 105.217.93.87. На него поставил GUI и поставил VirtualBoxю НА него поставил Windows server, Windows 10 и Убунту. На виндоусах интернет есть, все норм. А вот убунту не видит свой айпи и по ссх не подключается.Заказал еще один айпи 105.217.93.70, прописал его и ничего. Заходит по SSH на основную убунту. Может кто -то знает, что делать в таких случаях.
Proxmox Virtual Environment (Proxmox VE) — система виртуализации с открытым исходным кодом, основанная на Debian GNU/Linux. Разрабатывается австрийской фирмой Proxmox Server Solutions GmbH, спонсируемой Internet Foundation Austria.
… и, надо сказать, очень приятная в обслуживании и эксплуатации система.
Я работаю со своими клиентами (в большинстве случаев студии веб-дизайна, или standalone-клиенты) уже около 5 лет. Все мои клиенты используют услуги немецкого хостера Hetzner. Можно долго рассуждать о качестве предоставляемых ими услуг, качестве железа в их серверах — но факт остается фактом: предложения Hetzner в сегменте root-серверов вне конкуренции по соотношению цена/качество.
Справка: по состоянию на время написания статьи стоимость ежемесячной аренды сервера линейки EX60 (Intel Core i7-920, 48 GB DDR3 RAM,2 x 2 TB SATA 3 Gb/s 7200 rpm HDD ) составляет всего 59€ в месяц. Согласитесь, совсем недорого.
В этой статье я хотел бы описать небольшой howto по установке на root-сервер системы виртуализации proxmox, чтобы просто показать, насколько это легко и доступно. Не буду описывать варианты кластеризации системы из 2-х и более серверов (возможно, сделаю это в следующей статье, если сообществу будет интересно), а распишу самый простой вариант.
Итак, прежде всего нам необходим собственно сам сервер. Я рекомендую EX60, поскольку он недорог, производителен и не имеет такой неприятной особенности как one-time setup fee (будьте бдительны при заказе других моделей!)
Мы заказали сервер. Отлично, ждем пока нам его установят, а как на почту придет заветное письмо, приступаем непосредственно к процессу. Стоит сказать, что для целей виртуализации нам потребуются дополнительные IP адреса. Можно приобрести их до 3 штук по отдельности, либо купить сразу подсеть (требует дополнительного пакета услуг FlexiPack, 15 евро в месяц + стоимость аренды подсети). Для этого заходим в панель управления сервером robot.your-server.de и, собственно, на вкладке IPs производим заказ. Обязательно укажите Purpose of use!
В случае заказа нескольких IP адресов, повторяем по вкусу.
Теперь нам нужно загрузить сервер в recovery mode. Для этого переходим на вкладку Rescue, выбираем Operating system Linux, Architecture 64 bit и смело жмем на Activate rescue system.
Записываем пароль, что предложит нам система
И перезагружаем сервер:
Логинимся на сервер с записанным ранее паролем, и выполняем следующие команды:
То есть меняем пароль на более нам удобный, и запускаем процесс установки.
В открывшемся мастере выбираем Virtualization -> Proxmox-Virtualization-on-Debian-Wheezy
Откроется редактор конфигурационного файла установки. Приведу его полностью, уже со всеми необходимыми правками, убрав лишние комментарии:
PART /boot ext3 512M
PART lvm vg0 all
LV vg0 root / ext4 20G
LV vg0 swap swap swap 8G
Жмем F10, сохраняя внесенные изменения и соглашаемся со страшным предупреждением, что данные на дисках будут потеряны
И идем пить кофе.
Когда чашка кофе выпита, и по вашему телу пробегает приятная теплая волна, скорее всего установка нашего сервера уже завершена. Все что нам осталось — это перезагрузиться, введя в консоли
Загружаем наш свежеустановленный сервер, и переходим по адресу:
Логинимся под учетной записью root и паролем, который вы поменяли перед установкой. Поменяли ведь? Если нет — то используем тот, что нам выдал hetzner =)
Продолжаем настройку.
Добавляем storage.
Datacenter -> Storage -> Add -> LVM
Отлично, мы подключили наш Volume Group. Немного терпения, осталось чуть-чуть =)
Настраиваем сеть.
Datacenter -> Node1 -> Network
Приводим к виду, изображенному на скриншоте. Обратите внимание, что настроить сеть необходимо как bridge! Смело оперируйте с настройками, до перезагрузки они все равно не применятся…
- 1. Не перепутайте во вкладке Hard Disk
- 2. На вкладке Network в поле MAC Address укажите MAC адрес для заказанного ранее IP
- 3. На вкладке CD/DVD нужно выбрать образ. Образы iso можно положить самому на гипервизор в директорию /var/lib/vz/template/iso
Собственно, как генерировать MAC для заказанного IP.
Заходим в панель управления сервером robot.your-server.de, переходим на вкладку IPs и нажимаем на Request separate MAC address. Получаем MAC, вбиваем в настройки виртуальной машины, и получаем на ней IP по DHCP.
- К консоли виртуальной машины можно получить доступ через веб-интерфейс, нажав на кнопку Console.
- При установке WIndows на виртуальную машину на вкладке Hard Disk следует выбирать SATA контроллер.
Вроде как все. Можно налить себе еще одну чашку кофе и заслуженно передохнуть.
Спасибо за внимание, надеюсь, этот материал будет полезен.
P.S. Добавил голосование, интересно ли уважаемому сообществу о кластеризации серверов Proxmox.
What are the Hetzner Cloud Volumes?
It is a feature for fast (SSD based), flexible, and cost-effective networked block storage which you can attach to your Hetzner cloud server.
Are Volumes available in all locations?
Volumes are available in all locations (currently Falkenstein, Helsinki, Nuremberg and Ashburn, VA).
Can I resize Volumes?
You can increase a Volume up to 10 TB. The function uses a sliding bar that allows you to select the desired size in 1 GB increments. Note, however, that you can only enlarge your Volume, not reduce it. After resizing your Volume, you also have to enlarge your server's filesystem manually.
How can I mount a Volume on the server?
When you attach the Volume to your server on Cloud Console, you can choose between the mount options AUTOMATIC and MANUALLY.
- If you choose automatic, your Volume will immediately be ready to use and the Volume will have been mounted for you.
- If you choose manually, a window will pop up right after you created the Volume. You will be shown some commands that you can use to format and mount your Volume. Volumes that have been added to fstab will automatically be mounted at every reboot. You can take a look at this tutorial for more information about mounting and formatting a Volume.
Attaching a Volume fails. Why does this happen?
Servers which have run for quite some time may need a power off and power on cycle. This is a one time only requirement and will trigger our cloud management system to enable volume support for this server. Note: A soft reboot is not enough.
Automounting fails — How can I fix this problem?
You need a script on your server so you can automount Volumes. We install this script automatically with all of our standard images. However, any servers that were created before 30 November 2018 will be missing this script. To fix this problem, you can either install the script manually or create a new server. We have prepared an article with all the information you need about the configuration and the auto-configuration package.
How does Hetzner Online store the data in Volumes?
We store every block of data on three different physical servers (triple replication).
Is there a limit on the number of attached Volumes?
You can mount up to 16 Volumes on each of your Hetzner cloud servers. Please note that you can only attach a Volume to one server at a time.
Are there size limits for Volumes?
Volumes can be between 10 GB and 10 TB.
Can I also mount Hetzner Cloud Volumes on a Hetzner dedicated root server?
Unfortunately not: Volumes only work with cloud servers.
How can i distinguish multiple Volumes from each other on a cloud server ?
You can use the following command to get a list of all Volumes available to your Operating System:
Готовлю статью про Hetzner Cloud и столкнулся с тем, что после увеличения диска до определенного размера в консоли Cloud его необходимо увеличить еще и в системе.
Итак, например у вас был диск размером в 10 Гб и потребовалось его увеличить до 30Гб.
Идем в Cloud Console, находим нужный диск (Volume) и выбираем в меню изменить размер (Resize). Выбираем нужный размер и нажимаем "Resize & buy now"
Изменение размера диска в Hetzner Cloud
После этого, диск будет увеличен. Однако, если вы зайдете на сервер и снова посмотрите размер диска, то увидите, что он совсем не увеличился и все еще составляет 10 Гб. Перезагрузка, так же не поможет, в системе нужно увеличивать размер "вручную".
Для того, чтобы его увеличить, вам нужно выполнить следующие операции.
Для диска в EXT4
Лучше всего сперва отмонтировать диск. Это не обязательно если вы понимаете, что делаете, но желательно.
Далее проверить на ошибки
И увеличить размер, на полную
или на определенное значение
если вы на первом пункте сделали unmount, то теперь его нужно примонтировать назад
значения раздела (/dev/sdb) и точки монтирования (/mnt/HC_Volume_2805082) я взял из вывода команды
которую упоминал в самом начале.
Для диска в XFS
Лучше всего сперва отмонтировать диск. Это не обязательно если вы понимаете, что делаете, но желательно.
Далее увеличить размер, на полную
или на определенное значение
если вы на первом пункте сделали unmount, то теперь его нужно примонтировать назад
значения раздела (/dev/sdb) и точки монтирования (/mnt/HC_Volume_2805082) я взял из вывода команды
которую упоминал в самом начале.
Результат
Теперь проверяем, что получилось
Полезно знать
Обратите внимание, что на сегодняшний день нет возможности уменьшать размер диска в Hetzner Cloud. Т.е. если вы увеличили его до 30 Гб, а через пару дней решили уменьшить до 10Гб, вам придется создавать второй диск, размером 10Гб, переносить туда данные внутри системы, удалять диск 30Gb. В Wiki Hetzner-а (wiki.hetzner.de), это описано так
Можно ли изменять размер Тома?
Размер тома можно увеличивать, вплоть до 10 ТБ. Используя ползунок можно изменять размер с шагом в 1 ГБ. Обратите внимание, что вы можете только увеличивать размер Тома, но не уменьшать его , а также потребуется вручную изменить размер файловой системы.
Поэтому, если вам нужен диск для временных операций, лучше не увеличивать текущий диск, а создать второй, который можно будет просто удалить если он станет не нужным.
Начала у меня на одном из серверов Hetzner-а сыпаться база. Я не придал этому особого значения, восстановил её и продолжил работу, однако на следующий день история повторилась..
Тогда я решил проверить нет ли проблем с винтом, первое на что я решил глянуть был рейд массив:
Тут я увидел, что один из дисков вылетел:
Далее, поняв суть проблемы, мне нужно было обратиться к тех.поддержке с просьбой о замене. Но прежде я сделал бэкапы базы, файлов и конфигураций.
После того как бэкап был готов, я написал в тех. поддержку. Для таких случаев (замена дисков) есть специальная форма в административной панели Robot. Находится она тут:
Support>Request>Server>Server problems>Hard drive is broken
Hetzner Robot - Форма замены жесткого диска
Далее Вы увидите такую форму:
Hetzner форма замены жесткого диска
Вас попросят ввести серийный номер диска и информация от утилиты smartctl, так же предоставят мануалы как это сделать:
Номер жесткого диска я получил выполнив команду (разумеется вам нужно указать вылетевший диск вместо sdb):
Из этого вывода, нас интересует полный ID_SERIAL, т.е.
Далее необходимо выбрать тип замены: бесплатно, но при этом могут поставить б/у диск, либо 49 евро и поставят новый. Я согласился на вариант без дополнительных затрат.
Следующим шагом, нужно ввести информацию из smartctl. У меня такой утилиты не было установлено, поэтому пришлось поставить пакет smartmontools:
После этого я выполнил необходимую команду:
На что получил ошибку от утилиты:
Тут должна выдаться простыня инфы о диске, но в моем случае написали, что не может прочитать её. Это я и скопировал в форму.
Далее нас спрашивают хотим мы заменить диск сразу как только представится возможность, либо нас сначала надо уведомить. Тут основная фишка в том, что во время замены, сервер будет недоступен 2-4 часа. Я инфу всю забэкапил, поэтому выбрал первый вариант, а именно чтобы заменили тогда, когда им будет удобно.
На последнем этапе подтвердил галочкой что они могут чинить там все, и что с рисками я ознакомлен. И отправил запрос.
Спустя два часа, мне пришел ответ:
Диск заменили, я зашел на сервер, и увидел что диск поменяли на новый, т.е. у него в S.M.A.R.T. было около часа или двух работы.
Следующим этапом стало добавление диска в рейд. Все этапы подробно описаны тут: Замена жесткого диска
Выполнив эти этапы я перезагрузился, и увидел что пошла синхронизация данных, посмотреть ход работы, можно командой:
Т.к. сервер во время синхронизации данных активно работал, то копирование терабайтных разделов заняло несколько дней.
добавлено: 25.03.2015
Обратите внимание, что скорость синхронизации можно регулировать. Если вы отключили все сервисы и можете выкрутить скорость синхронизации на максимум, тогда делаете следующее:
1) Выполняем вот эти команды, и запоминаете значения которые установлены:
должны вывести что-то типа 1000 и 100000
2) Меняете эти значения, например на 250000 и 500000 соответственно:
3) Дожидаетесь конца синхронизации, и восстанавливаете их обратно:
Я попробовал перезагрузиться, и процесс синхронизации пошел снова, однако подождав еще пару дней, я получил тот же самый результат.
Погуглив немного, я не нашел четкого решения, однако люди писали, что такая проблема, может быть из-за того, что сыпется основной диск (диск с которого происходит синхронизация). Я подумал, что это вполне может быть, и заглянул dmesg:
В результатах которые выдала мне команда, я увидел, что действительно есть проблемы с не читаемыми секторами на диске sda.Ошибки выглядят примерно так (картинка с askubuntu):
Dmesg. Сыпется диск.
Соответственно, mdadm ловя эти ошибки, просто не может синхронизировать диски. Рецепта что дальше делать я не нашел, говорили о том, чтобы копировать данные, менять диск, но в таком бы случае пришлось бы устанавливать систему с нуля, а такая перспектива меня не радовала..
Я решил попробовать, "восстановить" диск с помощью утилиты e2fsck, которая может помечать битые сектора, чтобы их в дальнейшем не использовали. Т.к. диск sda был системный, то я не мог запустить восстановление, пока он активен. В обычной жизни, я бы загрузился с Live CD, однако сейчас сервер стоял в Германии, а я находился в Украине..
Но, Hetzner-ы молодцы и предусмотрели такие ситуации, сделав возможность загрузиться с Rescue системы. Для того чтобы запустить её, идем в панель Robot, в такой раздел:
Main functions>Servers>Нужный сервер>Вкладка Rescue
Далее выбираем архитектуру, в моем случае это 64 bit. Если вы не знаете какая у вас, то зайдите на сервер и выполните команду:
В ответ получите что-то вроде:
Далее Вам нужно нажать кнопку: [Activate Rescue System]
Разумеется во время работы Rescue системы, ваш веб-сервер будет недоступен, поэтому если есть критические сайты, лучше их на время куда-нибудь перенести заранее, чтобы они могли работать. На восстановление может потребоваться значительное время. В моем случае, это заняло около 6-8 часов.
На следующем шаге Вам выдадут root пароль, с помощью которого Вы и сможете подключиться к Rescue системе. Но перед этим нужно, перезагрузить сервер. Для этого логинимся на сервер со старой учеткой, и перезагружаем его командой:
После этого, конектимся по SSH к нашему серверу, с такими учетными данными:
- ip: ip вашего сервера
- порт: 22
- логин: root
- пароль: пароль выданный после активации Rescue System
Далее я запустил проверку диска вот так:
Тут я указал, чтобы диск проверили в read-only режиме, и битые сектора пофиксили. Мануал по параметрам можно посмотреть тут: e2fsck(8) - Linux man page.
Выполнения команды пришлось подождать, по завершению, я увидел что нашлось штук 30 "плохих" блоков и они были "исправлены".
Далее я посмотрел прогресс синхронизации дисков, который сам автоматически запустился после загрузки Rescue системы:
Я увидел, что синхронизация идет на скорости 160 мбайт/сек, что было намного быстрее чем когда система загружена в обычном режиме, но самое главное до завершения осталось около часа. Я не стал спешить, а дождался завершения. На этот раз, Spare флаг исчез, а диски синхронизировались. Я снова перезагрузился, командой reboot и теперь загрузилась уже не Rescue, а моя система в обычном режиме.
Как всегда у меня - все заканчивается победой, чего и Вам желаю!
--[10.08.13]--
Где-то через пару недель, сдох полностью и первый винт (/dev/sda), благо я успел синхронизироваться с новым. Поэтому если у вас начались проблемы с битыми секторами, делайте бэкап важных данных как можно быстрее!
--[14.05.14]--
Где-то неделю назад, со мной списался Григорий Р. у него было несколько вопросов, на которые я попытался ему ответить. Удалось мне помочь ему информацией или нет, судить не могу. Однако, знаю что у него все сложилось замечательно - ему так же удалось заменить диск и синхронизировать его.
В нашем диалоге, мы затронули один интересный вопрос о котором я бы хотел рассказать, а именно время синхронизации. Я предположил что его можно вычислить таким способом:
Попробуй запусти копирование большого файла сейчас (10-20 Гб), на работающей системе, с нормального винта на него же. Дальше посмотри скорость копирования. И посчитай, сколько займет копирование всего винта. Добавь какой-нибудь запас, это и будет примерное время.
Как-то так:
скорость копирования файла = 50 МБайт/с
2ТБ = 2000 Гб = 2.000.000 МБ
2.000.000 / 50 = 40.000 сек
40.000 сек / 60 / 60 = 11 часов
11 * 1,5(запас) = 16 часов
По сути, в момент синхронизации происходит копирование раздела 1 в 1 + некоторые доп. операции. Так что, думаю, такой расчет вполне корректен.
После этого Григорий сделал у себя тест и получил такой результат:
Я его попросил скинуть мне реальные данные, когда диск будет синхронизироваться. Сегодня он их мне прислал, за что ему огромное спасибо. Итак данные о синхронизации:
Personalities : [raid1]
md3 : active raid1 sdb4[2] sda4[0]
1822312704 blocks super 1.2 [2/1] [U_]
resync=DELAYEDmd2 : active raid1 sdb3[2] sda3[0]
1073610560 blocks super 1.2 [2/1] [U_]
[>. ] recovery = 1.0% (11589248/1073610560) finish=113.3min speed=156200K/sec
и еще один замер, для винта побольше:
Все это время нельзя было включать виртуальные машины, они очень сильно влияли на время ребилда
Как видим, теория +/- подтверждается. Соответственно, если Вас интересует время синхронизации, можете попробовать его прикинуть таким же образом как это сделали мы.
В остальном, желаю Вам использовать эту статью только в образовательных целях и никогда не сталкиваться с умирающими винтами 🙂
--[Добавлено 02.03.2014]--
Еще один читатель прислал информацию для статистики:
Filesystem: /dev/md3
Size: 1.7T
Used: 23G
Avail: 1.6T
Use%: 2%
Mounted on: /home
и статистика mdadm:
md3 : active raid1 sda4[0] sdb4[1]
1839220031 blocks super 1.2 [2/2] [UU]
[>. ] resync = 2.9% (54763968/1839220031) finish=573.5min speed=51849K/sec
Читайте также: