Установка сетевой карты esxi
Иногда бывают случае, когда нужно установить драйвера на хост ESXi, например при установке ESXi на домашний компьютер с оборудованием, которое официально не поддерживается VMWare. В моем случае не определилась одна из двух сетевых карт — Realtek r8169.
Давайте посмотрим, как установить недостающий драйвер.
Как установить драйвер на ESXi:
Прежде всего, нужно получить точный идентификатор устройства. Сделать это можно командой:
Нас интересует сетевая карта, поэтому мы используем команду с указанием класса устройств(в нашем случае Class 0200):
В результате вывода команды, получаем следующее:
Теперь осталось найти и загрузить нужный драйвер.
Патчи для ESXi можно загружать и устанавливать непосредственно из командной строки с оф. сайта VMware. Для этого введите команду:
В списке выберите нужный патч и установите:
Возможно, понадобится открыть порт файрвола на хосте, (если вы этого еще не сделали):
и разрешить установку неподдерживаемых драйверов:
В моем случае официального драйвера не найти, т.к. VMware негативно относится к использованию ESXi на «нищебродском» оборудовании и усердно «выпиливает» драйвера из своих дистрибутивов. (Сетевые карты «домашнего» сегмента(как Realtek r8169) лишились поддержки, по-моему, с версии 5.5).
Если у вас уже есть нужный драйвер, загрузите его на хост ESXi.
Для этого в клиенте VMware выберите слева Storage, в правой панели нужный datastore и кликните по нему правой кнопкой:
В выпадающем списке нажмите Browse. Здесь вы можете создать папку для загрузки драйверов или загрузить их прямо в корень. Для создания папки нажмите Create directory, для загрузки файлов нажмите Upload. Выберите файл на локальном компьютере и загрузите на хост.
Для установки драйвера вводим команду:
esxcli software vib install - d / vmfs / volumes / datastore1 / net51 - r8169 - 6.011.00 - 2vft.510.0.0.799733 - offline_bundle .zip
В случае успешной установки вы увидите примерно следующее:
Теперь осталось только перезагрузить хост. Сделайте это из клиента или введя команду reboot
После перезагрузки сетевой адаптер появился в списке доступных.
В «свежих» версиях ESXi есть возможность установить драйвер в графическом режиме. Для этого поместите файл драйвера на датастор хоста и подключитесь клиентом к хосту. В разделе «Manage» на вкладке «Packages» нажмите «Install Update»:
Facebook Если у вас не работает этот способ авторизации, сконвертируйте свой аккаунт по ссылке ВКонтакте Google RAMBLER&Co ID
Авторизуясь в LiveJournal с помощью стороннего сервиса вы принимаете условия Пользовательского соглашения LiveJournal
Интерфейсы VMkernel.
Думаю, нужно еще рассмотреть настройки интерфейса VMkernel, используемого для служебных нужд.
Интерфейсов VMkernel может(и должно) быть несколько, чтобы разделить трафик управления от, например, трафика iscsi. Желательно, чтобы это были физически разделенные сети, ну или, хотя бы, на уровне VLANs.
Давайте настроим несколько таких интерфейсов.
Выбираем в секции Networking вкладку VMkernel adapters, выделяем пока единственный vmk0 и жмем карандаш для редактирования
В открывшемся окне на первой вкладке выбираем тип трафика, который разрешен на этом интерфейсе(давайте разрешим здесь еще VMotion — трафик миграции ВМ).
На других вкладках этого мастера можно изменить такие настройки как MTU, настройки IPv4 и IPv6.
После нажатия ОК настройки будут сохранены.
Теперь давайте создадим еще один VMkernel для трафика, например Fault Tolerance. Настройка сети для трафика хранилищ iscsi описана в статье Как подключить iscsi-lun к хосту esxi.
Итак, жмем на глобус с плюсом, чтобы добавить новый адаптер VMkernel
Выбираем тип VMkernel Network Adapter
Выбираем, использовать имеющийся или создать новый виртуальный коммутатор(мы выберем наш единственный). Жмем Next.
На следующем экране задаем имя нашего адаптера, выбираем какой версии протокол IP будет использоваться и какой трафик
Указываем сетевые настройки(статика или DHCP)
На завершающем экране мастера проверяем настройки и жмем Finish.
Видим, что теперь у нас появился второй VMkernel адаптер, который будет использован для передачи трафика Fault Tolerance logging.
VMware. Как убедиться в совместимости сетевой карты с ESXi
Не секрет, что, начиная с версии 5.0, VMware повысила список требований к сетевым картам для гипервизора.
При установке гипервизора на "не настоящий аппаратный сервер" хочется быть уверенным, что ESXi "увидит" имеющуюся сетевую карту. Поэтому нужно проверить ее совместимость с ПО.
Путем несложных поисков в Интернет появился кандидат: сетевой адаптер для настольных ПК Intel Gigabit CT Desktop Adapter (EXPI9301CTBLK) PCIEx, построенный на базе гигабитного сетевого контроллера Intel® 82574L с низким энергопотреблением.
Проверим, будет ли он совместим с VMware ESXi 6.0?
Выбираем What are you looking for: IO Devices
В списке Product Release Version: выбираем ESXi 6.0
В Brand Name: выбираем Intel
В Keyword: впечатываем 82574L
Далее в I/O Device Type: выбираем Network
И нажимаем кнопку Update and View Results и получаем список совместимых адаптеров:
Для этого выбираем наш хост, жмем на вкладку Configure, и в разделе Networking выбираем Virtual Switches.
Поскольку у нас на хосте имеется два сетевых адаптера(как установить драйвер на неподдерживаемую сетевую карту мы рассматривали в статье), давайте добавим нашу сетевую карту в виртуальный свич и настроим так называемый тиминг(объединение сетевых интерфейсов).
Виртуальных коммутаторов на хосте может быть несколько. Если вы хотите, чтобы ваши виртуальные машины находились в изолированной сети, можно создать виртуальный коммутатор, не используя сетевые адаптеры.
Ну а мы рассмотрим настройку обычного виртуального свича.
Сети виртуальных машин.
Сеть виртуальных машин создается аналогично, только в мастере нужно выбрать Virtual Machine Port Group
Выбрать или создать VSwitch
указать название сети и VLAN
и завершить создание
После этого в нашем виртуальном коммутаторе появится еще одна сеть виртуальных машин и в настройках виртуальных машин станет доступно подключение к этой сети.
Дополнительный виртуальный коммутатор можно создать при создании VMkernel или VM Network. Как я уже говорил, наличие физического сетевого адаптера требуется только, если ВМ должны иметь доступ к внешним ресурсам(находящимся не на данном хосте ESXi).
Ну вот вкратце и всё по настройке сети VMware. Если что-то осталось не рассмотренным или непонятным, пишите в комментариях, — будем дополнять.
VMware настройка сети. Настройка виртуального коммутатора.
Выбираем наш единственный виртуальный коммутатор и нажимаем на значок сетевой карты
В открывшемся окне видим, что у нас сейчас активен один сетевой адаптер vmnic0. Жмем на зеленый плюс, чтобы добавить второй
Видим нашу вторую сетевуху, выбираем ее и группу адаптеров, в которую нужно ее добавить(в нашем случае Active adapters).
Active adapters — сетевая карта будет использоваться
Standby adapters — сетевая карта будет задействована в случае выхода из строя основной
Unused adapters — сетевая карта не будет использоваться.
На следующем экране видим, что наши адаптеры находятся в группе активных(можно поменять группу адаптера с помощью синих стрелок, а также удалить адаптер или добавить еще).
Жмем ОК и видим, что теперь в нашем свиче два сетевых адаптера(у меня подключен только один, поэтому VMware «сигналит», что отказоустойчивость потеряна.
В виртуальных свичах VMware есть сеть для виртуальных машин VM Network(сюда подключаются виртуальные машины) и VMkernel, предназначенный для служебного трафика(Management, VMotion, iscsi и т.п.).
Давайте настроим наш управляющий интерфейс, который используется для управления хостом.
Выделяем окно с заголовком Management Network и нажимаем на карандаш для редактирования.
В настройках Management Network вы можете изменить название сети, VLAN(если используется), настройки безопасности, traffic shaping(в стандартном свиче ограничивается только исходящий трафик) и режим файловера и балансировки нагрузки.
Добавление физической сетевой карты на хосте ESXi без балансировки
На одном хосте ESXi на сегодня работает более 30 виртуальных машин, которые принадлежат разным подразделениям.
Физический компьютер-хост имеет встроенную сетевую карту с чипом Realtek и дискретную сетевую карту Intel PRO/1000PT Dual Port Server Adapter (EXPI9402PTBLK) PCIEx4 с двумя сетевыми портами. Версия VMware 5.0 не видела встроенную сетевую карту Realtek и потому в хост была установлена карта Intel PRO (согласно списка совместимости).
Но
1. после перехода к версии VMware 5.1 / 5.5 гипервизор ESXi научился видеть карты Realtek,
2. нагрузка на хост постепенно выросла с 10 виртуальных машин до 30,
3. виртуальные машины принадлежат разным подразделениям.
Напрашивается логичный вывод: распределить нагрузку между подразделениями. Причем, вопрос балансировки нагрузки между сетевыми картами (агрегация сетевых портов) принципиально не рассматривается.
Действие первое . Подключаем сетевой кабель ко второму порту Intel PRO/1000PT Dual Port Server Adapter.
Действие второе . Включаем сетевую карту в ESXi. Home - Inventory - Hardware - Configuration - Networking - Add Networking. (Add Networking Wizard). Выбираем Connection Types - Virtual Machine:
Выбираем параметры Virtual Machine - Connection Settings - Port Group Properties - Network Label: Например, VM Network 2:
Теперь хост содержит следующие стандартные новые коммутаторы:
Нажимаем Finish. У нас появляется два vSphere Standard Switch: vSwitch0 и vSwitch1:
В Standard Switch: vSwitch1 выбираем Properties. для проверки настроек:
Переходим на вкладку Network Adapters, выбираем новый vmnic2 и нажимаем кнопку Edit. :
В статусе сетевого адаптера vmnic2 конфигурируем скорость передачи данных и вместо Auto negotiate обязательно выставляем 1000 Mb, Full Duplex. Будем считать это Best practice (в сети Интернет достаточно много описаний этой тонкости):
Переходим по ссылке Hardware - Network Adapters и проверяем настройку наших сетевых портов на контроллере:
И, наконец, действие третье , заключительное. Открываем свойства любой виртуальной машины. В свойствах сетевого адаптера в Network Connection у нас появился выбор меток сети (Network Label). Выбираем новую VM Network 2:
Теперь последовательно разносим виртуальные машины на разные виртуальные коммутаторы vSwitch0 и vSwitch1. В итоге мы должны получить такой вид:
Кроме этого, не забываем, что на вкладке Getting Started мы можем создавать новые пулы ресурсов (Create a resource pool), редактировать параметры этих пулов (Edit resource pool settings) и т.д.:
Facebook Если у вас не работает этот способ авторизации, сконвертируйте свой аккаунт по ссылке ВКонтакте Google RAMBLER&Co ID
Авторизуясь в LiveJournal с помощью стороннего сервиса вы принимаете условия Пользовательского соглашения LiveJournal
NIC teaming in ESXi. Агрегирование каналов
NIC teaming in ESXi. Агрегирование каналов. Теория
Обзор объединения сетевых карт - technet
NIC Teaming - является процессом объединения нескольких сетевых карт вместе для повышения производительности и избыточности.
Microsoft называет это NIC Teaming , однако другие производители могут называть это соединение, балансирование или агрегации. Процесс тот же, независимо от того, какое решение будет использоваться или как называется.
Link Aggregation Control Protocol (LACP) — протокол, предназначенный для объединения нескольких физических каналов в один логический в сетях Ethernet. Агрегированные каналы LACP используются как для повышения пропускной способности, так и повышения отказоустойчивости. Использование LACP в некоторых случаях позволяет обнаружить повреждённый канал, который бы при использовании обычной статической агрегации обнаружен бы не был. Описывается стандартом IEEE 802.3ad.
В Linux поддержка LACP осуществляется с помощью модуля bonding, как и всякая другая агрегация на канальном уровне. Режим агрегации: 4.
SUMMARY STEPS from Cisco
Цель
Эта статья содержит информацию о настройке объединения сетевых адаптеров.
Объединение сетевых карт может распределить нагрузку трафика между физическими и виртуальными сетями среди некоторых или всех его членов, а также обеспечить пассивный переход на другой ресурс в случае отказа оборудования или сбоя в работе сети.
Чтобы использовать NIC Teaming, два или более сетевых адаптеров должны быть подключены к виртуальному коммутатору. Основными преимуществами NIC Teaming являются:
• Увеличение пропускной способности сети для виртуального коммутатора хоста группы.
• Пассивная отказоустойчивость в случае отказа одного из адаптеров в группе.
Facebook Если у вас не работает этот способ авторизации, сконвертируйте свой аккаунт по ссылке ВКонтакте Google RAMBLER&Co ID
Авторизуясь в LiveJournal с помощью стороннего сервиса вы принимаете условия Пользовательского соглашения LiveJournal
Читайте также: