Vmware не видит процессор
Столкнулся с такой проблемой. Установил VM Ware, после инсталяции Windows 7 x64 выдает ошибку
"This host does not support Intel VT-x."
облазил весь биос чтобы включить аппаратную виртуализацию, но там ее не наше. Потом проверил свой процессор и оказалось что он не поддерживает виртуализацию. Что делать?
GA-73PVM-S2, поддерживает ли виртуализацию?
Поддерживает ли GA-73PVM-S2 виртуализацию ?
ASROCK G31M-VS не поддерживает процессор. Можно ли что-то придумать?
Всем привет. История такая сгорела мама, вытащил камень вставил в другую новую маму(ASROCK.
Видеокарта не поддерживает OpenCL что делать?
поставил на ПК программу ,а она не запускается, требует обновить драйвер для видеокарты.
PHP mail() не поддерживает хостинг что делать?
Здравствуйте! К сожалению на нашем хостинге PHP mail не поддерживает. Только по SMTP можно.
Зашел второй раз в тему и вспомнил, что что-то делал с вмваре. толи юникс запускал чтобы перепаковать прошивку под роутер, толи что. В общем, пришлось ставить не последнюю версию, а какую-то, не помню какую, постарей. Связано ли это с VT не знаю. Просто высказывают факт что не всегда последняя версия лучше.
Что делать, если браузер не поддерживает новые штучки
Что делать, если браузер не поддерживает какие-то нововведения. Вот, например, Internet Explorer не.
Что делать если роутер не поддерживает телевидение Билайн?
Купил роутер TP-Link WR1043ND, но на сайте техподдержки увидел, что данный роутер не поддерживает.
DBGrid не поддерживает перекрёстный запрос Access, что делать?
для табеля учётного времени сформировал перекрёстный запрос, самый простой подключаю в делфи его.
Что делать, если редактор Brackets не поддерживает PHP?
Здравствуйте! Подскажите, пожалуйста: что делать, если язык PHP не поддерживает редактор Brackets.
CStdioFile не поддерживает чтение файлов в формате Unicode. Что делать?
К сожалению CStdioFile не поддерживает чтение текстовых файлов в формате Unicode. Может быть.
При компиляция ядра выдаёт, что процессор не поддерживает команды x86-64
Ядро 3.10.7. Процессор Intel Celereon B800. Пробую компилировать x64, но пишет, что процессор не.
10.02.2020
itpro
Hyper-V, KVM, VMWare, Windows 10, Виртуализация
комментария 2
При создании виртуальных машин на различных гипервизорах (VMWare, KVM, Hyper-V и т.д.) вы можете обратить внимание, что иногда виртуальная машина может не видеть все выделенные ей виртуальные ядра (vCPU). В нашем случае виртуальной машине на KVM были выделены 8 vCPU, на нее установлена Windows 10. Однако Windows определяла эти ядра как отдельные процессоры, из которых можно использовать только 2 vCPU.
Количество поддерживаемых процессоров в Windows 10
Проблема заключается в том, что в десктопных редакциях Windows (Windows 10/8.1/7) есть ограничение на максимальное количество физических процессоров (сокетов), которое компьютер может использовать:
- Windows 10 Home – 1 CPU
- Windows 10 Professional – 2 CPU
- Windows 10 Workstation – до 4 CPU
- Windows Server 2016 – до 64 CPU
Однако это ограничение не распространяется на ядра. Т.е. для повышения производительности вы можете использовать процессор с большим количеством ядер. Большинство гипервизоров умеют предоставлять vCPU в виде процессоров, процессорных ядер или даже потоков. Т.е. вместо 8 виртуальных CPU вы можете предоставить vCPU в виде 2 сокетов по 4 ядра в каждом. Рассмотрим, как в различных системах виртуализации выделить виртуальные процессоры в виде ядер и как это связать с архитектурой NUMA, использующейся в современных процессорах.
Особенности VMware Storage vMotion
Как мы уже сказали, технология Storage VMotion позволяет переместить файлы запущенной виртуальной машины (виртуальные диски и файлы конфигурации) на другое VMFS/NFS хранилище (LUN, дисковый массива) без остановки ВМ.
Требования для успешного выполнения Storage VMotion:
- Диски VM должны иметь тип persistent или RDM;
- Не поддерживается миграция ВМ, во время установки VMware Tools;
- При миграции нужно учитывать версию VMFS на хранилище. Например, нельзя перенести диск размером более 2 Тб с VMFS5 на VMFS3;
- Наличие лицензии на хосте ESXi;
- Хост, на котором запущена ВМ должен иметь доступ к исходному и целевому хранилищу;
- При копировании для диска виртуальной машины используется технология Changed Block Tracking, которая позволяет отслеживать измененные блоки данных и до-копировать их.
Виртуальная машина Windows 10 не видит все ядра
Если открыть диспетчер устройств Windows, можно убедится, что все выделенные ядра видны в качестве 8 отдельных виртуальных процессоров типа QEMU Virtual CPU version 2,5.
При этом в свойствах Windows 10 (Computer -> Properties) и в Task Manage видно, что на компьютере доступны только 2 процессора QEMU Virtual CPU.
То есть сколько бы вы не добавили виртуальных ядер, Windows 10 все равно сможет использовать только два. При этом соседний виртуальный сервер с Window Server 2016 на этом же гипервизоре видит все 16 выделенных ему vCPU.
Архитектура NUMA и виртуальные vCPU
Есть еще несколько аспектов назначения vCPU и ядер виртуальным машинам, которые нужно понимать.
При назначении ядер на сокете учитывайте наличие NUMA архитектуры (используется в большинстве современных CPU). Не рекомендуется назначать вашей ВМ количество ядер на сокет (и общее количество vCPU) больше, чем доступно ядер на вашем физическом сокете/процессоре (ноде NUMA). При размещении на одной физической ноде NUMA, виртуальная машина сможет использовать быструю локальную RAM, доступную на конкретной ноде NUMA. Иначе для выполнения операции процессам придется ждать ответа от другой ноды NUMA (что несколько более долго).
Если вы назначаете для ВМ два отдельных виртуальных сокета, то гипервизор может их запускать на разных нодах NUMA. Что не лучшим образом скажется на производительности ВМ.
Если количество требуемых vCPU превышает количество ядер на 1 физическом сокете (ноде NUMA), нужно создать несколько виртуальных сокетов (процессоров) с необходимым количество ядер. Также не желательно использовать нечетное количество процессоров (лучше добавить 1 vCPU)
Это позволит сохранить производительность виртуальной машины.
Например, для 2 процессорного хоста с 10 ядрами (суммарно доступно 40 vCPU с учетом Hyper—Threading), при настройке vCPU для ВМ оптимально использовать такие конфигурации:
Требуемое количество vCPU | Количество виртуальных сокетов в настройках ВМ | Количество ядер на виртуальном процессоре в настройках ВМ |
1 | 1 | 1 |
…… | ||
10 | 1 | 10 |
11 | Не оптимально | |
12 | 2 | 6 |
…… | ||
20 | 2 | 10 |
Например, ВМ с Microsoft SQL Server 2016 Enterprise Edition 16 vCPU в конфигурации 8 сокетов по 2 ядра будет работать хуже, чем в конфигурации 2 сокета по 8 ядер.
Также не забывайте, что некоторые приложения лицензируются по физическим сокетам (так было в старых версиях SQL Server). Иногда вам просто выгоднее лицензировать один многоядерный процессор, чем несколько процессоров с меньшим количеством ядер.
Современные версии Windows Server лицензируются в среде виртуализации по-особому. Также есть свои особенности лицензирования процессоров в VMWare vSphere.
14.02.2020
itpro
VMWare, Виртуализация
комментариев 13
Технология vMotion позволяет перенести запущенную виртуальную машины VMWare с одного физического хоста ESXi на другой без прерывания ее работы и остановки сервисов. В этой статье мы рассмотрим особенности технологии VMWare vMotion: как работает vMotion, какие виды vMotion бывают, как настроить vMotion в VMWare vSphere и как вручную смигрировать виртуальную машину между хостами ESXi или хранилищами с помощью vMotion. Рассмотрим основные способы оптимизации vMotion и решения проблем.
Как мы уже сказали, vMotion позволяет выполнить “живую миграцию” виртуальных машин без простоя и прерывания работы пользователей. Технология vMotion позиционируется не как средство обеспечения высокой доступности ВМ при авариях. В первую очередь это простое и удобное средство переноса продуктивных ВМ, когда вам нужно выполнить обслуживание/обновление/замену физических серверов с установленным гипервизором ESXi или дисковых массивов. Также vMotion является основой технологии распределения (выравнивания) нагрузки на физические сервера — DRS (Dynamic Resource Scheduler)).
Аналогичная технология Microsoft для миграции ВМ между хостами Hyper-V называется Hyper-V Live Migration
Как работает VMWare vMotion?
- Сервер управления VMWare vCenter;
- Наличие общего хранилища (подключенного через Fibre Channel, iSCSI или NAS), на котором хранятся файлы виртуальной машины. Благодаря общему хранилищу в SAN сети несколько физических ESXi серверов могут получать доступ к файлам одной ВМ;
- Наличие общей быстрой сети ( не менее 1 Гб Ethernet) между исходным и целевым хостом ESXi. При миграции у ВМ сохраняется ее оригинальный MAC адрес, а vMotion оповещает маршрутизатор о том, что местоположение данного MAC адреса изменилось. В результате активные сетевые соединения не теряются;
- Совместимость процессоров на хостах, или включённая опция Enhanced vMotion Compatibility (EVC)
Как происходит vMotion? Сначала на целевом хосте создается теневой клон исходной ВМ с такой-же конфигурацией из vmx файла. Эта ВМ-клон видит все файлы ВМ на общем хранилище. Содержимое оперативной памяти и состояние запущенной ВМ передается по сети между исходным и целевым хостом ESXi. vMotion делает снапшот состояния памяти ВМ, копирует его на целевой сервер по сети. vMotion при этом отслеживает изменения в страницах памяти, а затем до-копирует модифицированные сегменты памяти (это может происходить в несколько этапов, каждый раз копируется все меньший объем данных и за меньшее время).
В какой-то момент состояние исходной ВМ замораживается, выполняется копированию изменённых сегментов памяти и команд процессора, и ВМ запускается на целевом ESXi. Весь процесс для 1/10 Гб Ethernet сети для средних размеров ВМ занимает несколько секунд.
Как ускорить/оптимизировать vMotion для быстрой миграции ВМ?
Вы можете ускорить миграцию ваших виртуальных машин несколькими способами.
- В первую очередь желательно использовать максимально производительную сеть между ESXi хостами. Нужно использовать как минимум 10 Gb, а лучше 25Gb сеть (сетевой адаптер вашего ESXi сервера и физический коммутатор должны поддерживать этот режим).
- Использовать разные физические интерфейсы для трафика vMotion;
- При миграции vMotion используются потоки. Для одного интерфейса VMkernel, для которого включен vMotion, создается один поток. При этом этот поток может использовать только одно ядро процессора.
Чтобы предоставить для процессов vMotion более одного ядра CPU, нужно создать несколько VMkernel интерфейсов с включенной опцией vMotion и привязать их к одному NIC интерфейсу. Один поток vMotion имеет среднюю пропускную способность около 15 GbE, соответственно, чтобы загрузить сеть 100 GbE вам нужно 6 потоков.
Также можно увеличить количество потоков vMotion (streams) для одного vmkernel интерфейса с помощью опции Migrate.VMotionStreamHelpers в Advanced System Settings.
Disclamer: все дальнейшие рассуждения и действия не соответствуют политике технической поддержки VMware. Любое использование оборудования вне VMware HCL может быть использовано только на свой страх и риск. В статье рассматривается только то оборудование, на котором возможен технический запуск ESXi 6.7U3.
В связи с выходом платформы VMware vSphere 7.0 виртуальные системные администраторы стали анализировать возможность обновления либо внедрения данного продукта.
Если проблемы с vCenter 7.0 вполне решаемы и описаны в нашей статье Обновление VMware vCenter с версии 6.7 до 7.0, то с ESXi 7.0 всё не так просто.
Для «упрощения» работы администраторов VMware расширила функциональность Update Manager (VUM) полуавтоматическим анализом оборудования: сверкой моделей серверов с HCL, проверкой версий прошивок и драйверов компонентов. Данная функциональность уже была частично представлена в VSAN [Skyline] Health Hardware compatibility для дисковой подсистемы. Новая версия VUM стала называться vSphere Lifecycle Manager (vLCM). Для загрузки HCL следует в административном интерфейсе нажать ACTIONS->Sync HCL.
Мои ожидания от vLCM были примерно такие — запускаю на хосте Updates -> Hardware Compatibility и система пишет, что оборудование не в HCL, такие-то компоненты не имеют драйверов и не будут работать. В реальности, если сервер не в HCL, то на этом проверка останавливается:
Host model is not compatible with ESXi 7.0
Skipped checking host devices.
Что как бы нас совершенно не устраивает, так как наша цель — запуститься вне HCL, и хотелось бы понимать какие компоненты не имеют драйверов и поддержки.
Поэтому с компонентами придётся разбираться самостоятельно.
Во-первых, следует проверить процессор, так как без него дальнейшие шаги просто бесполезны. Мы писали ранее о процессорах, исключенных из поддержки в статьях: Прекращение поддержки процессоров в VMware vSphere 6.7 и Чего не будет в VMware vSphere 7.0? — то есть, если ваш процессор старее Intel Xeon E5-26xx v1, то можете выкинуть данный серверный хлам. Но! Для Westmere-EP (очень популярных Xeon _56xx) и Westmere-EX есть чит, который позволяет запускать ESXi 7.0 — Allow unsupported CPUs when upgrading to ESXi 7.0.
Во-вторых, критическими компонентами являются сетевые карты, FC-HBA и RAID/HBA-контроллеры. Без обнаружения сетевой карты установщик ESXi прекращает свою работу. Проблема в том, что для старых компонентов драйверов для ESXi 7.0 нет — количество драйверных пакетов уменьшено с 144 до 75.
Почему же в ESXi 7.0 произошла жёсткая отсечка старого оборудования? Для понимания оглянемся назад на 6-7 лет — в 2013-2014 годы. В платформе vSphere 5.5 компания VMware объявила о новой модели Native Device Driver вместо портированных с Linux драйверов, работающих через посредника API vmklinux. Почитать о NDD можно в статьях William’a Lam’a: ESXi 5.5 introduces a new Native Device Driver Architecture Part 1(по-русски), Part 2.
Если раньше для решения проблем приходилось отключать новые драйверы, например, Отключение VMware ESXi Native Driver, то в семёрке убрали vmklinux.
Для тестов мы запустили скрипт на стенде со старыми серверами IBM (процессоры Xeon x56xx, E5-26xx v1):
Компания VMware решила прекратить поддержку целого ряда процессоров со следующей версии платформы виртуализации VMware vSphere 6.7, релиз которой ожидается во втором квартале 2018 года.
Список семейств процессоров, использование которых приведёт к PSOD:
- Xeon 31xx, 33xx, 34xx Lynnfield и Clarkdale, 35xx, 36xx
- Xeon 52xx, 54xx, 55xx, 56xx
- Xeon 65xx
- Xeon 75xx и 74xx
- i3/i5 Clarkdale
- i7-620LE
- Различные модели i3/i5/i7 Nehalem/Bloomfield/Clarksfield, Lynnfield, Clarkdale/Arrandale, Westmere/Gulftown
- AMD Barcelona, Shanghai, Champlain, Rana, Istanbul, Magny-Cours, Lisbon
- Opteron 13xx, 23xx, 24xx, 41xx, 61xx, 83xx, 84xx
- Athlon-II-X2 Champlain, Athlon-II-X3/X4 Rana
Как видим, цикл поддержки процессоров уменьшается с ~10 лет до ~7 лет. В России на текущий момент остаются популярными серверы на базе Xeon 54xx, 55xx, 56xx, соответственно, основной удар направлен на них. Если вы планировали в 2018 переходить на платформу vSphere 6.5+, то обратите внимание на используемые процессоры в ваших серверах.
Управление виртуальными ядрами и vCPU в KVM
В моей виртуальной машине KVM c Windows 10, все назначенные виртуальные ядра считаются отдельными процессорами.
Выключите виртуальную машину:
Выведите текущую XML конфигурацию виртуальной машины KVM:
Нам интересен блок с описанием процессоров:
Как видим, у нас указано просто 8 vCPU. Изменим конфигурацию:
И после добавим:
- host-passthrough — режим эмуляции при котором на виртуальной машине будет показан физический процессор узла кластера (ноды).
- sockets='1' — указываем что процессор 1
- cores='4' — указываем, что процессор имеет 4 ядра
- threads='2' — указываем, что ядра у нас по 2 потока
Также в свойства системы теперь стал отображаться физический процессор хоста Intel(R) Xeon(R) Silver 4114 CPU, а не виртуальный.
Так нам удалось решить проблему с нагрузкой на ВМ, так как двух ядер не хватало для полноценной работы приложений.
Почему не работает vMotion?
Перечислим основные причины, из-за которых vMotion может завершаться с ошибкой или миграция ВМ выполняться очень медленно:
- Несовместимость CPU (включите режим EVC — Enhanced vMotion Compatibility);
- Не включен vMotion на интерфейсе VMkernel;
- Некорректные сетевые настройки хоста ESXi или виртуальных коммутаторов, групп портов (неправильно настроенн Jumbo Frames, конфликт IP адресов в сети vMotion, некорректные настройки vSwitch, плохая сеть, потеря пакетов);
- Отсутствие общего хранилища (для vSphere до версии 5.)1. В vSphere 5.1 и выше доступен режим Shared-Nothing VMotion;
- Недоступен CD/DVD или ISO образ;
- Наличие включенных правил Anti-Affinity
- В гостевой ВМ идет установка vMware tools;
- Если гостевая ОС активно меняет содержимое своей RAM, процесс vMotion может не успевать передавать измененные данные по сети на копию ВМ на другом хосте;
- Если на целевом хосте недостаточно CPU или памяти для создания “теневой” ВМ, vMotion завершится с ошибкой.
При ошибках миграции ваша ВМ не выключается, не прекращает работу и по прежнему запущена на исходном хосте.
Прекращение поддержки процессоров в VMware vSphere 6.7: 11 комментариев
Source is under NDA.
The following CPU models may not be supported in future releases. You will see a warning during installation or upgrade of ESXi 6.7 Beta:
Xeon E3-1nnn series
Xeon E7-2800/4800/8800 series
Various i3/i5/i7 SandyBridge series
Не ясно почему Intel Xeon 56xx выпали, так как требования к процессорам связаны с потребностью в инструкциях AES-NI для поддержки Encrypted VMotion, а это расширение инструкций в данной серии есть.
Ситуация слегка прояснилась:
«Basically the technical dividing line is Westmere-EP. That’s the first processor with virtualization extensions that are sufficient to run VMs with usable performance without the binary translator, which has been removed in 6.7. Nehalem doesn’t quite make it because support for real-mode virtualization is lacking. Also Clarkdale/Arrandale (which are lower-end processors in the Westmere family) don’t make it.
So the Westmere processors being asked about in this thread should still work with 6.7; they just aren’t officially supported. You will still be able to install on them, but you should get a warning.»
Настройка виртуальных процессоров и количества ядер в VMWare
Вы можете изменить способ презентации vCPU для виртуальной машины VMWare из интерфейса vSphere Client.
- Выключите ВМ и откройте ее настройки;
- Разверните секцию CPU;
- Изменим конфигурацию ВМ так, чтобы гостевая ОС видела 2 процессора по 4 ядра. Измените значение Cores per Socket на 4. Это означает, что гостевая ОС будет видеть два четырех –ядерных процессора (2 сокета по 4 ядра);
- Сохраните изменения и запустите ВМ.
vMotion: как мигрировать ВМ между серверами
Чтобы с помощью vMotion перенести запущенную ВМ между двумя ESXi хостами, запустите vSphere Client, щелкните по ВМ и выберите Migrate.
Выберите тип миграции, который вы хотите использовать:
- Change compute resource only — миграция ВМ на другой сервер ESXi;
- Change storage only — подразумевается Storage vMotion – смена Datastore, на котором хранятся файлы ВМ;
- Change both compute resource and storage — режим миграции без общего хранилища (vMotion without shared storage/Shared-Nothing), при этом файлы ВМ копируются между хостами черед сеть).
Я выбрал первый вариант.
Мастер миграции предложит выбрать хост, кластер, resourse pool или vApp, в который нужно перенести данную виртуальную машину. Выберите хост. Если vMotion настроен правильно, и не обнаружено конфликтов, в секции Compatibility будет указано: Compatibility checks succeeded.
Мастер миграции ВМ предложит выбрать в какую сети нужно поместить vNIC сетевой ВМ при миграции. Если вы хотите, чтобы ВМ была доступна после миграции, она должна быть помещена в тот же самый сегмент (VLAN), как и на исходном хосте. Если у вас используется стандартный vSphere Switch, нужно создать одинаковые группы портов (Port Group) на всех ESXi хостах. При использовании VDS, группы портов на всех хостах кластера одинаковые.
На последнем этапе нужно выбрать приоритет задачи миграции vMotion. По-умолчанию используется наивысший приоритете (Schedule vMotion with high priority). Я всегда использую именно его.
Осталось нажать Next -> Finish и запустится процедура миграции ВМ на другой хост. За статусом миграции можно следить в панели Recent Tasks (задание Relocate virtual machine). В моем случае процесс миграции ВМ с помощью vMotion по 10 Гб Ethernet занял около 3 секунд.
Убедитесь, что ваша ВМ теперь запущена на другом хосте ESXi.
Можно переместить запущенную ВМ на другой хост с помощью PowerShell командлета Move-VM из PowerCLI. Например, мы хотим перенести все ВМ с хоста esxi-1 на esxi-2:
Get-VMHost esxi-1|Get-Vm| Move-VM –Destination (Get-VMHost esxi-2)
Enhanced vMotion Compatibility (EVC) в VMWare
Режим Enhanced vMotion Compatibility (EVC) для кластеров VMware HA/DRS используется, если кластер построен на хостах с процессорами разных поколений (но не разных производителей!!). При включении EVC для кластера, гипервизор начинает маскировать инструкции CPU, которые поддерживаются не на всех хостах. При включении EVC все функции процессоров хостов ESXi в кластере начинают соответствовать некому базовому минимальному набору инструкций CPU, который задал администратора vSphere в настройках.
Таким образом благодаря EVC вы можете мигрировать ВМ между хостами с разными наборами инструкций процессора.
Нельзя смешивать в одном кластере vSphere хосты с разными вендорами процессоров, например, Intel и AMD. EVC позволяет добиться совместимости между процессорами только одного вендора.
Вы можете включить VMWare EVC на уровне кластера. Перейдите в раздел Configure -> Configuration -> VMWare EVC и нажмите кнопку Edit.
При включении EVC для кластера вам нужно выбрать режим EVC (для AMD или Intel) и выбрать в выпадающем списке минимальное поколение процессоров вендора, которые имеются в вашем кластере.
VMWare рекомендует всегда включать EVC, независимо от того какие хосты у вас в кластере. Так вам будет проще при расширении кластера. Есть даже отдельный документ, где доказывается, что даже если ваши ВМ не будут использовать весть набор инструкций, на производительность это не скажется.
В VMware vSphere 6.7 появились технологии миграции между облаком и on-prem (Cross-Cloud Cold и Hot Migration). Для реализации ВМ в облако теперь можно включать в настройках ВМ Per-VM EVC (доступно в vSphere 6.7 с Hardware Version 14).
Можно получить базовые уровни EVC выставлены для ВМ в кластере из PowerCLI:
Чтобы получить максимально поддерживаемый режим EVC на:
Get-VMHost | Select-Object Name,ProcessorType,MaxEVCMode
Виды VMware vMotion
VMWare под названием vMotion понимает целый стек различных технологий, позволяющих переместить на лету запущенные ВМ между серверами, дисковыми массивами, городами или между наземной и облачной инфраструктурой.
- Классический vMotion – миграция запущенной ВМ между серверами ESXi;
- Storage vMotion – онлайн перенос файлов виртуальной машины между хранилищами (дисковыми массивами);
- Shared-Nothing vMotion – миграция ВМ между серверами ESXi по сети без использования общего хранилища (требуется L2 сеть);
- Long Distance vMotion – перенос ВМ между удаленными сайтами (максимальная задержка Round Trip Time до 150 мс, в том числе в L3-сетях). Появился в версии vSphere 6.0;
- Encrypted vSphere vMotion – возможность шифрования ВМ при передачи по сети (доступно в vSphere 6.5);
- Cross-Cloud Cold и Hot Migration – онлайн и офлайн миграция между наземной и облачной инфраструктурой;
Как включить vMotion в VMWare vSphere?
Рассмотрим, как включить vMotion на примере VMWare vSphere 6.7. Для использования vMotion достаточно лицензии Essentials Plus .
vMotion включается на уровне VMkernel виртуального коммутатора хоста ESXi. Выберите хост, перейдите на вкладку Configure -> Networking -> VMkernel adapters.
Выберите ваш VMkernel интерфейс и откройте его свойства (Edit).
В свойствах vmk порта в секции Enabled Service включите опцию vMotion.
Читайте также: