Vmware не поддерживает процессор
Хочу собрать ПК для установки на нем виртуальных машин с помощью VMWARE Workstation. Нужно мнение экспертов какой процессор сможет потянуть большее кол-во виртуалок. Или возможно лучше будет использовать серверную материнку под 2 проца? Если есть примеры буду рад увидеть
ЗЫ на виртуалках будет стоять хр, выделять на них буду по 1 ядру и 1/2 гб ОЗУ.
Спасибо за помощь
VMware Workstation Pro и vmware player workstation
Доброго времени суток. В чем отличие этих программ?
Нужно собрать мощный ПК для работы со множеством виртуальных машин (VMware Workstation)
Здравствуйте! На своем домашнем ПК запускаю прогу VMware Workstation (версия 10.0.4), в.
VMware workstation 9
у меня проблема с VMware workstation 9, по идее все настроено что касается сетей ,и он отлично.
VMware Workstation 8
VMware Workstation 8 как подключить внешний жёсткий диск?
sensay1989, начиная с atoma есть возможность виртуалится. большое количество это сколько одновременно работающих?
IMHO, при определенном количестве виртуалок все будет упираться не в процессор, а в диск.
Без хорошего SSD запускать штук 5-6 виртуалок, даже на очень хорошем проце и с тучей
оперативки - дохлый номер. Windows славится своей любовью к "пошуршать жестким диском", а
когда этот номер выполняют сразу несколько виртуалок, все становится очень грустно.
3 виртуалки с хрюшей на коре ай7 по два гига оперативки и два ядра все это ютится на ссд.
начинают притормаживать. (конфиг в профиле)
Я бы начал с того, что определил бы задачи на виртуалках. Что за они будут? Может вы там развернете Zabbix или DHCP c DNS, но другое дело, что вы будите разворачивать виртуалки для клиентов, сервера, и прочее. + бюджет тоже важен. Есть ли что-нибудь уже, или нужно с нуля?В ATX системник хотите? Дайте ответы на эти вопросы.
1c-k, Чем больше, тем лучше. Штук 20 было бы неплохо.
Убежденный, magirus, Может вы и правы, но в данный момент на 1м компе (core2quad/HDD/8 ОЗУ) работают 8 виртуалок 512 ОЗУ/1ядро/ОС-хр, тормозят, если сутки протянут уже радость и на 2м на проце АМД 6300(6 вычислительных ядер)/HDD/16 ОЗУ работают 10 виртуалок с 1гб ОЗУ/1 ядро/ОС-хр. Качества их работы мне достаточно, перезагружаю раз в сутки. В процессе апгрейдов и сборки компов, я заметил что упирается то в проц, то в оперативу. Ну это то что я увидел на своем небольшом опыте. Может есть еще способы оптимизации виртуалок, и таким образом можно будет большее кол-во запустить чем я имею сейчас, но я о таких незнаю пока что
CHESTER-ART, Задачи такие- Браузер, кликерман и все Нету ничего, все с нуля. АТХ. Бюджет-на все про все не более 1к $
sensay1989, в этом случае конечно проблема, можно поискать с рук например сервер даже на e56xx серии ксеонов, 5U.
Суть в работе виртуализации и распределении памяти на таком железе, она другая.
В этом случае все упрется в количество ресурсов, но может быть до 24 потоков и памяти много, т.е. получается что гарантировать 1 ядро можно будет 1 виртуалке.
Прекращение поддержки процессоров в VMware vSphere 6.7: 11 комментариев
Source is under NDA.
The following CPU models may not be supported in future releases. You will see a warning during installation or upgrade of ESXi 6.7 Beta:
Xeon E3-1nnn series
Xeon E7-2800/4800/8800 series
Various i3/i5/i7 SandyBridge series
Не ясно почему Intel Xeon 56xx выпали, так как требования к процессорам связаны с потребностью в инструкциях AES-NI для поддержки Encrypted VMotion, а это расширение инструкций в данной серии есть.
Ситуация слегка прояснилась:
«Basically the technical dividing line is Westmere-EP. That’s the first processor with virtualization extensions that are sufficient to run VMs with usable performance without the binary translator, which has been removed in 6.7. Nehalem doesn’t quite make it because support for real-mode virtualization is lacking. Also Clarkdale/Arrandale (which are lower-end processors in the Westmere family) don’t make it.
So the Westmere processors being asked about in this thread should still work with 6.7; they just aren’t officially supported. You will still be able to install on them, but you should get a warning.»
Как всем известно, ESXi официально поддерживает установку на строго определенный набор серверов. Ядро гипервизора не поддерживает подавляющее число железок, которые ставят в обычные компы ( whitebox ), и не поддерживает 100 мегабитные сетевые карты,что создает серьезную головную боль людям, которым «очень хочется».
Все началось, как это всегда все начинается, Я записал образ на флешку, записал в раздел 5 на флешке файл oem . tgz с драйверами и прописанными pciid , воткнул флешку в комп и со словами «поехали» нажал на кнопку « power ». Система радостно посчитала свои 4 гигабайта, перешла к загрузке с флешки и радостно констатировала «cannot get disk partameters».
На этом приятная и знакомая часть закончилась, и началось погружение в кишки гипервизора.
При беглом осмотре выяснилось, что загрузчиком выступает какой-то древний syslinux (выпуска аж от сентября 2005 года, впрочем виноваты в этом RedHat, так как именно эта версия идет в комплекте RHEL 5).
Собственно сам syslinux запускает модуль загрузчика гипервизора « safeboot . c 32», этот модуль выбирает раздел с которого грузить и передает ядру нужные параметры.
Логичное и простое решение — обновляем древний syslinux , однако это не срабатывает! Проблема оказалась глубже — после обновления syslinux ту же самую ошибку стал выдавать модуль « safeboot . c 32». После изучения доступных частей исходников (ну вы же не думали что там все выложено?) оказалось, что он собран на базе syslinux версии 3.63 выпуска апреля 2008 года.
Значит будем жертвовать возможностью отката обновления. Меняем активную партицию на 5 (раздел гипервизор1), и ставим туда загрузчик syslinux / dev / sdc 5
Пишем строку загрузки в syslinux . cfg
default mboot.c32 vmkboot.gz — vmk.gz — sys.vgz — cim.vgz — oem.tgz — license.tgz — mod.tgz
Ура, все грузится. Правда так же медленно, как и всегда. Судя по всему, контроллер не переводится в режим usb 2 ни средствами syslinux , ни программистами vmware , а жаль.
1002 4393 SB700/SB800 SATA Controller [RAID5 mode].
Добавляем такую строку:
1002:4393 0000:0000 storage ahci.o
1002 439c ATI Technologies Inc SB700/SB800 IDE Controller
Добавляем такую строку:
1002:439c 0000:0000 storage pata_atiixp.o
После перезагрузки с новой версией oem . tgz диски видны, но оказывается что настройки перестали сохранятся на флешку, придется входить внутрь.
… и нищета
Первое что бросается в глаза – это так называемый visorfs . Судя по тому, что я увидел, это самый тупой ramdisk . Ужасает то, что память выделяется статически, и что содержимое не сжимается. Сразу на ум приходит вопрос «а почему нельзя было использовать Squashfs+ unionfs ?» но опыт задавания «неудобных» вопросов в форуме vmware подсказывает, что вопрос останется без ответа (по крайней мере, со стороны «авторов»).
Таким образомв текущий момент нам придется смирится, с тем фактом, что 256М (или 30 долларов, в случае регистровой памяти) для _нас_ «просто потеряны» на КАЖДОМ хосте.
По результатам анализа скриптов инициализации оказалось, что у каждой партиции есть UUID , который хранится внутри раздела (16 байт по смещению 528), и показывается при монтировании раздела :
FilesystemSizeUsed Available Use% Mounted on
значит нужный нам раздел 386 a 41 e 4- ff 1587 ba -1385-2 feaeed 494 ad
К сожалению, указывать UUID надо в другом виде, в итоге мы получаем такую строку:
default mboot.c32 vmkboot.gz bootUUID=e4416a38ba8715ff85132feaeed494ad — vmk.gz — sys.vgz — cim.vgz — oem.tgz — license.tgz— mod.tgz
Флешка обладает возможностью грузится на тех материнках, где оригинальный ESXi не грузился, поддерживает сетевуху rtl 8169(и совместимые с ней) и пишет на экран логи при загрузке.
Послесловие
Было бы неплохо, если бы кто-то придумал:
- как можно запихать гипервизор в Squashfs
- способ контролировать, куда девается память в системе гипервизора (т.е. та которая НЕ тратится на виртуалки)
Решение
Вы ботовод значит, ну это немного упрощает задачу. Я не эксперт, но сервера с виртуалками имею.
Теперь что важно для множества виртуальных машин.
1. Многопоточность процессора, частота конечно хорошо, но и 2 ГГц будет достаточно, идеально выше 2.5 ГГц
2. RAM- чем больше, тем лучше, кол-во виртуалок зависит напрямую от кол-ва памяти, больше чем есть физически вы на обычном HDD не запустите, а если и стартанете, то будут жуткие тормоза HDD/
3. Дисковая подсистема должна быть быстрой и не однохардовой. Купите лучше несколько HDD по 500 Гб чем один на 2Tb.
4. файл подкачки винды должен лежать на диске, который наименее загружен.
Теперь о конфиге.
1. Для такой задачи как ничего лучше подойдет (учитывая бюджет) i5 с 4 ядрами и 8 потоками, чем больше потоков, тем больше виртуалок. Один поток = 1 VM (в идеале), но учитывая опыт могу сказать, что на один поток процессора легко умещается 2-е VM с 512 RAM на каждой. (i5 CPU я привел для примера)
2. Памяти должно быть как можно больше, на 10 VM под виндой - минимум 8Гб (win7 working with 512mb RAM)
и незабудьте, что вашей ОС тоже нужна память)
3. HDD - лучше больше штук, да меньше объема, делите виртуалки между винтами. равномерно раскидайте образы по HDD для распределения нагрузки на физические диски, с одновременной загрузкой всех 10 VM один HDD просто не справится, а 3-4 HDD легко.
4. при настройке VM не забудьте поставить галочки в контроллере HDD - разрешить кеширование записи. Это значительно ускоряет работу VM и снижает нагрузки на физический HDD.
5. В BIOS обязательно наличие включенной опции - включить поддержку виртуализации процессором.
Ну вот как-то так.
Добавлено через 5 минут
Кстати я где-то видел в продаже б\у сервак за 500 баксов с 16 ядрами и 32Гб RAM DDR2, но на SAS дисках, и дисков в комплекте не было. Вариант предложенный 1c-k тоже хороший вариант. Но в описанном мной случае с б/у сервом, потратится придется на SAS диски, или новый SATA контроллер с дисками к нему. Для ваших целей думаю подойдет то, что я описАл выше.
Disclamer: все дальнейшие рассуждения и действия не соответствуют политике технической поддержки VMware. Любое использование оборудования вне VMware HCL может быть использовано только на свой страх и риск. В статье рассматривается только то оборудование, на котором возможен технический запуск ESXi 6.7U3.
В связи с выходом платформы VMware vSphere 7.0 виртуальные системные администраторы стали анализировать возможность обновления либо внедрения данного продукта.
Если проблемы с vCenter 7.0 вполне решаемы и описаны в нашей статье Обновление VMware vCenter с версии 6.7 до 7.0, то с ESXi 7.0 всё не так просто.
Для «упрощения» работы администраторов VMware расширила функциональность Update Manager (VUM) полуавтоматическим анализом оборудования: сверкой моделей серверов с HCL, проверкой версий прошивок и драйверов компонентов. Данная функциональность уже была частично представлена в VSAN [Skyline] Health Hardware compatibility для дисковой подсистемы. Новая версия VUM стала называться vSphere Lifecycle Manager (vLCM). Для загрузки HCL следует в административном интерфейсе нажать ACTIONS->Sync HCL.
Мои ожидания от vLCM были примерно такие — запускаю на хосте Updates -> Hardware Compatibility и система пишет, что оборудование не в HCL, такие-то компоненты не имеют драйверов и не будут работать. В реальности, если сервер не в HCL, то на этом проверка останавливается:
Host model is not compatible with ESXi 7.0
Skipped checking host devices.
Что как бы нас совершенно не устраивает, так как наша цель — запуститься вне HCL, и хотелось бы понимать какие компоненты не имеют драйверов и поддержки.
Поэтому с компонентами придётся разбираться самостоятельно.
Во-первых, следует проверить процессор, так как без него дальнейшие шаги просто бесполезны. Мы писали ранее о процессорах, исключенных из поддержки в статьях: Прекращение поддержки процессоров в VMware vSphere 6.7 и Чего не будет в VMware vSphere 7.0? — то есть, если ваш процессор старее Intel Xeon E5-26xx v1, то можете выкинуть данный серверный хлам. Но! Для Westmere-EP (очень популярных Xeon _56xx) и Westmere-EX есть чит, который позволяет запускать ESXi 7.0 — Allow unsupported CPUs when upgrading to ESXi 7.0.
Во-вторых, критическими компонентами являются сетевые карты, FC-HBA и RAID/HBA-контроллеры. Без обнаружения сетевой карты установщик ESXi прекращает свою работу. Проблема в том, что для старых компонентов драйверов для ESXi 7.0 нет — количество драйверных пакетов уменьшено с 144 до 75.
Почему же в ESXi 7.0 произошла жёсткая отсечка старого оборудования? Для понимания оглянемся назад на 6-7 лет — в 2013-2014 годы. В платформе vSphere 5.5 компания VMware объявила о новой модели Native Device Driver вместо портированных с Linux драйверов, работающих через посредника API vmklinux. Почитать о NDD можно в статьях William’a Lam’a: ESXi 5.5 introduces a new Native Device Driver Architecture Part 1(по-русски), Part 2.
Если раньше для решения проблем приходилось отключать новые драйверы, например, Отключение VMware ESXi Native Driver, то в семёрке убрали vmklinux.
Для тестов мы запустили скрипт на стенде со старыми серверами IBM (процессоры Xeon x56xx, E5-26xx v1):
В данной статье пойдет речь об ошибке This host does not support virtualizing real mode которая вылетает при запуске виртуальной машине на VMware Workstation после которой дальнейшая работа с виртуалкой невозможна. В статья я расскажу почему она происходит и как эту ошибку обойти.
Если в процессе установки на компьютер или сервер программы VMware Workstation вылетела ошибка:
This host does not support virtualizing real mode. The Intel “VMX Unrestricted Guest” feature is necessary to run this virtual machine on an Intel processor.
Module ‘CPUIDEarly’ power on failed.
Failed to start the virtual machine.
Этот хост не поддерживает реальный режим виртуализации. Функция Intel «VMX Unrestricted Guest» необходима для запуска этой виртуальной машины на процессоре Intel.
Сбой при включении модуля CPUIDEarly.
Не удалось запустить виртуальную машину.
Эта дурацкая ошибка говорит о том, что данное ПО VMware Workstation в моем случаем 15 версия не поддерживает мой процессор Core i7-950
И для решения данной проблемы есть два варианта:
- Включение Legacy режима для CPU
- Перестановка VMware Workstation на версию ниже допустим 14 версию в которой есть поддержка моего процессора.
Запускаем ESX4i на офисных компах без VMware Workstation: 24 комментария
А как вам идея выковырять гипервизор и воткнуть его на полноценный дистрибутив?
Для тех кто скажет — пользуй Worksation, объясняю — хочу полноценный esx, но с GUI доступом 🙂
Я проводил эксперименты по созданию «наколенного CVP», т.е. прикручивал иксы от CentOS и rdp-клиента. Получил розовый экран и успокоился, пока. Но, идея сделать ESX на ноутбуке с управлением и доступом к консоли серверов меня, пока, не покинула.
phily, я думаю такая затея с ESXi /гипервизор/ будет по сложности сравнимой очень серьезным испытанием ваших навыков по следующим причинам:
1. У гипервизора очень «своеобразное» ядро. Все что не относится «к делу» отпилено, а поскольку полных исходников нет — «впилить» обратно без помощи авторов — мягко говоря сложно.
2. чтобы показывать картинку надо vmrc. Который тоже совсем не «сахар» в плане реализации. чем тут поможет rdp клиент — неясно.
Возможно со временем vmware откроют больше исходников и все станет реально, но в текущий момент «наудачу»
можно попробовать запустить статически слинкованный самый легкий хсервер типа KDrive, в любом случае это не решает п2
Многие поставят памятник человеку написавшему хоу то — добавить агента для управления рейд контроллером. Очень уже любят lsi чипы писать — а полный функционал, это пожалуста ставьте утилитку для управления контроллером вашей системы. опять же оповещения по емайл про сбойнутый диск или дегрейд по какой либо причине, было бы очень приятно получать… без агента на мой взгляд никак ( или кто то знает другой способ?
2Cirill Установка полного ESX и утилит под Red Hat.
ESX стоит денег. И если взломан и не поставлен на баланс — это уже неприятности.
ESXi бесплатен и модификация попадает под нарушение лицензии, но найти эту модификацию гораздо сложнее чем ESX
… безусловно пакеты для малого бизнеса стоят ОЧЕНЬ небольших денег. Более того, многие даже включили в бюджет на 2010 … но жить пока както надо )
да и интересно же в конце концов!
ESX активируется ключом от бесплатного ESXi…
Решил опробовать вашу сборку
Как понимаю в архив делался под Mac OS X.
Этими приложениями?
Norton DiskDoubler Pro
SuperDoubler
DDExpand
Подскажите как можно развернуть из под WinXP или LinuxMint
Заранее спасибо
Включение LegacyCPU
Для включение поддержки старых процессоров в VMware Workstation необходимо проделать след шаги:
есть только одно НО, при включении опции monitor.allowLegacyCPU = «true» ваши виртуальные машину будут заметно подтормаживать, поэтому если вас сильно будет смущать данные тормоза, у вас остается вариант сменить версию VMware Workstation
Компания VMware решила прекратить поддержку целого ряда процессоров со следующей версии платформы виртуализации VMware vSphere 6.7, релиз которой ожидается во втором квартале 2018 года.
Список семейств процессоров, использование которых приведёт к PSOD:
- Xeon 31xx, 33xx, 34xx Lynnfield и Clarkdale, 35xx, 36xx
- Xeon 52xx, 54xx, 55xx, 56xx
- Xeon 65xx
- Xeon 75xx и 74xx
- i3/i5 Clarkdale
- i7-620LE
- Различные модели i3/i5/i7 Nehalem/Bloomfield/Clarksfield, Lynnfield, Clarkdale/Arrandale, Westmere/Gulftown
- AMD Barcelona, Shanghai, Champlain, Rana, Istanbul, Magny-Cours, Lisbon
- Opteron 13xx, 23xx, 24xx, 41xx, 61xx, 83xx, 84xx
- Athlon-II-X2 Champlain, Athlon-II-X3/X4 Rana
Как видим, цикл поддержки процессоров уменьшается с ~10 лет до ~7 лет. В России на текущий момент остаются популярными серверы на базе Xeon 54xx, 55xx, 56xx, соответственно, основной удар направлен на них. Если вы планировали в 2018 переходить на платформу vSphere 6.5+, то обратите внимание на используемые процессоры в ваших серверах.
Читайте также: