28 февраля 2020 г.

Оперативная память в Linux: особенности управления и мониторинг

Те, кто читает мой блог на постоянной основе, знают, что я очень люблю операционные системы Unix за их изящность, простоту и надёжность. В начале моей карьеры судьба свела меня с коммерческой реализацией операционной системы Unix от компании Hewlett Packard - HP-UX. Очень долго и плотно я работал с данной операционной системой. Но время не стоит на месте и надо признать, что HP-UX на данный момент утратила свои позиции и всё больше и больше серверов (причём не только HP) передают под управление операционной системы Linux. 

Если вернуться к моей скромной персоне, то у меня тенденция идентичная - HP-UX уходит, а Linux в моей работе становится всё больше. Не смотря на то, что операционная система Linux основана на Unix концепции и, по большому счёту, удовлетворяет стандарту POSIX, она, как и любая другая реализация Unix, имеет свои особенности. Сегодня попробуем разобраться с управлением памятью в Linux.

Основную мысль, которую я усвоил, разбираясь в этом вопросе - Linux всегда использует всю оперативную память, которая есть у сервера. Поэтому не так просто ответить на вопрос: хватает ли серверу памяти и каким запасом по ней он обладает? Но обо всём по порядку.

На уровне командной строки существует три команды, которые помогут нам посмотреть информацию по оперативной памяти сервера:
  • top
  • free
  • cat /proc/meminfo

Команда top служит для вывода информации по текущей загрузке сервера, отображая работающие процессы, использование ими ресурсов процессора и памяти сервера. Нас в контексте использования оперативной памяти интересуют 2 строки в шапке вывода команды (рис. 1).

Рис. 1. Пример вывода команды top на сервере с Linux.

Из вывода мы видим, что всего операционная система видит 193 711 Мб физической памяти, из них только 833 Мб свободно. При этом настроено 131 068 Мб в области подкачки (swap) и почти вся она свободна. По информации от одной этой команды можно сделать преждевременные выводы:
- процессы сервера используют почти всю память, 
- но при этом (и это хорошая новость) область подкачки не используется,
- значит оперативной памяти хватает, но запаса нет. 

Выводы верны и не верны одновременно. Если увеличить общий объём физической памяти на сервере, то запустив систему, в команде top опять увидим похожую картину.

Если смотреть по отдельным процессам, то в этой команде для нас представляют интерес следующие столбцы:
  • VIRT (virtual size of a process) - общий объем используемой памяти: индивидуальная память процесса плюс память, разделяемая с другими процессами, плюс файлы на диске, которые отображаются в память, плюс библиотеки и так далее. Можно сказать, что это максимально доступный процессу объём памяти, 
  • RES (resident size) - указывает точно сколько в действительности потребляет процесс реальной физической памяти (совпадает со значением в колонке %MEM),
  • SHR (shared) - определяет размер разделяемой памяти.

В случае с процессами Oracle в моём примере (рис. 1) в поле VIRT отображается вся память, выделенная на буферы СУБД (SGA) (рис. 2).

Рис. 2. Размер SGA области текущего экземпляра Oracle.

Двигаемся дальше. Следующая команда free - служит для вывода информации об использовании оперативной памяти сервера, опять же, с областью подкачки (swap) (рис. 3).

Рис. 3. Пример вывода команды free на сервере с Linux.

По умолчанию, команда выводит информацию в килобайтах, для вывода в байтах или мегабайтах можно использовать соответствующие ключи -b и -m (рис. 4). 

Рис. 4. Пример вывода команды free в мегабайтах на сервере с Linux.

Теперь значения полностью совпадают с выводом команды top, но мы получили немного больше информации. Во-первых, появился ещё один столбец "cached", в котором отображается 179 187 Мб памяти. А во-вторых, поле "-/+ buffers/cache" указывает сколько реально памяти сейчас используют приложения (11 068 Мб) и сколько им ещё может быть выделено системой (182 642 Мб).

Обе вышеописанные команды используют информацию из файла meminfo, который хранится в псевдо (dummy) файловой системе /proc. Данная файловая система не существует на самом деле, а предоставляет интерфейс к структурам данных в ядре Linux. Найти её можно в выводе команды df -a (рис. 5).

Рис. 5. Файловая система proc.

Для просмотра информации из ядра Linux по использованию памяти можно прочитать содержимое файла напрямую, выполнив команду cat /proc/meminfo (рис. 6).

Рис. 6. Пример содержимого файла meminfo.

Вот теперь мы добрались до максимальной глубины картины по использованию оперативной памяти операционной системой Linux. Давайте разбираться. 

В приведённом примере на сервере всего доступно 192 Гб оперативной памяти (MemTotal), никак не используется приложениями и операционной системой - 741 Мб (MemFree). Для буферов операционной системы выделено 2 833 480 Кб памяти. Буферы используются для кэширования, например, таблиц файловых дескрипторов (i-node table) или записей директорий (dentry), то есть мета-данных файловых систем. А самым большим потребителем "не используемой" памяти является страничный кэш (Cached). Как я уже говорил выше, Linux не будет просто так держать большой объём оперативной памяти свободной. Каждый раз, когда выполняется операция чтения из файла (read ()), расположенного на диске, данные считываются в эту область памяти страничного кэша. Как только операция чтения завершается, ядро Linux не выбрасывает страницу памяти, а использует её при повторном чтении той же самой части файла. Этот механизм здорово сокращает количество обращений к диску. Но при этом эта память может быть быстро освобождена и передана ядру операционной системы или приложениям в случае такого запроса. Это как раз и указано в выводе команды free  в строке "-/+ buffers/cache" в поле free). 

Ещё один момент, который стоит учитывать при мониторинге. Linux никогда не съедает всю память до конца, то есть вы не увидите 0 Кб в поле MemFree. Операционная система всегда оставляет часть памяти для маневров по освобождению памяти.

Если физической памяти явно не хватает, то начинается активное использование области подкачки (swap). Немного swap области может использоваться и при большом количестве свободной оперативной памяти Например, в моём примере этим занято 21 Мб (рис. 4). Ядро операционной системы может скинуть часть страниц памяти, к которым очень-очень редко происходит обращение. Главное, чтобы не было активного использования области подкачки. Для обнаружения этого в системе можно обратиться к команде vmstat (рис. 7).

Рис. 7. Пример вывода команды vmstat в Linux.

Используемые в данном варианте параметры:
- "-S M" - отображать результаты в мегабайтах,
- "2 5" - вывести 5 слепков состояния с интервалом в 2 секунды.

В выводе можно увидеть статистику использования оперативной памяти - поля swpd, free, buff, cache. А также активность области подкачки - поля swap:si и swap:so, которые показывают ввод-вывод из данной области. В данном примере мы видим, что swap активно не используется.

Так же хочу напомнить, что в SAP системе информацию по использованию оперативной памяти на сервере в виде мгновенного снимка или статистики за предыдущие часы можно получить в транзакции ST06, выбрав пункт "Память" (рис. 8). В принципе, там тоже можно найти основные показатели, о которых я только что рассказал. Это может быть полезно, если у вас нет доступа на уровень операционной системы сервера, где работает SAP система.

Рис. 8. Пример вывода транзакции ST06 для мониторинга использования памяти.

Дополнительную информацию можно найти в этой статье (или прочитать перевод). 




11 февраля 2020 г.

SAP системы в виртуальной среде VMware - II

В первой части статьи я вкратце описал что собой представляет типовая архитектура виртуального кластера VMware.

Теперь поговорим об отношениях между SAP и VMware.


Тот проект, в котором я участвовал, представлял собой перенос систем SAP на платформу Linux/Oracle. В качестве дистрибутива Linux использовался SUSE Linux Enterprise Server for SAP Applications. Так что учитывайте, что следующая информация и перечень рекомендаций, который я привожу, были собраны для выбранной платформы. Хотя, конечно же, большая часть знаний носит универсальный характер и пригодится всем кто разворачивает SAP в виртуальной среде.

Для начала, источники информации, которые я использовал:

Рассмотрим рекомендации по настройке BIOS.
  1. Включить все возможные опции поддержки аппаратной виртуализации - VT-x, AMD-V, EPT, RVI, VT-d , AMD-Vi.
  2. Выключить опцию "Node Interleaving" для включения поддержки NUMA. NUMA это фишка современных мультипроцессорных систем, которая заключается в разной скорости доступа к разным банкам памяти от разных процессоров. Проще говоря, у каждого процессора есть свои банки памяти, к которым доступ осуществляется гораздо быстрее, чем к банкам памяти соседнего процессора. И программное обеспечение с поддержкой NUMA понимает это и старается работать только с банками памяти текущего процессора, не обращаясь к "дорогой" памяти.
  3. Включить опции ускорения "Turbo Mode" и "Hyper-Threading". C Hyper-Threading ситуация такая: активировать его надо, но при распределении виртуальных ядер между виртуальными машинами на них рассчитывать не стоит.
  4. Выключить опции "Power-Saving", "C1E Halt State", а "Power Management" включить в режим "OS Controlled Mode".
  5. Использовать профиль "Max performance" и/или "Max virtualization". У некоторых вендоров (например, HPE) есть отдельные профили при использовании серверов в составе VMware кластера.
  6. Максимально отключить ненужные устройства.

Второй пункт нашей программы - рекомендации по настройке ESXi и виртуальных машин.
  1. Технология VMware DRS не поддерживается SAP. DRS (Distributed Resource Scheduler) это технология автоматического выравнивания нагрузки на узлах в виртуальном кластере за счёт переноса работающих виртуальных машин между узлами. Технология позволяет выравнивать нагрузку, что положительно влияет на питание и охлаждение стоек в серверной. 
  2. Рекомендуется использовать специальную файловую систему VMFS и хранить виртуальную машину в виде отдельных файлов, а не использовать VMware RDM. RDM (Raw Device Mapping) это тип хранения файлов виртуальных машин на сырых дисках специального формата. Аналог RAW-дисков для хранения файлов базы данных ORACLE.
  3. При распределении ресурсов процессора считать, что 1 vCPU = 1 physical core (не учитывать логические ядра Hyper-Threading). ESXi сам распределяет ядра виртуальных машин по физическим ядрам. Стараться конфигурировать виртуальные машины по CPU и RAM внутри одной NUMA ноды. Поэтому я считаю очень важным понимание топологии NUMA на этапе сайзинга физических серверов. Рассчитывайте так, чтобы самая большая ваша виртуальная машина влезла в одну NUMA ноду, как по памяти, так и по процессорным ядрам. Функцию добавления процессорных ядер "на горячую" не использовать, то есть переключить "HotAddCPU" = disable.
  4. При конфигурации сети: использовать VMXNET3 адаптер и, желательно, включить NIC teaming. Дело в том, что ESXi имеет в своём составе специальные виртуальные адаптеры для основных устройств, которые оказывают наибольшее влияние на производительность. К ним можно отнести сетевые адаптеры и SCSI-контроллеры. Желательно выбирать самые последние "модели", но обязательно смотреть таблицы совместимости на отдельной странице сайта VMware для гостевой операционной системы. VMXNET3 это самый быстрый и обладающий минимальным overhead сетевой адаптер для виртуальных машин VMware. NIC teaming это технология объединения нескольких физических адаптеров в один, что повышает скорость и отказоустойчивость.
    Также стоить иметь в виду, что обычная практика это разделение всей сети комплекса на управляющую сеть, сеть для переноса виртуальных машин с помощью технологии vMotion и минимум 2 адаптера с NIC teaming для пользовательского доступа. Если используется High-Availability, то тоже надо заложить дублирование сетевых каналов. То есть количество сетевых адаптеров физических узлов надо закладывать с учётом этой информации на этапе сайзинга комплекса.
    В VMware есть функциональность по организации виртуальных коммутаторов - vSwitch, которые позволяют объединить все физические сетевые адаптеры и рулить ими на уровне абстракции VMware, разделяя на подсети.
  5. Memory reservation = размер сконфигурированной памяти VM (опция "Reserve all guest memory (All locked)"). То есть виртуальная машина сразу забирает всю память и не играет с выделением, swapping и другими фишечками VMware. А их там много. Например, balooning. Для SAP это всё увеличивает вероятность получения дополнительных проблем с производительностью, поэтому упрощаем процедуру выделения оперативной памяти виртуальной машине по максимуму.
  6. В качестве типа SCSI адаптера лучше всего использовать PVSCSI. Объяснение аналогично сетевому адаптеру (см. пункт 4). 
  7. Виртуальные диски типа "eager-zeroed thick provisioned". То есть никаких динамических дисков. В этом случае виртуальный диск занимает всё место, да еще и заполняет пустые блоки нулями. Данный вариант обладает самой высокой производительностью.
  8. Распределить файлы базы данных по нескольким виртуальным хранилищам (они  в VMware называются Datastores) и нескольким PVSCSI контроллерам. Например, я сделал так: отдельный диск и контроллер для OS + swap; отдельный для redo logs файлов; и несколько для data-files Oracle.
  9. На уровне ESXi обязательно активировать multipathing с политикой Round-Robin, но снизить лимит с "1000" (значение по-умолчанию) на меньшее значение (где-то встречал рекомендации установить в "1"). Multipathing это использование всех путей до СХД для повышения производительности и отказоустойчивости.
  10. Использование snapshots на постоянной основе не рекомендуется. При удалении snapshot могут отваливаться фоновые задания в SAP системе. Но snapshot можно использовать при выполнении резервного копирования. Про это будет отдельный пост.
  11. Использовать фиксированный MAC адрес. Для этого в настройках виртуальной машины необходимо выбрать тип "Manual". В Linux на MAC адрес завязан HardwareKey, на основании которого генерируется SAP License Key. Если VMware при смене узла, на котором работает виртуальная машина, изменит MAC адрес сетевого адаптера, то лицензионный ключ слетит. Подробности в SAP note 2161991 - VMware vSphere configuration guidelines.
  12. Возможно использование больших страниц (Large Pages) для виртуальных машин с большим объемом памяти. Смотреть на поддержку операционной системы и версии базы данных, которые будут использоваться в виртуальных машинах.

Ну и напоследок, рекомендации по настройке гостевой операционной системы. В моём случае это была SUSE Linux Enterprise Server.
  1. Отключить screen saver и анимацию.
  2. Обязательно устанавливать VMware Tools. Инструкции по установке можно найти на этой странице. Для Linux есть альтернатива - open-vm-tools, SLES поддерживает её с версии 12. Данная версия также поддерживается со стороны VMware (пруф). 
  3. Обязательная синхронизация времени. Лучше использовать NTP-сервер, а не опции VMware Tools (параметр tools.syncTime = "FALSE"). По опции VMware Tools происходит синхронизация времени гостевой операционной системы со временем ESXi узла. Это, как вы поняли, не рекомендуется. 
  4. Настройки swap-области внутри виртуальной машины такие же, как SAP рекомендует и для физических машин. Про эти рекомендации я писал в этом посте.
  5. Допускается использование LVM. Моё личное мнение, что с ним в Linux жить гораздо проще.
  6. Настроить автоматический запуск сервера приложений SAP и DB при старте операционной системы. Чтобы при рестарте виртуальной машины ваша система поднималась сама. Об этом тоже будет отдельный пост.
  7. ORACLE 10g и новее поддерживает NUMA по умолчанию (параметр _enable_numa_optimization), изменять параметр самостоятельно не рекомендуется.
  8. Выключить iptables командой /etc/init.d/iptables stop. Отключить SELinux выставив параметр SELINUX = disabled в файле /etc/selinux/config. Ну или деактивировать это на этапе установки операционной системы.

Как вы можете заметить, прочитав всё вышеперечисленное и заглянув в первоисточники, SAP относится к виртуализации как неизбежному злу. Поддерживаются только базовые функции, делается максимальный упор на производительность и устойчивость решения. Что в принципе диктуется тем, что это программное обеспечение Enterprise уровня. И я лично разделяю такую позицию.

Более подробную подборку SAP notes по VMware можно найти на этой странице SAP Wiki.


7 февраля 2020 г.

Опрос: а как вы ходите в отпуск

В связи с тем, что я дожил до очередного отпуска, хочу провести небольшой опрос. Поделитесь - достаёт ли вас работа в отпуске? 


Всё конечно же зависит от конкретной ситуации и должности, но у меня складывается ощущение, что чем дольше я работаю, тем больше смазывается разница между отпуском и рабочими днями. Берёшь с собой ноутбук, думаешь о том, чтобы всегда был доступ к сети Интернет. Ну и чтобы перестать думать о работе надо, чтобы прошёл "пустой" буфер в течении дней 7-10. Только после 7-10 дней настоящего отдыха перестаёшь в фоне думать о рабочих задачах. А там обычно уже и отпуск заканчивается. :)


А самый большой отпуск у меня был в начале карьеры и это был целый месяц! После него я реально неделю входил в рабочий ритм и вспоминал логины/пароли. Даже на свой рабочий компьютер не помнил. :)

Ну а теперь собственно опрос. Выберете на что больше похожи ваши отношения с работой в отпуске.

В голосовании участвовал 21 человек. Результаты получились следующие:

Рис. 1. Результаты опроса.

Картина получилась 50 на 50. Мне кажется, что поведение человека в отпуске зависит в большей степени не от его характера или степени ответственности, а от конкретной ситуации в которой он работает. Если человек один отвечает за более или менее большой объем работы или набор сервисов, то ему приходится в той или иной степени в отпуске отвлекаться на работу. А если есть команда сотрудников, которым можно легко доверить свои задачи на период отпуска, то и отдохнуть можно так, что "забудешь логины/пароли". :)

Спасибо всем за участие!
Желаю всем, кто собирается в отпуск, хорошо отдохнуть! 


5 февраля 2020 г.

SAP системы в виртуальной среде VMware - I

В конце прошлого года я участвовал в проекте миграции систем SAP на новую платформу, где, в частности, использовалась виртуализация. Так как до этого с продуктивным использованием сред виртуализации не сталкивался, а здесь пришлось достаточно глубоко погрузиться в эту область, я хочу поделиться своими знаниями. 

Под средой виртуализации я имею ввиду продукты компании VMware. Для корпоративных систем, наверное, это самое распространённое решение по виртуализации. 

Начнём с того, что SAP поддерживает виртуализацию для своих продуктов. Конечно, официально поддерживаются далеко не все продукты существующие на рынке, а в большей части только корпоративные и имеющие поддержку на уровне Enterprise. Список поддерживаемых и не поддерживаемых продуктов можно найти в SAP note 1122387 - Linux: SAP Support in virtualized environments
Если кратко, то в продуктивной среде можно использовать:
  • основанные на Xen, но в рамках корпоративных версий Linux и Citrix,
  • основанные на KVM, но опять же в рамках Enterprise продуктов (SUSE, Red Hat, IBM и т.п.),
  • линейку продуктов VMware от версии 5.x и выше,
  • виртуализацию типа LPAR (логическое разбиение физического сервера на отдельные машины) от разных вендоров. 

Точно не поддерживаются Microsoft Hyper-V, Virtual PC, Virtual Server, Oracle VirtualBox, Parallels Virtuozzo Containers, а также контейнеры от Linux (LXC, Docker). Отмечу, что в целях разворачивания обучающих систем, это всё можно смело использовать. И 80% их будет работать. Официальная поддержка относится к продуктивному использованию на боевых системах.

Теперь рассмотрим VMware. За одним этим словом скрывается огромный зоопарк различных систем и решений, который за более чем 20 лет существования компании разрастался, видоизменялся и переименовывался. Типичная конфигурация (рис. 1) представляет собой несколько физических машин, на которых устанавливается как операционная система специальное программное обеспечение - гипервизор. Гипервизор управляет ресурсами физической машины, распределяя их между работающими виртуальными машинами. У VMware гипервизор это продукт под названием ESXi сервер. В целом ESXi представляет собой узкоспециализированный дистрибутив Linux, который умеет рулить оборудованием и виртуальными машинами. VMware ESXi имеет очень небольшие требования к дисковому пространству, поэтому в качестве носителя может быть использована даже SD карта. После старта весь образ этой специфичной ОС хранится в оперативной памяти.

Накладные расходы (overhead) со стороны VMware ESXi минимальны, немного процессорных ресурсов и чуть-чуть оперативной памяти. :)

Рис. 1. Типовая схема виртуализации VMware.

К серверам подключается один или несколько дисковых массивов. Причём, современные решения от разных вендоров имеют хорошую интеграцию с VMware, поддерживая различные фишки через общий API. Например, "тонкие виртуальные диски" на уровне СХД.

Стоит также отметить, что многие вендоры оборудования тесно работают с VMware и в плане серверного оборудования тоже. В результате на свои сервера поставляют собственные сборки VMware ESXi, куда интегрированы специфичные драйвера и патчи.

Сам по себе ESXi не имеет графического интерфейса: на экране консоли сервера после загрузки появляется минималистичная заставка, отображающая только IP адрес и hostname, по которому можно войти через http-интерфейс для управления средой виртуализации (рис. 2).

Рис. 2. Пример начального экрана консоли сервера с VMware ESXi.

В консоли есть возможность перейти в настройки конфигурации по клавише F2 (в основном,  доступны только настройки сети) и выключить/перезагрузить сервер (клавиша F12). Все остальные функции по управлению виртуальной средой осуществляются через web-интерфейс сервера ESXi. Для очень тонкой настройки есть возможность активировать доступ через ssh (по-умолчанию, доступ закрыт) и войти на сервер через удалённую консоль.

Компания VMware умеет прекрасно продавать свои продукты. За это перед ними снимаю шляпу. Наверное, поэтому web-интерфейс VMware ESXi имеет лишь базовый набор функций. Для получения полного функционала рекомендуется приобрести продукт под названием VMware vCenter Server, который разворачивается в виде отдельной виртуальной машины (внутри представляет собой опять же Linux). И вот уже его web-интерфейс (VMware vSphere Client) имеет больше возможностей. Например, можно делать шаблоны виртуальных машин, клонировать их или осуществлять глубокий мониторинг производительности. На ESXi мониторинг ресурсов ограничивается только текущим состоянием (последний час). 

Несколько физических машин, каждая под управлением ESXi, могут быть объединены в кластер на уровне VMware. Машины в одном кластере должны иметь максимально похожие модели процессоров, а лучше вообще быть идентичны по всем параметрам. Поэтому для VMware конфигурации идеально подходят блейд-системы, когда на одном шасси функционирует несколько идентичных лезвий-серверов.
Другой продукт от компании VMware - vMotion позволяет переносить виртуальные машины между физическими узлами одного кластера. В случае ручного переезда останова гостевых операционных систем и приложений не происходит, пользователи процесса даже не замечают.  То есть происходит, так называемая "живая" миграция (live migration). 
В случае автоматического переезда, как в High-Availability решении, возможно два варианта:
  • рестарт виртуальной машины на резервной ноде в случае падения на основной,
  • "бесшовный" рестарт, который достигается за счёт использования решения VMware Fault Tolerance. 

Во втором решении используется одновременная работа двух виртуальных машин на разных узлах с полной синхронизацией и горячее переключение на резервную в случае сбоя основной машины. У решения есть строгие ограничения по количеству виртуальных процессоров и жёсткие требования к инфраструктуре. 

Лично я отношусь к VMware как к еще одному слою абстракции, который съедает определённые ресурсы для своей работы (overhead) и обязательно рано или поздно даст о себе знать дополнительной головной болью. В принципе, как и любое другое программное обеспечение.

Но, стоит признать и ряд несомненных плюсов в системе виртуализации. Во-первых, это абстрагирование виртуального сервера с операционной системой и SAP от физического сервера. Благодаря этому мы можем легко перенести систему на другое оборудование (при идентичности архитектуры конечно). При использовании "живой" миграции не нужно планировать downtime. Можно освободить физический сервер и провести на нём необходимые работы.  Конечно, чтобы была такая возможность полностью освободить физический сервер от виртуальных машин, необходимо тщательно планировать ресурсы физических машин в кластере. Запас по ресурсам должен быть всегда. 
Во-вторых, это лёгкость разворачивания новых серверов с SAP системами, путём клонирования/копирования существующих виртуальных машин или шаблонов. Если вы опять же оставите ресурсы в кластере, то можно создавать системы для тестирования и экспериментов. В частности, создавать машины для тестирования разворачивания резервных копий продуктивных систем. 
В-третьих, так как виртуализация не любит зоопарка решений в плане физических серверов и архитектур, вам придётся унифицировать оборудование, что может в дальнейшем снизить расходы на администрирование и обслуживание.
Еще можно отметить возможность использования дополнительного уровня резервного копирования через сохранение всей виртуальной машины. Причем можно использовать функцию VMware - snapshot, которая позволит минимизировать время простоя приложения во время создания резервной копии.
Но при этом надо понимать, что виртуальная среда это идеальное решение когда у вас много маленьких виртуальных машин, а реализация огромных серверов будет затруднительна. Да и накладные расходы тут уже будут мешать. Если у вас требования к оборудованию одного сервера равны мощностям физического узла, то реализация такого сервера в виртуальной среде ни одного плюса не даст. А при съедании всех ресурсов большой виртуальной машиной ESXi скорее всего "встанет колом", потому что начнётся активный swapping и очереди к процессорным ресурсам.

На русском языке есть очень хорошая книга "Администрирование VMware vSphere 5" от Михаила Михеева. Самая последняя версия - 3-издание от 2012 года. Более свежей версии нет,  так как автора взяли работать в VMware и он книгу обновлять перестал. :) Но для понимая всех продуктов книга подходит отлично. Поищите, в сети её найти можно. 

Продолжение в этом посте.