Стресс тест ESXi (потребление памяти виртуальными машинами)

Posted Leave a commentPosted in Виртуализация VMware, Разное

Что мы делаем, когда обнаруживаем нехватку памяти на гипервизоре?

Ну, наверное думаем как решить проблему. Одновременно некоторые пытаются анализировать поведение гипервизора, т.е. как отрабатывают механизмы работы с памятью (Memory Ballooning, Memory Compression, Hypervisor Swapping).
Но что делать если необходимо вдумчиво изучить как это все работает? Протестировать, скажете вы, и будете правы. Есть много программ для тестирования нагрузки CPU, диска.
А вот для памяти выбор не так уж и велик.
Я использую утилиту TestLimit
http://download.sysinternals.com/files/TestLimit.zip
Для большинства случаев необходима 64-версия.
Правда данная утилита не подходит для продолжительного тестирования, поскольку выделяемая ей память в долгосрочной перспективе отображается как “Consumed Host Memory”. Т.е. это тот вид памяти, который выделен ВМ, но не используется.
Итак, как тестировать.
Запускаем командную строку, переходим в каталог с программой, вводим
testlimit64.exe
и видим ключи утилиты
Для того, чтобы выделить 1 Гб ОЗУ
testlimit64.exe -d 1024 -c 1
Для увеличения размера памяти каждые 10 секунд используем ключ -e 10
testlimit64.exe -d 1024 -e 10

Для выделения всей памяти

testlimit64.exe -d

Однако в этом случае ВМ может зависнуть.

Microsoft Cluster Services Across Hypervisors (vmware+huawei)

Posted Leave a commentPosted in Huawei, Виртуализация VMware

В данной статье рассматривается режим работы Microsoft Cluster Services, при котором ВМ работают на гипервизорах разных вендоров.

Администрируя vSphere 5.5 я ни под какими предлогами не допускал в инфраструктуру Microsoft Cluster Services (MSCS). Поскольку развернув кластер MSCS прочувствовал на себе все ограничения данной технологии, после чего отказался от ее использования.
Виртуальные машины кластера MSCS  не мигрировали, висели на хосте, гордо заявляя: “Перезагрузка хоста ESXi только через наш труп!”. Что сводило на нет многие плюсы виртуализации.

В vSphere 6 это ограничение было устранено – vMotion и MSCS подружились.
Что несомненно вдохнуло новую жизнь в использование технологии кластеризации Microsoft совместно с кластеризацией VMware.

В статье vMotion support for MSCS приводятся оставшиеся ограничения. Но как по мне – так ограничениями их считать нельзя.

Вообще существуют несколько реализаций кластера, которые описаны как в официальной документации – Setup for Failover Clustering and Microsoft Cluster Service, так и более понятно и компактно в статях, например MICROSOFT CLUSTERING WITH VMWARE VSPHERE DESIGN GUIDE.

В частности:
Cluster In A Box (CIB): виртуальные машины размещены на одном хосте. При сбое одной ВМ кластеризованая служба, например файловый сервер, продолжает функционировать. Однако при сбое хоста мы имеем сбой и кластера MSCS.

Cluster Across Boxes (CAB): ВМ размещены на двух хостах, – соответственно при сбое одного хоста кластерная служба, продолжает функционировать.

Virtual Machine + Physical. Один из сценариев использования – это миграция кластера с физических хостов в виртуальную инфраструктуру.

 

Сравнение различных реализаций приведено в таблице:

Итак, мы имеем очень полезную технологию, которая защищает одновременно и от сбоя хоста и от сбоя операционной системы. А также позволяет произвести легкую миграцию кластера MSCS из физической в виртуальную инфраструктуру.

И тут у меня возник вопрос: а только ли из физической? Ведь в реализациях Cluster Across Boxes (CAB) и Virtual Machine + Physical используется Raw Device Mapping (RDM).

Режим работы виртуальных дисков Raw Device Mapping (RDM) позволяет напрямую использовать блочное устройство хранения без создания на нем файловой системы VMFS.

И этот режим поддерживает не только гипервизор ESXi…

Так что мешает реализовать Cluster Across Hypervisors?


Поискав информацию о данном режиме, я ее …. не нашел.
Поэтому решил проверить на практике, использовав в качестве альтернативного гипервизора платформу Huawei FusionSphere.

Создал на двух гипервизорах две ВМ, презентовал хостам VMware и Huawei два луна – т.е. сам диск свидетель и диск для использования в качестве файловой шары. Прокинул их в ВМ как RDM диски и … кластер заработал.

Т.е. Cluster Across Hypervisors вполне себе имеет право на существование.

И да, миграция кластеризованной ВМ работает, притом в обоих гипервизорах.
Правда в случае с Huawei наличие RDM диска увеличивает время миграции примерно в три раза.

Для VMware наличие RDM диска никак не изменяет время миграции.

Владение виртуальной машины ролью, а также запись на файловую шару данных для обоих гипервизоров не изменяет время миграции, запись при этом конечно же прерывается.

При этом миграция виртуальных машин является стрессом для кластерной роли.  Поэтому в условиях рабочих нагрузок перед проведением миграции виртуальной машины роль с нее нужно переносить средствами Диспетчера отказоустойчивости кластеров. Либо для восстановления работоспособности роли это необходимо делать уже после миграции
Вариант использования, как я писал выше – это перенос сервиса между гипервизорами разных вендоров без прерывания его работы. Правда работает это только в случае кластеризованного сервиса. И усилий необходимо приложить гораздо больше, чем просто миграция между гипервизорами одного вендора. С другой стороны если вам необходимо протестировать работу боевого кластера SQL на разных платформах, то опять же нет ничего проще. Просто запускаете роль на альтернативном гипервизоре и смотрите как она себя ведет в реальной обстановке. И в случае очень неудовлетворительных результатах просто переносите роль на другой узел отказоустойчивого кластера.

 

Сбой vSphere Data Protection при операции “Reconfigure virtual machine”

Posted Leave a commentPosted in Виртуализация VMware

Сбой vSphere Data Protection при операции “Reconfigure virtual machine”

vSphere Data Protection – 6.1.5
vSphere vCenter (VA) – 6.0 (30300-7037817).

При выполнении бэкапа VDP спотыкается на некоторых машинах при попытке выполнить операцию “Reconfigure virtual machine”. После чего уходит в перезагрузку. После чего задание бэкапа не сохраняется. Также не сохраняются и ранее сделанные успешные бэкапы.

Как оказалось причина – использование vSAN. Когда VDP живет на датасторе, отличном от vSAN, он с vSAN не дружит. И как следствие не дружит с некоторыми ВМ, чьи файлы лежать на vSAN. Точную зависимость я не установил.

Решение проблемы – перенос (миграция) системного диска VDP на vSAN. При этом остальные диски, на которых собственно и хранятся данные бэкапа, могут оставаться на резервном датасторе.

Данное решение, впрочем, сильно влияет на отказоустойчивость. Поскольку при сбое боевого датасторе происходит и крах бэкапа. А vSAN – это именно боевой датасторе. За время работы показал себя с самой лучшей стороны – очень производительная и надежная технология. Добро пожаловать в продакшн.

Для повышения отказоустойчивости я развернул второй VDP и сливаю (реплицирую) на него бэкапы с первого.

 

Установка драйверов Huawei на хост ESXi

Posted Leave a commentPosted in Huawei, Виртуализация VMware

После установки гипервизора ESXi на сервер Huawei RH2288H V2, описанной в прошлой статье, установим драйвера Huawei.

Открываем FusionServer iDriver-Vmware-Driver-VХХХ.zip (как скачивать описывалось ранее) и находим папку “vmware6.0″.  Драйвера из этой папки нам и нужно установить.
Для чего первым делом необходимо закачать папку на хост. Способов на самом деле много, я использую WinSCP. Для успешного подключения WinSCP к ESXi на последнем необходимо открыть порт SSH. Для чего в консоли сервера на который мы поставили ESXi жмем “Enable SSH” (меню – Troubleshooting Options).




Итак, порт открыли, запускаем WinSCP и подключаемся к ESXi. 

Затем в папку tmp копируем папку vmware6.0.
После чего с помощью например putty подключаемся к хосту и выполняем инструкцию из файла readme, т.е. выполняем команды:

 

 

cd /tmp/vmware6.0/
chmod +x install.sh
./install.sh

После чего жмем “1” для автоматической установки драйверов и перегружаемся.


На этом можно и остановиться, но у меня в сервере еще есть сетевая карта Intel(R) X540-AT2.
Актуальная версия драйвера – 4.5.2



Посмотрим установленную версию драйвера: 

 

 

ethtool -i vmnic0

Версия – 3.21.6.

Обновим.

Скачиваем драйвер с сайта, копируем файл net-ixgbe_4.5.2-1OEM.600.0.0.2494585.vib  на хост, переименовываем его, сокращая длинное имя до net-ixgbe.vib, запускаем установку

 

 

 

esxcli software vib install -v /tmp/net-ixgbe.vib

Установка прошла успешно, драйвер обновился.
Обращаем внимание на надпись: Reboot required: true

Перегружаемся.

 

 

reboot
По аналогии ставим и другие драйвера. Например я установил драйвер SSD карточки, без которого она не была видна ESXi, и обновил Embedded Host Client.



 














Установка ESXi (6.0) на сервер Huawei RH2288H V2

Posted Leave a commentPosted in Huawei, Виртуализация VMware
За время работы как с виртуализацией от компании Huawei, так и с серверами я усвоил главное правило: логика ничто, – инструкция все!!! Поэтому читаем инструкцию.
Начинаем с Huawei Server Best Practice with VMware ESXi System.
Прежде всего инструкция предлагает нам проверить совместимость сервера с ESXi на веб-станице по адресу: http://support.huawei.com/onlinetoolsweb/ftca/en
Открываем, при необходимости заходим в iMana
Жмем Search 
Далее жмем на ссылки (link) и переходим на сайты VMWARE и HUAWEI.
На первом видим, что версия ESXi 6.0 на нашем сервере технологию FT не поддерживает (а 6.5 поддерживает)
На втором  видим список патчей, открываем самый свежий и видим список драйверов.
Скачиваем FusionServer iDriver-Vmware-Driver-VХХХ.zip, он нам пригодится.
Также читаем Note.
Если iMana или BIOS не обновлены, то обновляем их. Эти операции просты – скачиваются драйвера и подсовываются в iMana. Если iMana не обновляется, то перегружаем ее.
Устанавливаем настройки BIOS. Huawei рекомендует использовать дефолтные настройки.
Затем необходимо настроить RAID. И делать это нужно не через BIOS, а с помощью FusionServer Tools ServiceCD.
Его можно скачать через http://support.huawei.com/enterprise/en/index.html раздел TaiShan – FusionServer Tools, Загрузки.
Имя файла – FusionServer Tools-ServiceCD2.0-VXXX.zip.
Также в будущем может понадобиться FusionServer Tools-Toolkit-VXXX.zip.
Итак скачиваем FusionServer Tools-ServiceCD, загружаемся с него, жмем START, переходим в RAID Config, создаем RAID. При необходимости читаем User Guide.
Перегружаемся, снова заходим в FusionServer Tools ServiceCD. На этот раз выбираем Install OS. И видим предупреждение:
Не игнорируем, обновляем прошивку.
Загружаемся с ранее скачанного FusionServer Tools-Toolkit, заходим в CLI (в главном меню набираем символ “C”, логин: root; пароль: Huawei12#S).
Затем набираем: cd /home/Project/tools/upgrade/raid/tool/
И: ./FwUpgrade.py FwUpgrade.xml.
Контроллер обновился.
Снова загружаемся с FusionServer Tools ServiceCD, прошивка новая – 20.100.04.00
Следуем указаниям мастера.
Мастер попросит вставить образ ESXi, начнет загрузку, перезагрузится, после чего установка ESXi пойдет в обычном порядке.
Если что-то не то с контроллером, например не находится загрузочный диск, то первая причина – это конфигурирование контроллера встроенными средствами (а не FusionServer Tools ServiceCD). Если же все сделано правильно – можно почитать Firmware Upgrade Guide.
В нем более подробно описываются действия с контроллером. В частности можно выбрать SAS Topology, выбрать RAID и проверить что он является загрузочным. При необходимости сделать его таковым (Alt-B)
Установка завершена.
Далее необходимо установить обновления.

 

Добавление диска в MS SQL

Posted 1 CommentPosted in SQL, Windows
После создания кластера MS SQL 2016 в Hyper-V решил его оптимизировать, разнеся базу данных и журнал на разные диски.
При этом системная база TEMP уже создана, и остается на диске F. Поскольку системную базу используют все другие базы, т.е. нагрузка на нее ложится существенная, то на диске F она будет жить в гордом одиночестве.
Создал в Hyper-V, вернее в диспетчере отказоустойчивости кластеров общие диски, настроил их в ОС гостевых машин. Вроде все хорошо – диски назначены роли SQL Server, но сам SQL их не видит. Т.е. диски имеют буквы H и I, а видны только F и G.

 

Посмотрим что представляет из себя наша база данных. Для этого загрузим отчет о зависимостях (Диспетчер отказоустойчивости кластеров – Роли – правая клавиша по роли SQL server – Дополнительные действия)
А вот и наши  два диска, которые как-бы к SQL и не относятся. Значит нужно их подружить.

 

Добавляем наши диски
Смотрим что получилось
Видим что теперь все нормально. Перегружаем роль (или службу SQL)
Заходим в Microsoft SQL Server Management Studio и пытаемся изменить пути
И видим что теперь у нас диски видны, пути можно изменить.

Вышел HP Service Pack for ProLiant 2014.02.0

Posted 2 комментарияPosted in Виртуализация VMware, Сервер HP

18 февраля 2014 года состоялся релиз очередного сервис пака для железа от HP.

Как специалиста по виртуализации меня очень интересует поддержка драйверами из нового сервис пака системы виртуализации. Узнать это мне поможет документ  HP Service Pack for ProLiant 2014.02.0 Server Support Guide. Открываем его и смотрим как дружат наши сервера (вернее их драйверы в новом сервис паке) с нашей vmware. Сервера – HP ProLiant BL460c Gen8 Server. Верcbя vmware – VMware vSphere 5.5

Убеждаемся что все ОК.
HP SPP Release Summary:
  • Добавлена новая поддержка сервера HP ProLiant DL580 Gen8
  • Расширенная поддержка (обновление процессора) для следующих серверов HP ProLiant:
    • HP DL380e Gen8 Сервер
    • HP DL360e Gen8 Сервер
    • HP BL420 Gen8 Server Blade
    • HP SL4540/SL4545 Gen8 Сервер
    • HP ML350e Gen8 V2 Сервер
  • Добавлена ​​поддержка операционной системы для:
    • Microsoft Windows Server 2012 R2
    • Red Hat Enterprise Linux 5.10
    • Red Hat Enterprise Linux 6.5
    • VMware ESXi 4.1 U2
    • VMware ESXi 5.0 U3
    • VMWare VSPHERE 5.1 ​​U2
    • VMWare VSPHERE 5.5
  • Содержит HP Smart Update Manager v6.2.0

Загрузить HP Service Pack for ProLiant 2014.02.0

P.S.  В новом сервис паке изменилось окно установке. И оно мне нравится больше.

Тестирование антивируса для vmware. McAfee MOVE AntiVirus.

Posted 1 CommentPosted in Виртуализация VMware

На днях закончил тестирование безагентного антивируса для виртуальной среды vmware – McAfee MOVE AntiVirus.
Редакции VMware vSphere 5.5 начиная с редакции Standard поддерживают vShield Endpoint – модуль, обеспечивающий перенос обработки (проверки) файлов с виртуальных машин, в загружаемый модуль ядра Endpoint Security. vShield Endpoint позволяет сторонним производителям антивирусов интегрироваться с инфраструктурой виртуализации VMware vSphere. Антивирусное решение стороннего производителя, поставляемое в виде виртуального модуля (Virtual Appliance), устанавливается на каждый хост ESXi 5 и обеспечивает проверку виртуальных машин на вирусы.
Взаимодействие между виртуальной машиной защиты и инфраструктурой VMware осуществляется следующим образом:
1. Пользователь открывает, сохраняет ли запускате файл на защищаемой виртуальной машине.
2. Драйвер VMware vShield Endpoint Thin Agent перехватывает информацию об этих событиях и отправляет модулю VMware vShield Endpoint ESX Module, установленному на VMware ESXi.
3. Компонент VMware vShield Endpoint ESX Module передает информацию о полученных событиях библиотеке EPSEC, установленной на виртуальной машине защиты.
4. Виртуальная машина защиты проверяет файлы, с которыми работает пользователь, на наличие в них вирусов и других вредоносных программ.

Преимущества установки безагентного антивируса:
McAfee MOVE AntiVirus является как раз таким продуктом, который интегрируется vShield Endpoint. После его тестирования поделюсь впечатлениями о нем. Сразу скажу – они двойственны. С одной стороны понравилась простота установки и настройки, длительный период оценки полнофункциональной версии – 3 месяца. С другой же – совершенно не понравилась управление антивирусом. В управляющем ПО (ePolicy Orchestrator) видны лишь виртуальные машины защиты т.е. сами MOVE-AV, но совершенно не виды защищаемые объекты. Кроме того, для ознакомления с результатами работы необходимо проводить инициализацию связи ePolicy Orchestrator c клиентами (MOVE-AV) и только после этого становится доступным отчет об обнаруженных угрозах. Сам отчет тоже не впечатлил. Ну и еще один, существенный на мой взгляд недостаток – на данный момент отсутствует поддержка VMware vSphere 5.5.
Для тех же, кто хочет попробовать данный антивирус, затрону порядок его установки.
1. Прежде всего устанавливается vShield Endpoint.

С версии vSphere 5.1 семейство продуктов vShield называется VMware vCloud Networking and Security. По ссылке Download VMware vCloud Networking and Security 5.5.0a  скачивается vShield Manager 5.5.0a в виде шаблона ВМ – файла OVA. Далее он устанавливается (Deploy OVF Template). Для настройки заходим в WEB-интерфейс по адресу, который указали при установке. Стандартный логин/пароль – administrator/default. Подключаем vShield Manager к Vcenter Server, после чего в главном меню Vcenter Server появится раздел vShield. Такая же вкладка появляется и у каждого хоста куда мы заходим и устанавливаем vShield Endpoint на каждый хост. После чего необходимо установить vshield driver из комплекта VMware Tools на каждую ВМ (по умолчанию он не ставится).

2. Порядок установки антивируса, в том числе и управляющего ПО, приведен в документе mva_300_product_guide_en-us, который доступен после скачивания ПО:

Загружаем McAfee MOVE AV Agentless. Также загружаем ePolicy Orchestrator.

ePolicy Orchestrator устанавливается в ОС Windows. McAfee MOVE разворачивается из файла Мove-sva-3.0.0.ovf. Затем в ePolicy Orchestrator устанавливается расширение MOVE-AV-AL_EXT_3.0.0 (файл ZIP). Заходите в консоль Мove-sva и запускается мастер, который регистрирует ВМ защиты в ePolicy Orchestrator и vShield Endpoint Manager. Я смог зарегистрировать лишь при указании IP-адресов. Также хочу отметить, что несмотря на скурпулезное заполнение всех полей при разворачивании McAfee MOVE введенный пароль не сохранился и в консоль пришлось заходить с дефолтным: логин – svaadmin, пароль – admin.

Вызвать мастер всегда можно командой sudo /opt/McAfee/move/bin/sva-config.Затем в ePolicy Orchestrator создаются политики и в принципе все. Куда конкретно жать расписано в документации. Здесь порядок приводится лишь в ознакомительных целях для осознания так сказать объема возможных работ по инсталляции продукта.
Проверить какая на данный момент актуальная версия антивирусной и скачать DAT файл с базами можно по ссылке Обновления безопасности.

 

Обновление HP P2000 G3 MSA Array Systems.

Posted Leave a commentPosted in Сервер HP

Опишу как лично я решил проблему поиска нужных драйверов (Firmware) для обновления HP P2000 G3 MSA Array Systems.

С самим контроллером проблем не возникло – в поиске забивается hp p2000 g3 msa array systems firmware, загружается страничка с драйверами, где выбирается Firmware – Storage Controller, видим что нам нужно Online ROM Flash Component for Windows – HP P2000 G3 MSA Arrays. Обычно попадаем на актуальную версию. Но можно забить в поиск HP P2000 G3 MSA Arrays и поискать нет ли чего поновее. Я нашел TS250P003 (2 Oct 2013). Скачиваем последнюю найденную версию, запускаем файл *.exe (cp021713.exe, 35 MB), указываем IP-адрес контроллера A и ждем пока установится.

С дисками было несколько сложнее. Мои диски – EG0600FBDBU, EG0600FBDSR и EG0600FBLSH упорно не находились. Успех пришел после того как строка поиска приняла следующий вид: HP_EG0600FBLSH fla. Погоняв поисковик выяснил, что последние версии файлов: HP_EG0600FBDBU_HPDA.fla, HP_EG0600FBDSR_HPD6.fla, и HP_EG0600FBLSH_HPD7.fla. Скачал, вошел в Storage Management Utility, Tools, Update Firmware. Загрузил нужную прошивку, выбрал соответствующие диски и все обновилось.

Обновление Expansion Modules (EMPs).

А вот обновить All Expansion Modules (EMPs) сразу не получилось. Было совершенно ясно, что необходимо скачать HP D2600/D2700 6Gb SAS Disk Enclosure ROM Flash Component. Вся проблема заключалась в том, что версия была даже ниже, чем уже установлено. И если задать в поиске указанную выше строку, опять же выходили ссылки на старую версию (0131, 2 Aug 2011). После продолжительных поисков выяснил что актуальная версия – 0147. И что есть файл для версии 0146 – CAMSPR0146_6G_app_4MB_ai.pmc. Поставив “7” вместо “6” нашел ссылку для скачивания CAMSPR0147_6G_app_4MB_ai.pmc. 

Возможно и существуют более простые способы поиска нужных драйверов, но я обновился как мог.

 

Использование пользовательских атрибутов в Vcenter Server

Posted Leave a commentPosted in Виртуализация VMware

Прошлая статья: “Описания ВМ (Notes)” была посвящена  добавлению описания к ВМ.

Еще один способ систематизировать объекты виртуальной среды – создать пользовательские атрибуты.
Пользовательские атрибуты – это добавление в vCenter Server новых граф (полей) к ВМ и Хостам, содержащих специфическую информацию, присущую вашей конкретной организации.
Например у нас принадлежность ВМ к той иной организации определяется из ее названия, но правильнее было бы создать новый атрибут “Организация”. В этом случае в списке ВМ кроме имени ВМ, ее состояния, загрузки процессора и использования памяти мы также видим и новую графу – Организация. Удобство заключается еще и в том, что поскольку информация о принадлежности ВМ к определенной организации является полем, то по нему можно делать сортировку.

Пользовательские атрибуты создаются в Administration – Custom Attributes.

Можно создать атрибут (поле) хоста, виртуальной машины либо глобальный. Глобальный атрибут распространяется и на хосты и на ВМ, им может быть например поле “Важность”.
Создадим поле Организация (“Company”) и добавим его к ВМ.

 

Теперь пойдем в ВМ и заполним поле нашим значением.
Также можно вписать наименование непосредственно в списке ВМ.
Ну и посмотрим как это выглядит в итоге.
При этом если описания ВМ (Notes) хранятся в самих ВМ, то Атрибуты хранятся в базе vCenter.