Quantcast
Channel: VMware – vMind.ru
Viewing all 339 articles
Browse latest View live

Установка VMware ESXi 5.5 на хост с менее 4 ГБ ОЗУ

$
0
0

Начиная с версии 5.5 VMware ESXi требует 4 ГБ ОЗУ для установки, что бывает существенно для старых серверов и домашних лабораторий.

Я же захотел обновить ESXi 5.1 до версии 5.5 у нашего героя из предыдущей истории VMware ESXi и Realtek 8168/8169/8111 — HP DL360 G5.

Во время ошибки «MEMORY_SIZE ERROR» жмем ALT+F1, заходим под root без пароля. Выполняем следующие действия:


# cd /usr/lib/vmware/weasel/util
 # rm upgrade_precheck.pyc
 # mv upgrade_precheck.py upgrade_precheck.py.old
 # cp upgrade_precheck.py.old upgrade_precheck.py
 # chmod 666 upgrade_precheck.py
 # vi upgrade_precheck.py

Ищем строку с текстом MEM_MIN_SIZE  и расчетом 4*1024. У меня это была 1105 строка. Заменяем 4 на 2 либо 1 и сохраняем.

# ps -c | grep weasel

( это будет python PID )

 # kill -9 <PID>

После этого инсталлятор перезапустится.

Другие инструкции на английском с пояснениями:

how to: Installing ESXi 5.5 on less than 2GB RAM

ESXi 5.5 – Installing with less than 4Gib RAM. (ESX MEMORY_SIZE ERROR during install)


Список недоступных функций в VMware vSphere Client 6.0.x

$
0
0

VMware vSphere Client 6.0 предназначен для прямого подключения к хоста, но также поддерживает подключение к vCenter.

К моему сожалению, часть функционала не поддерживается:

Сеть:

  • IPv6 support for ESX architecture, NFS 4.1 storage operations, iSCSI, guest OS customizations, virtual datacenters
  • Multi-Instance TCP/IP stack and upgrade
  • SR-IOV, LACP, Multicast support enhancements
  • Opaque Networks
  • Network I/O Control (NIOC v3)
  • Open vSwitch (OVS) support
  • Proxy switch autoscale capability
  • Network DRS
  • DRS anti-affinity rules
  • vSphere vMotion across large geographical distances
  • vSphere vMotion across vCenter Server systems

Подсистема хранения:

  • AHCI SATA device support
  • vFlash-DRS interoperability
  • vFlash cache UI support
  • Virtual SAN disk group management, Profile compatibility errors and warnings, storage policy based management, Default Profiles, Disk serviceability, Fault Domain isolation
  • Storage DRS compatibility with vSphere Replication, Interoperability with Site Recovery Manager
  • I/O Filters: Storage policy support
  • NFS Client 4.1 with Kerberos
  • Virtual Volumes in vCenter Server
  • vCenter Server Storage Profiles
  • Storage Management Views

Аппаратные функции:

  • Intel vGPU
  • AMD vGPU
  • 2TB+ HDD VMDK
  • 128 vCPUs for virtual machines with hardware versions earlier than version 10
  • 32 Serial Ports for virtual machines with hardware versions earlier than version 10
  • SVGA for virtual machines with hardware versions 10 and 11
  • 255 PVSCI Devices
  • VMCI Firewall
  • Smart Card authentication
  • SATA controller and hardware settings
  • SR-IOV settings
  • GPU 3D render and memory settings
  • Tuning latency settings
  • vSphere Flash Read Cache settings
  • Nested hypervisor
  • Fast checkpointing
  • vCPU reference counters
  • Ease and scheduled hardware upgrade
  • Default compatibility level

Прочие функции:

  • VMware Tools reporting and upgrade enhancements
  • vCenter Server Linked Mode
  • vCenter Server Service Status (Health-UI Extension)
  • vCenter Server Hardware Status (CIM-Monitoring Extension)
  • vCenter Server Performance Charts — Overview
  • Simplify tuning for low latency workloads
  • SMS for certificate management
  • CIS runtime configuration
  • CMS support firstbooting
  • Performance charts integration with RAS
  • Tagging enhancements

Хостовые функции:

  • Deleted file reclamation
  • Guest authorization
  • Host profiles reference host independence
  • Lockdown mode

Для использования вышеперечисленных функций необходимо самоотверженно пользоваться vSphere Web Client.

Информация взята из KB2109808.

Вышел Cisco Nexus 1000V для VMware vSphere 6.0

$
0
0

Для тех кто, планирует переходить на VMware vSphere 6.0 могут отметить для себя выход распределенного коммутатора Cisco Nexus 1000V. Из нового заявлена только поддержка данной платформы.

Заметки о релизе.

Скачать.

Из нужных мне компонентов жду Veeam Backup & Replication 8.0 Patch 2, после этого можно начинать миграцию.

Вышел Veeam Backup & Replication 8.0 Update 2 с поддержкой vSphere 6.0

$
0
0

Вышел Veeam Backup & Replication 8.0 Update 2 с поддержкой vSphere 6.0, теперь можно планировать переход на новую платформу.

Для vSphere 6.0 заявлено:

  •  поддержка VMware Virtual Volumes (VVols) и Virtual SAN (VSAN) 2.0;
  •  резервное копирование и восстановление политик в рамках функциональности управления средствами хранения на основе политик (SPBM);
  •  поддержка резервного копирования и репликации отказоустойчивых виртуальных машин (Fault Tolerant VMs);
  •  интеграция тегов vSphere 6;
  •  ускоренная миграция на хранилища VVol;
  •  учет Cross-vCenter vMotion;
  •  поддержка передачи данных в режиме «горячего» подключения (Hot-Add) для виртуальных SATA-приводов.

Подробнее в базе знаний.

Запуск VirtualBox VM Template на ESXi

$
0
0

Мы используем продукты Oracle в своей деятельности, поэтому часто возникает потребность  «пощупать»  новые версии. К сожалению, Oracle предоставляет свои продукты в виде виртуальных модулей(virtual appliance) в формате Oracle VM для ODA и VirtualBox VM Template(в формате OVA/OVF). Казалось бы, бери OVA-файл да запускай на VMware, ан нет — виртуальное оборудование частично не совместимо. Для любителей подкрутить самостоятельно есть пара методов:

Мне надо было запустить Oracle Cloud Control. Для этого я скачал Oracle VM templates for Enterprise Manager Cloud Control 12c. Основная проблема — трудновато на рабочей станции с HDD крутить 16 ГБ файл, поэтому рекомендую OVA-файл распаковать и править только OVF, без обратной упаковки. Я же где-то ошибся и виртуалка у меня после снятия всех вопросов по совместимости и разворачивания не смогла подмонтировать диск.

Зато мне попалась на глаза статья наших коллег — как перенести виртуальную машину VirtualBox в VMware Workstation и обратно. Идеей которой, я и решил воспользоваться.

Скачал VMware Workstation 11 Trial и запустил OVA файл без всяких подготовительных действий.

Затем в VMware Workstation подключил vCenter, выключил виртуалку и лёгким движением мышки перенес виртуалку в vCenter.

Удалил VirtualBox Guest Additions:

 /opt/[VBoxAdditionsFolder]/uninstall.sh

Поставил VMwareTools:

tar zxpf /mnt/cdrom/VMwareTools-x.x.x-yyyy.tar.gz
cd vmware-tools-distrib
./vmware-install.pl

ВМ заработала без дополнительных телодвижений.

VMware vSphere vs OpenStack

$
0
0

Спросили меня на работе, а почему мы не используем бесплатные решения, разработанные сообществом? Или «платные» решения от Mirantis…

Так как слова OpenStack мне вообще ничего не говорили, пришлось кратко погрузиться в эту тему.

Начать чтение про OpenStack стоит отсюда или в вики. Вообще говоря, это некий набор решений, позволяющий сделать частное или публичное облако.

Так как вопрос изначально стоял про сравнение, то я нагуглил еще пару ссылок про сравнение функционала (раз и два):

  • VMware vMotion переносит ВМ без простоя. Максимальный заявленный latency — 100мс. В vSphere 6.0 можно осуществлять миграцию на другой vCenter (сервер управления) и даже в другую IP-сеть (через маршрутизатор). В OpenStack заявлен suspend (пауза) на две секунды. С другой стороны, OpenStack умеет мигрировать ВМ между Intel и AMD;
  • Storage vMotion в OpenStack то ли не поддерживается, то ли предлагается реализовать средствами LVM. То есть «можно, но геморройно»;
  • балансировки нагрузки, аналогичной VMware DRS, тоже практически нет. DPM также отсутствует. «Готовый» шедулер балансирует машины только при включении. Из практической пользы можно отметить, что при желании можно соорудить свой планировщик, использующий абсолютно любые требования;
  • аналог VMware HA есть (правда, вызывает сомнения функциональность). Мониторинг ОС в ВМ 100% реализуется через стороннюю связку с Zabbix/Nagios. Аналогом Fault Tolerance был Kemari+Xen, но Kemari, вроде бы, больше не поддерживается. Зеркалирование инструкций в KVM, вроде бы, также не поддерживается;
  • всякие другие штуки типа network teaming, VMware API Array Integration, Update Manager, Host Profiles, Distributed Switch, Storage/Network IO Control либо отсутствуют, либо требуют активного допиливания.

В целом, стоит отметить, что OpenStack, с одной стороны, несет за собой конскую экономию на лицензиях гипервизора. С другой, однозначно увеличиваются операционные затраты на изучение и поддержку инфраструктуры плюс увеличится значимость человеческого фактора. Также будет снижена доступность инфраструктуры, так как учиться администраторам надо будет налету.

В целом, я рад, что на текущий момент сообщество может предложить мне не бесплатный гипервизор (Xen/KVM), а некий инструмент, позволяющий создать свою инфраструктуру виртуализации. Несколько лет назад были только гипервизоры…

Советы по управлению производительностью в vSphere 6

$
0
0

Nick Marshall выпустил обзор «Performance Practices for vSphere 6″ в рамках VMUG, описывающий новинки vSphere 6.0, что они дают с точки зрения производительности. Особую ценность представляют рекомендации по использованию компонентов платформы.

 Performance Practices for vSphere 6.

Не удается увеличить размер хранилища VMFS

$
0
0

После того, как переполнилось одно хранилище VMFS, мы пошли стандартным путем: увеличили размер LUN’а и попытались увеличить хранилище.

msa01

Облом-с.

msa02

Нагугленная статья, описывающая поведение после переполнения хранилища, посоветовала произвести операцию расширения с того хоста ESXi, на котором расположена включенная ВМ с этого хранилища.

Я подключился напрямую на хост и… Бинго!

msa04


Собираем грабли при обновлении VMware vSphere 5.5 до vSphere 6.0

$
0
0

На днях начал обновляться со старой платформы VMware vSphere 5.5 до новой 6.0. Граблей собрал небольшую пачку, о чём и хочу поведать.
Во-первых, пришлось избавиться от хоста с ESXi версии 4.1, так как vCenter 6.0 поддерживает только ESXi 5.0+. Об этом вышла пара статей на нашем блоге: VMware ESXi и Realtek 8168/8169/8111 и Установка VMware ESXi 5.5 на хост с менее 4 ГБ ОЗУ.

Во-вторых, Вышел Veeam Backup & Replication 8.0 Update 2 с поддержкой vSphere 6.0, который также потребовалось обновить.

В-третьих, Вышел Cisco Nexus 1000V для VMware vSphere 6.0, и его обновили.

В-четвертых, Вышел VMware vRealize Operations Manager 6.0, его пропатчили до версии 6.0.1.

После всего этого настало время vCenter. Запустили установщик, согласились на использование vPostgres и спустя полтора часа получили новенький vCenter. И набор граблей…

Пропала интеграция с Cisco Virtual Switch Update Manager — при попытке открыть раздел Cisco Nexus 1000V в vSphere Web Client, страница намертво зависала, удалить через MOB расширение не получалось. В итоге удалил виртуалку, после перезагрузки сервера с vCenter в MOB расширение благополучно исчезло. Приложуха на редкость бесполезная, так что послал в топку.

Пропала интеграция с Veeam B&R. Переустановили плагин, рестартнули службы — заработало.

Вылезли ошибки с плагинами в толстом клиенте:

plugin errorОшибка с VMware Syslog Colector Configuration была снята добавлением порта в правила файервола.

Ошибка с VMware vCenter Storage Monitoring Service описана в базе знаний The Storage Monitoring Service plug-in fails to install in VMware vCenter Server 6.0 (2115295), теперь его просто нет, как и The Overview sub-tab in the Performance tab view is no longer available in the VMware vSphere Client 6.0.x (2109800).

Ошибку с Auto Deploy я проигнорировал, так как это функционал не используем, а служба остановлена. Подозреваю, что старт службы и настройки файервола снимут симптом.

После этого начал обновлять ESXi — путь снова оказался тернист. После обновление до ESXi отвалились все хранилища. Как оказалось, выстрелил костыль, заложенный при переходе на vSphere 5.5. Но, как обычно, выручил бложик, так как костыль был записан в заметке Отключение VMware ESXi Native Driver. Для исправления подал команду:

esxcli system module set --enabled=true --module=qlnativefc

Каким-то чудом вылезла еще одна старая ошибка, которая опять же описана в нашем бложике Ошибка обновления ESXi 5.1 до 5.5 — Cannot run upgrade script on host. Но, в этот раз, решил поправить её через esxcli:

esxcli software vib remove -n vmware-fdm

Напоследок. Так как архитектура vCenter серьёзно поменялась, то мониторинг списка старых сервисов уже не подходит, а ручной подсчет меня соориентировал, что сейчас сервисов точно не меньше 32(!) штук. Так что для определения сервисов нужных для контроля воспользовался статьей Stopping, starting, or restarting VMware vCenter Server 6.0 services (2109881), с помощью которой выгрузил список запущенных сервисов командой:

service-control --list

Их и засунул в Nagios.

Обновление хостов ESXi 5.5 с коммутатором Cisco Nexus 1000V до ESXi 6.0

$
0
0

е смотря на название, сегодняшняя статья продолжение эпика Собираем грабли при обновлении VMware vSphere 5.5 до vSphere 6.0.

Для затравки, первый баг на сегодня очень радует — желтый баннер с текстом «Quick stats on hostname is not up-to-date». Судя по vCenter Server 5.5 and 6.0 displays a yellow warning in the Summary tab of hosts and reports the error: Quick stats on hostname is not up-to-date (2061008), разработчики синхронизируют фиксы с серьёзным лагом.

А теперь к основному блюду.

Как неправильно обновлять хост ESXi 6.0 с Cisco Nexus 1000V

После обновления супервизора VSM Cisco Nexus 1000V пришло время обновлять карты расширения VEM.

При попытке обновления Update Manager ругнулся на VIB cisco-vem-v173-esx , который я снёс командой

vem stop
esxcli software vib remove -n cisco-vem-v173-esx

а сам хост удалил из коммутатора Remove from VDS.

Это было жёсткой ошибкой, так как после обновления возможности добавить хосты c ESXi версии 6.0 на данный момент нет — хосты просто не отображаются в списке выбора.

Я понадеялся на только что вышедшую версию Cisco Virtual Switch Update Manager Release 1.3, но браузер зависает при обращении из vSphere Web Client, так как, похоже, продукт до сих пор не поддеживает vCenter 6.0.

Поэтому пришлось искать в глубь и ширь. Поиск в базе знаний даёт подсказку When attempting to add an ESXi 5.x host to a DVS, the host is missing or the list is empty (2039046), но я мигрировал базу на vPostgres, поэтому необходимо понять как vPostgres готовить.

  • Из файла C:\ProgramData\VMware\vCenterServer\cfg\vmware-vpx\vcdb.properties берем адрес и порт, которые слушает СУБД (localhost:5432),  имя пользователя (vc) и копируем в буфер обмена пароль.
  • Ставим PGAdmin и 32-битные библиотеки C++ Visual Studio 2013 Redistributable.
  • Запускаем PGAdmin, вводим полученные ранее данные.

Раскрываем дерево — VCDB->Схемы->vc->Таблицы->VPX_DVS_COMPATIBLE, добавляем пару строк со значениями:

  • повтор значения id(значение содержится в таблице VPX_DVS), esx, 6.0+;
  • повтор  значения id, embeddedEsx, 6.0+,
  • жмём «Обновить» для автозаполнения последнего поля.

После этого подключаем хост в коммутатор. Если возникает ошибка, описанная в Adding an ESX/ESXi host to Nexus 1000v vDS fails with the error: vDS operation failed on host <hostname>, got (vmodl.fault.SystemError) exception (2007166), то на время подключения останавливаем службу VMware Update Manager (VIB модуль должен быть установлен вручную).

Если все вышесказанное не помогло, то делаем как написано ниже, но если вы не сделаете то, что выше, не факт, что сработает то, что ниже.

Как правильно обновлять хост ESXi 6.0 с Cisco Nexus 1000V

На данный момент официальная единственная возможность — это сразу вшивать VIB Cisco Nexus 1000V VEM в образ ESXi 6.0 и им обновляться.

Все команды выполняются в PowerCLI:

PowerCLI C:\temp> Connect-VIServer vcenter
PowerCLI C:\temp> Add-EsxSoftwareDepot .\VMware-ESXi-6.0.0-2494585-depot.zip
Depot Url
---------
zip:C:\temp\VMware-ESXi-6.0.0-2494585-depot.zip?index.xml
PowerCLI C:\temp> Add-EsxSoftwareDepot .\VEM\VEM600-201504173119-BG-release.zip
Depot Url
---------
zip:C:\temp\VEM\VEM600-201504173119-BG-release.zip?index.xml
PowerCLI C:\temp> Get-EsxSoftwarePackage | where {$_.Vendor -eq "Cisco"}
Name Version Vendor Creation Date
---- ------- ------ ------------
cisco-vem-v173-esx 5.2.1.3.1.4.0-6.0.1 Cisco 16.04.201...
PowerCLI C:\temp> Get-EsxImageProfile | Select Name
Name
----
ESXi-6.0.0-2494585-no-tools
ESXi-6.0.0-2494585-standard
PowerCLI C:\temp> New-EsxImageProfile -CloneProfile ESXi-6.0.0-2494585-standard -Name ESXi-6.0-plus-VEM-6.0 -AcceptanceLevel PartnerSupported -Vendor "NotVmware"
Name Vendor Last Modified Acceptance Level
---- ------ ------------- ----------------
ESXi-6.0-plus-VEM-6.0 Cisco 06.02.2015 2... PartnerSupported
PowerCLI C:\temp> Add-EsxSoftwarePackage -ImageProfile ESXi-6.0-plus-VEM-6.0 -SoftwarePackage cisco-vem-v173-esx
Name Vendor Last Modified Acceptance Level
---- ------ ------------- ----------------
ESXi-6.0-plus-VEM-6.0 Cisco 08.06.2015 1... PartnerSupported
PowerCLI C:\temp> Export-EsxImageProfile -ImageProfile ESXi-6.0-plus-VEM-6.0 -ExportToISO -FilePath ESXi-6.0-plus-VEM-6.0.iso

За основу взята статья Upgrading an ESXi/ESX 4.x host with the Cisco Nexus 1000V to ESXi 5.x using Update Manager (2021363).

Вывод

Горе от ума вечно…

Обновление хостов ESXi 5.5 до ESXi 6.0 против Veeam NAS

$
0
0

Итак, третий акт Марлезонского балета. Предыдущий акт Обновление хостов ESXi 5.5 с коммутатором Cisco Nexus 1000V до ESXi 6.0.

При сканировании хостов ESXi 5.5 VMware Update Manager пишет «Unsupported configuration» без всяких пояснений. Для начала читаем /var/log/vua-*.log и ищем слово error:

--> <test>
--> <name>SANE_ESX_CONF</name>
--> <expected>
--> <value>True</value>
--> </expected>
--> <found>
--> <value>False</value>
--> </found>
--> <result>ERROR</result>
--> </test>
--> ERROR:root:could not get system uuid
--> ERROR:root:Skipping VMFS version check. Couldn't get filesystem list: (256) Errors: 
--> Unable to resolve hostname 'vbackup02'

Поиск по ошибке выдает статью Upgrading to VMware ESXi 5.x fails with the error: Error in ESX configuration file esx.conf (2011588).

Подтверждаем, что ошибку определили верно:

~ # esxcfg-info | grep 'System UUID'
Error: Unable to resolve hostname 'vbackup02'

Открываем файлик /etc/vmware/esx.conf и видим:

/nas/VeeamBackup_vbackup02/readOnly = "false"
/nas/VeeamBackup_vbackup02/enabled = "true"
/nas/VeeamBackup_vbackup02/share = "/VeeamBackup_vbackup02"
/nas/VeeamBackup_vbackup02/host = "vbackup02"

При использовании технологии Veeam Instant Recovery создается и монтируется к хостам NAS-хранилище. Если же вы сменили сервер Veeam, а хранилище отмонтировали, то наивно думать, что в конфигурации ESXi произошли все требуемые зачистки.

Удаляем лишние строки и сохраняем файл. Делаем проверку, что проблема ушла:

~ # esxcfg-info | grep 'System UUID'
|----World Command Line...grep System UUID
|----System UUID...51d560ed-d21d-176e-d080-3440b5e48bc8

Запускам сканирование заново.

Описание аналогичной ситуации для любителей английского Unsupported Configuration when using VUM for a Major Upgrade.

VMware Tools в ESXi 6.0 против Dutch Windows

$
0
0

Уже четвертый акт нашего балета с vSphere 6.0.

В результате третьего акта Обновление хостов ESXi 5.5 до ESXi 6.0 против Veeam NAS мы получили хосты, виртуальные машины на которых потребовали обновления VMware Tools.

После запуска PowerCLI-скрипта с массовым обновлением компонента интеграции

$VM=Get-VM | Get-View | Select-Object @{N="VM Name";E={$_.Name}},@{Name="VMware Tools";E={$_.Guest.ToolsStatus}}
$vm |? {$_."vmware tools" -eq "toolsold"} |ForEach-Object {get-vm $_."vm name" |Update-Tools -NoReboot}

наша система мониторинга начала казать сетевую изоляцию некоторых хостов.

Анализ ситуации показал, что обновление VMware Tools приводит к удалению старой версии вместе в драйверами, в том числе vmxnet.

Установка старой версии VMware Tools проходила успешно.

Копание логов выявило странную закономерность между успешной и не успешной установкой.

Корявая установка пишет в лог (логи смотрим в %temp%\vminst.log и vmmsi.log_date_Failed.log :

2015-06-11 12:33:54| tools-build-2627939| Begin Logging
2015-06-11 12:33:54| tools-build-2627939| --- VMStopVMwareProcesses2kXp() : Stopping VMware processes with RunAs
2015-06-11 12:33:54| tools-build-2627939| Getting Property CustomActionData = c:\Program Files\VMware\VMware Tools\
2015-06-11 12:33:54| tools-build-2627939| WTSQueryUserToken failed 1245
2015-06-11 12:33:54| tools-build-2627939| GetLoggedOnUserToken returned null - launch failed
2015-06-11 12:33:54| tools-build-2627939| Found "c:\Program Files\VMware\VMware Tools\vmtoolsd.exe"
2015-06-11 12:33:54| tools-build-2627939| Attempting to launch ""c:\Program Files\VMware\VMware Tools\vmtoolsd.exe" -n vmusr --kill"
2015-06-11 12:33:55| tools-build-2627939| Child exited with code 0
2015-06-11 12:33:55| tools-build-2627939| End Logging

А в нормальной встречается подозрительная запись:

 2014-10-20 16:53:2(nerd) instUtils-build-2068191| Getting Property CustomActionData = c:\Documents and Settings\All Users\Application Data\VMware\VMware Tools\tools.conf|Administrators:268435456:Everyone:1179817;

После этого надо понять, что у нас стоит не английская версия Windows, а, к примеру, голландская, что поможет резко увеличить шансы поиска решения в базе знаний VMware.

Одно из самых странных обходных решений, виденных мною, описано в статье Installing or Upgrading VMware Tools version 9.10.0 (ESXi 6.0GA) on a Dutch version of Windows Server 2008 R2 fails with the error: VMware Tools Setup Wizard ended prematurely (2114476).

Суть решения:

  • Создать группу everyone.
  • Добавить в неё пользователя, от имени которого запускается установщик.
  • Установить VMware  Tools.
  • Удалить группу.

Вот только Windows у меня русский, версии 2003 R2, а ещё доменный контроллер на 2012R2, где локальную группу просто так не создашь…

А в остальном — метод работает. Не всегда, правда…

That’s a Dutch comfort!

Deprecated VMFS volume и vSphere 6.0

$
0
0

Если вы решите создать и подключить новый том к хосту с ESXi 6.0 и отформатировать его в самую распоследнюю версию VMFS, то получите жёлтый баннер:

Deprecated VMFS volume(s) found on the host. Please consider upgrading volume(s) to the latest version

Что удивительно, разработчики считают это «не багой, а фичей» в заметке In a VMware vSphere 6 environment, the ESXi hosts display a false positive warning: Deprecated VMFS volume(s) (2109735).

Hardware Status и vSphere 6.0

Veeam B&R и VMware vSphere 6.0

$
0
0

Компания обновила API по работе с тэгами, что привело к необходимости перенастраивать все задания резервного копирования, основанные на тэгировании в Veeam B&R.

Цитата из Release Notes for Veeam Backup & Replication 8.0 Update 2b:

vSphere 6 tags integration. vSphere 6 introduces new APIs for programmatic access and management of vSphere tags. With vSphere 6 tag support, you can continue building new advanced backup policies based on tags, even after you upgrade to vSphere 6. Due to new unique tag IDs in vSphere 6, be sure to review your job setup after upgrading to vCenter Server 6.0 and running your jobs at least once to let them match tags automatically based on the tag name.


Свежее чтиво о VMware vSphere 6.0

$
0
0

За последний месяц вышло несколько документов, рекомендованных к прочтению о VMware vSphere 6.0:

Лицензирование Oracle под VMware vSphere

$
0
0

Доля тяжёлых RISC-системы падает (из RISC-овых архитектур растёт только ARM), а вот x86 занимает всё больше ниш, в том числе с такими ресурсоёмкими приложениями, как Oracle DB.

На данный момент  у меня Oracle DB работает на серверах с архитектурой IBM Power7. Данная платформа имеет отличную фишку по экономии средств на лицензирование СУБД за счет использования hard partitioning в соответствии с Oracle Partitioning Policy. При создании виртуальной машины (LPAR) в IBM PowerVM достаточно указать, что процессоры «выделенные» (Dedicated), не разрешать живую миграцию (Live Partition Mobility) и спокойно можно использовать 10 лицензий на 16 ядерном сервере.

А вот на плаформе x86 с политикой лицензирования Oracle полная каша. Возникает вопрос в определении  — что используется в текущий момент soft или hard partitioning? Ответ не так прост, так как всё зависит от настроек.

Честный hard partioning на платформе x86

Вариантов мне известно два:

  • Использование серверов Fujitsu или Hitachi с функцией logical partitioning.
  • Отключить процессор в BIOS/UEFI.

Hard partioning на платформе x86 для своих

Использование CPU Affinity в Oracle VM. Также рекомендую статью Hard and Soft Partitioning with Oracle VM.

Для Microsoft Azure разрешена license mobility.

Альтернативное лицензирование

Специальная политика лицензирования для облачных провайдеров.

Как превратить soft partitioning в hard при использовании VMware vSphere?

VMware выпускает специальный документ Understanding Oracle Certification, Support and Licensing for VMware Environments, который даёт ответ, что использованиие CPU Affinity по аналогии с Oracle VM позволяет лицензировать под Oracle DB только используемые ядра.
Юридическая сторона вопрос разобрана специалистами компании House of Brick Technologies, занимающейся аудитом использования лицензий, в статье Oracle Licensing: Soft Partitioning on VMware is Your Contractual Right.

Вывод

Для легального использования лицензий Oracle DB по количеству используемых ядер в виртуальной среде VMware vSphere необходимо:

  • отключить применение технологий vMotion, DPM, DRS для виртуальных машин с Oracle DB;
  • назначить посредством CPU Affinity необходимое количество ядер виртуальной машине, при включенном HT — можно добавлять допольнительно нечётные ядра;
  • в случае аудита лицензий, должна быть возможность трекинга перемещений виртуальной машины, что можно выполнить в vSphere без особых проблем.

На первый взгляд, кажется, что после прочтения всей этой кучи документов вопросов не осталось. Как бы не так….

Осталась ещё одна функия — HA, с точки зрения использования Oracle VM нет прямого запрета в документах Oracle использовать данный функционал и он разрешен, а вот VMware считает это перемещением виртуальной машины и советует отключать.

Если же под ногами денег куры не клюют и очень хочется использовать механизмы автоматического размещения и миграции виртуальных машин, то необходимо лицензировать все ядра на всех хостах, где может оказаться  Oracle DB.

Релиз VMware vSphere 6.0.0b

Массовое обновление VMware Tools вручную

$
0
0

Наш бложик уже упоминал о массовом автоматическом обновлении VMware Tools средствами PowerCLI.

А вот как массово обновить вручную идея пришла мне только вчера.

Почему может возникнуть такая задача? Например, нам надо выбрать с десяток виртуалок с разными версиями ОС и протестировать обновление, то вместо десяти запусков можно запустить одновременное обновление и отследить уже результаты.

Предлагаемый способ очень прост и не требует никаких дополнительных навыков:

  • выбираем в vSphere Client хост, кластер, папку или датацентр;
  • переходим к списку Virtual Machines;
  • сортируем виртуальные машины по полю State, так как нам нужны только включенные;
  • зажав Shift или Ctrl выбираем те, которые необходимо обновить;
  • щелкаем правой кнопкой мыши на одной и выбранных ВМ и выбираем Guest->Install/Upgrade Vmware Tools. При необходимости запрещаем перезагрузку через указание Advanced Options.
    vmtools_upg

vSphere и Powershell

$
0
0

Сегодня я хочу рассказать сразу о двух фичах, объединяющих vSphere и Powershell.

1) Для веб-клиента vSphere 6.0 (vSphere Web Client Version 6.0.0 Build 2559277), установленного как на VC, так и на VCVA, появился продукт, транслирующий выполняемые действия в командлеты PowerCLI. Называется этот продукт Onyx.

Onyx

2) Месяц назад появился плагин для веб-клиента PowerActions 1.5.0, поддерживающий vSphere 6 Web Client. Данный клиент работает с веб-клиентами, начиная с vSphere 5.1.

poweraction

Данный плагин позволяет выполнять PowerCLI-команды прямо в веб-клиенте vSphere.

P.S. Из полезных фич для веб-клиента я бы еще отметил ESXTOP-плагин.

esxtopNgcPlugin_500

Viewing all 339 articles
Browse latest View live