Переставил свитч в слот Bay 4 (благо на нём сейчас мало что рабочее было)… Теперь, те лезвия которые смотрели на Bay 3, смотрят и на Bay 4. Но те, кто «висел» на Bay 5, продолжают просить его и на 3 и 4 отсеках не видны. Лезвие перезагружал и перткнул. Без результата.
Это потому что у вас в блейд серверах нижнего ряда FC адаптеры установлены в мезанинный слот 2, а в блейдах верхнего — в мезанинный слот 1. Просто откройте крышку нижних блейд серверов и переставьте адаптер из мезанинного слота 2 в мезанинный слот 1.
Вот эта картинка должна вам лучше дать понять, как мапятся адаптеры и порты блейдов к интерконнектам.
Пока действует поддержка, клиент может обращаться в официальный саппорт при возникновении проблем с работой продукта, а также обновляться на новые выпускаемые мажорные версии ПО.
Касаемо мониторинга производительности ВМ и серверов можно использовать vCenter Operations Management Suite а редакции Foundation, которая идет в составе всех редакций vSphere. Мониторниг работоспособности компонентов серверов можно выполнять как из vCOM и vCenter Server, так через интерфейс удаленного управления сервером (iLO, DRAC, IPMI и пр.), используя стороннее ПО. Например, для серверов HP подойдет Systems Insight Manager, у других производителей есть похожие решения.
Для варианта, который был на картинке в исходном вопросе:
RDS CAL — 40 шт. по 90$ каждая
Windows Server 2012 CAL — 40 шт. по 30$ каждая.
Windows Server 2012 Standard — 5 шт. по 900$ каждая.
При таком бюджете я бы ориентировался на Microsoft Hyper-V 3.0 (Windows Server 2012).
Из плюсов:
Гипервизор не требует покупки дополнительных лицензий и предоставляется бесплатно (Hyper-V Server) или в составе с ОС.
Поддерживается миграция ВМ «на живую» — Live Migration, в том числе, в варианте без общего хранилища (хотя в вашем случае лучше использовать внешнее хранилище, например, HP StorageWorks P2000sa G3 MSA или аналогичное).
Поддерживается создание отказоустойчивого кластера FailoverCluster для перезапуска ВМ на других узлах кластера в случае отказа физического сервера.
Есть возможность создавать реплики ВМ на другом сервере (Hyper-V Replica) для организации катастрофоустойчивого решения.
Поддерживается создание «больших» ВМ (до 64 виртуальных процессоров, до 1 ТБ оперативной памяти, вирутальные диски до 64 ГБ).
Есть возможность делать NIC Teaming встроенными в ОС средствами (с балансировкой, отказоустойчивостью), а также тегирование VLAN. Плюс к тому, в Q1 Cisco обещает выпустить собственный виртуальный коммутатор Nexus 1000v и под платформу Hyper-V.
Минусы:
На текущий момент еще не выпущены средства для централизованного управления Hyper-V 3.0 (в частности SCVMM 2012 SP1).
Проброс USB устройств потребуется осуществлять сторонними средствами (USB over IP, USB over Ethernet, USB Anywhere).
Следует посмотреть, находится ли ваш Linux в списке поддерживаемых ОС на данном гипервизоре.
Дополнительно:
Следует заранее предусмотреть — каким образом и куда будет выполняться резервное копирование данных. Для резервного копирования ВМ можно использовать сторонние решения, например, Veeam Backup & Replication 6.5.
Для централизованного управления на текущий момент можно использовать сторонние решения, например, 5nine Manager for Hyper-V.
Не обязательно Memory\Page Faults/sec означают своппинг и недостаток памяти. Проверьте кол-во свободной ОП, а также очередь к диску (LogicalDisk\Avg.Disk Queue Length) на котором размещается файл подкачки. Если памяти мало, а очередь большая — значит своппинг и нужно смотреть, какой процесс отъедает всю ОП или просто добавить еще.
Доп. вопрос — если оставить название домена прежним — нужно ли будет перезаводить машины в новый домен?
Никогда при разделении инфраструктуры AD не следует оставлять имя существующего и нового домена одним и тем же. Это усложнит перенос, да и потом сильно жалеть будете.
Если точнее, то vRAM Entitlement ограничивают не ОЗУ в конкретном физическом сервере, а максимальное количество памяти, которое может быть выделено всем виртуальным машинам в пуле (в пределах сервера vCenter). Каждая лицензия добавляет определенный объем памяти в пул, например, Enterprise Plus — 96 ГБ, таким образом, 10 лицензий Enterprise Plus позволяют запустить ВМ на 960 ГБ суммарно, неважно, в каких серверах и в каких пропорциях эта память установлена.
Насчет XenClient не уверен, но, например, в VMware Workstation или VMware Player такое сделать можно, открыв две консоли VMware Workstation/Player и запустив в каждой из них по ВМ в полноэкранном режиме.
Наоборот, имелось ввиду, что обычно перемещаемые профили нужны как раз для фермы терминальных серверов, чтобы пользователь имел идентичное окружение независимо от того, к какому терминальному серверу подключился. А для ТК, на которых пользователи работают локально, перемещаемые профили отключают, т.к. те имеют ограниченный дисковый объем и используются только для подключения к терминальным серверам.
Veeam позволяет открыть бекап встроенными средствами и достать нужные файлы или папки. Насчет СУБД MS SQL немного сложнее, он поднимает из бекапа ВМ в изолированной среде и, опять же, встроенными средствами лезет внутрь и достает нужные данные. Для тех пиложений, для которых нет встроенных средств (MySQL), Veeam просто поднимет ВМ, а дальше администратору самому потребуется залезть внутрь и достать необходимые данные.
На вопрос ниже — Для Windows машин в момент бекапа внутри ВМ создается VSS снэпшот, поэтому данные приложений получаются консистентными. Для Linux — машина кладется в suspend.
У HP есть такая вещь как HP Product Bulletin. По GPL двухнодовый кластер на 16 TB (в каждой ноде по 8-мь 1 TB, 7200 RPM SAS дисков) будет стоить 30000$. Реальная цена может сильно отличаться как в большую так и в меньшую сторону.
VMware не умеет эмулировать Intel VT-x или AMD-V. Вы путаете с настройками, позволяющими отключить VT-x/AMD-V и/или EPT/RVI для отдельных виртуальных машин.
Ни один гипервизор физически не может эмулировать аппаратную виртуализацию, потому что архитектура процессоров просто не позволяет этого сделать. Максимум, что можно — это поставить внутри ВМ гипервизор, поддерживающий binary tranlation, и запустить на нем ВМ. Так позволяют делать продукты VMware, но не KVM.
Это потому что у вас в блейд серверах нижнего ряда FC адаптеры установлены в мезанинный слот 2, а в блейдах верхнего — в мезанинный слот 1. Просто откройте крышку нижних блейд серверов и переставьте адаптер из мезанинного слота 2 в мезанинный слот 1.
Вот эта картинка должна вам лучше дать понять, как мапятся адаптеры и порты блейдов к интерконнектам.