Сергей: вот эти радостно-оранжевые кабели на вашей картинке -- именно они и являют собой моего кабельного демона серверной комнаты. Их-то я в стены уже не запихаю. А обрезать, дергать остатки из патч-панели и расшивать ее заново -- это слишком дорого обойдется и мне, и компании.
И все еще не понимаю, чего вы до запаса докопались.
Сергей: так весь этот балаган как раз на коммутационную панель и заведен. Она висит себе внутри стойки и радует глаз своей элегантностью и простотой. А значительно менее элегантный километровый излишек кабеля лежит уже ЗА ней и уходит в стены, потолок, параллельное измерение и магазин с другой стороны здания.
alex_ak1: в IPMI можно примонтировать виртуальный флоппик. Удобная штука как раз для вашей задачи. Или можете запихнуть дрова на ваш контроллер в образ ОС средствами DISM, MDT или чего еще душе угодно. Думаю, в будущем может пригодиться.
С актуальными версиями ОС обычно меньше возни с актуальным железом. Та же 2012 на такую плату встает совершенно без труда, да еще и сама потом слегка протухшие, но все еще рабочие драйвера из Windows Update подтягивает.
Не поймите неправильно, я не топлю за latest & greatest, просто на новых версиях геморроя меньше.
Привык оставлять везде запас. Тем более в "динамично развивающейся компании" -- при добавлении второй стойки первую явно придется немного подвинуть. Как раз примерно на полметра. И это вполне реальная ситуация -- за 2 года здесь количество железа увеличилось вдвое, первая стойка почти заполнена.
GraphiteLeader: Так а что, простите, тут разделять? vSphere Free даже для SMB пригодна не будет из-за отсутствия возможности нормально все это дело бэкапить (API в бесплатной редакции закрыты). Hyper-V Free -- это обычный Hyper-V, но без "бесплатных" гостевых лицензий и без GUI. SC VMM может работать как с Hyper-V Free, так и с Windows Server с установленной ролью Hyper-V. vSphere Free нельзя управлять через vCenter. В случае с Hyper-V разделять смысла нет.
GraphiteLeader: Вы не поверите, какое количество компаний предпочитают экономить на лицензиях ПО виртуализации именно с помощью современных монструозных процессоров Intel. Вместо, грубо говоря, стойки серверов предыдущих поколений устанавливается 4-6 сервера с новыми 2 х 12+ ядер процессорами (или вообще что-нибудь вроде Supermicro Twin), которые целиком отбивают свою стоимость исключительно затратами на необходимые лицензии.
Именно по этой причине WS 2016 уже будет лицензироваться по количеству ядер, да и от VMware слухи не самые приятные идут.
"В моем опыте не разу не было чтоб какое-то серверное железо не дружило с ESXi если железо было выпущено до релиза ESXi." https://www.reddit.com/r/vmware/comments/2799p4/ro...
Столкнулся с точно такими же проблемами в лабораторной среде с контроллерами Dell h310.
Вы вот ну совсем не правы насчет "ESXi сам по себе бесплатен": www.vmware.com/au/products/vsphere/compare.html -- это различия платных версий. В бесплатной версии заблокированы всевозможные API, из-за чего даже бэкапить виртуальные машины прийдется исключительно ручками и скриптами. Хорошо хоть ограничения на виртуальную ОЗУ сняли (однако все еще не более 8 ядер на ВМ).
Бесплатная версия Hyper-V не имеет никаких ограничений вовсе. Вообще. Никаких.
Малому бизнесу, чтобы воспользоваться даже бесплатной версией ESXi, потребуется как минимум иметь совместимый рейд-контроллер. Винда же сама себе соберет клевый софтовый рейд (Storage Spaces) -- по крайней мере получше, чем на low-end контроллерах вендоров серверного оборудования -- и разница в потреблении ОЗУ (2-3 ГБ) стоит уж точно меньше, чем какой-нибудь LSI 9260.
Короче, простите, не убедили. Проброс USB и любых других устройств -- это больное место Hyper-V. Но, опять же, Hyper-V банально дешевле.
ESXi бесплатен в крайне малых масштабах, Hyper-V сам по себе бесплатен в любых масштабах (бесплатная версия не имеет ограничений).
Бесплатная редакция Hyper-V отличается от Датацентра только количеством включенных лицензий виртуальной винды сверху. Даже в случае виртуальных машин на линуксе Hyper-V все равно дешевле.
Настоящую отказоустойчивость стоит строить на уровне приложения, а не гипервизора, но вы правы.
Артем: Почему-то только сейчас до меня дошло, что я ошибся.
Выход одного JBOD'а из строя допускается при наличии ТРЕХ полок в mirror pool. Не двух, как я ответил раньше.
m2_viktor: Я тоже выше "сети для самых маленьких" не ушел — нет нужды в моей работе. Но jidckii вам правильно написал: если есть понимание, как именно это работает (а "сети для самых маленьких" дают очень хорошее понимание), становится без разницы, какая конкретно железка или топология перед тобой.
Кирилл Будевич: PRO вам точно не понадобится, берите лучше большую емкость. Нигде в спецификациях не нашел, сколько у 535 интела расчетная "живучесть" на запись.
SyavaSyava: dimonchik2013: Чтобы сущности не плодить, спрошу тут: а можно логи перфмона собирать тем же заббиксом, например? Я не пытался гуглить этот вопрос, так, навскидку.
alovanton: К сожалению, с таким не сталкивался, т.к. весь мой опыт с ESXi сводится к виртуальным лабам. Попробуйте обновить драйвера и прошивку контроллера, на всякий случай проверьте кабели к дискам (показатель CRC Error count в S.M.A.R.T. дисков). Краткий гугл показывает, что вы не один с такой проблемой, попробуйте форумы vmware почитать.
И все еще не понимаю, чего вы до запаса докопались.