Такс, если рассматривать практическую сторону, то:
1. У вас обязательно грамотно построена сеть, с разнесением всё на отдельные сегменты и делением на уровень доступа и ядро. Это могут быть как простые гигабитные свичи, так и что-то более серьёзное (отдельно l2 коммутаторы, ядро - на l3) решение. Все вайфай сети отдельно, телефония отдельно. Несколько провайдеров с автопереключением. Между офисами (если их несколько) туннели с IPSec и OSPF, ведь у вас обязательно по два канала в каждом удалённом офисе. Внутри локальных сетей у вас обязательно протокол семейства stp следит за петлями и сходимостью, и нигде нигде нет простых "мыльных" коробок аля дес1004 или что там сейчас помоешного выпускает длинк? Вся коммутация сделана заранее и ве имеющиеся порты заранее обспечены линком и вся сеть, что самое главное, к такому повороту готова.
2. Хранение. У вас обязательно разнесено хранение данных от вычислительной обработки. Хотя бы на уровне абстракции (хотя в идеале - физически это разное железо). Хранение рассчитано на текущую нагрузку плюс резерв на момент наращивания мощностей (грубо говоря пока едут дополнительные диски - вы не упали под нагрузкой если вдруг припёрло). Доступы у вас через отдельные ip сети или через fc san (имхо, в данный момени это очень рядом). СХД умеет делать снепшоты и тонко выделять ресурсы. Так же она умеет а\синхронно реплицироваться (и у вас есть куда). Хранилка имеет +1 питание, +1 диск каждого типа и +1 голову контроллера. А так же +1 линк до вычислителей.
3. Вычисление. У вас есть отдельные одинаковые железки на которых благодаря виртуализации вы развернули ферму вычислителей для основной ИС, а так же крутите всё ваше многообразие почтовых серверов и контроллеров домена. (кто-то скажет что КД в идеале крутить физически, возможно). Сервера рассчитаны с запасом минимум 1 штука, чтобы можно было смело смигрировать виртуалки и опустить его в мейнтейм.
Про софт тоже могу накидать если нужно.