Переезжаем с арендованных серверов в ДЦ с покупкой своего железа.
По серверам более-менее понятно, но по сети представление пока весьма расплывчатое, так как занимаюсь именно серверным администрированием, а не сетевым.
Проясните некоторые моменты, которые возможно являются даже базовыми в таких случаях.
Хостер дает нам питание и интернет. Все внутренние соединения, всю внутреннюю сеть надо сделать самому.
Cтоек будет от 3 до 6 для начала. Серверов порядка 60-70 штук.
На текущий момент думаю построить следующую логику сети:
2 WAN маршрутизатора (резервируют друг друга) -------> остальные свитчи.
Внутренюю сеть хочу сделать 10GbaseT для кластера баз данных и 1Gbps для всех остальных серверов.
Для 10GBaseT хочу взять
Netgear M7100. Сетевый карточки на БД сервера —
Intel E10G42BT X520-T2 10Gigabit Ethernet Card
Для соединения остальных серверов взять что-то вроде
M5300-28G
Вопросы:
1. Надо ли что-то ставить в центр сети? Например,
Netgear M7300 XSM7224S или объединить все свитчи через SFP порты на 10Gbps и замкнуть на WAN маршрутизаторы?
2. Какие граничные WAN маршрутизаторы выбрать?
3. Сетевые карты с двумя ethernet интерфейсами предназначены для аггрегации линков? Т.е. для приведенной Intel карты можно получить до 20Gbps на сервер?
4. Для IPMI брать отдельные свитчи со своей подсетью, которые будут отделены от основных?
5. Надо ли делать VLANы с учетом того, что серверная инфраструктура будет расти?
5. Как организовать failover в сети?
Любые дополнительные советы и рекомендации приветствуются.
Заранее спасибо!
UPD1:
Привязки и предпочтений вендоров никаких нет. Netgear привел для примеры, чтобы показать, что примерно нужно.
BGP трафик не планируется. VPN будет только один-два канала для административного доступа в сеть.
Структура трафика: веб-сайт с примерно 400k посетителей в сутки. Достаточно интенсивный трафик ожидается между серверами БД.
Остальные сервера уложатся в 1Gbps. Uplink 1Gbps. Трафик в среднем 300 с пиками до 700 Mbps.