Проектирование сети для 3 — 6 стоек в ДЦ

Переезжаем с арендованных серверов в ДЦ с покупкой своего железа.
По серверам более-менее понятно, но по сети представление пока весьма расплывчатое, так как занимаюсь именно серверным администрированием, а не сетевым.
Проясните некоторые моменты, которые возможно являются даже базовыми в таких случаях.

Хостер дает нам питание и интернет. Все внутренние соединения, всю внутреннюю сеть надо сделать самому.
Cтоек будет от 3 до 6 для начала. Серверов порядка 60-70 штук.

На текущий момент думаю построить следующую логику сети:

2 WAN маршрутизатора (резервируют друг друга) -------> остальные свитчи.

Внутренюю сеть хочу сделать 10GbaseT для кластера баз данных и 1Gbps для всех остальных серверов.
Для 10GBaseT хочу взять Netgear M7100. Сетевый карточки на БД сервера — Intel E10G42BT X520-T2 10Gigabit Ethernet Card
Для соединения остальных серверов взять что-то вроде M5300-28G

Вопросы:
1. Надо ли что-то ставить в центр сети? Например, Netgear M7300 XSM7224S или объединить все свитчи через SFP порты на 10Gbps и замкнуть на WAN маршрутизаторы?
2. Какие граничные WAN маршрутизаторы выбрать?
3. Сетевые карты с двумя ethernet интерфейсами предназначены для аггрегации линков? Т.е. для приведенной Intel карты можно получить до 20Gbps на сервер?
4. Для IPMI брать отдельные свитчи со своей подсетью, которые будут отделены от основных?
5. Надо ли делать VLANы с учетом того, что серверная инфраструктура будет расти?
5. Как организовать failover в сети?

Любые дополнительные советы и рекомендации приветствуются.

Заранее спасибо!

UPD1:
Привязки и предпочтений вендоров никаких нет. Netgear привел для примеры, чтобы показать, что примерно нужно.
BGP трафик не планируется. VPN будет только один-два канала для административного доступа в сеть.
Структура трафика: веб-сайт с примерно 400k посетителей в сутки. Достаточно интенсивный трафик ожидается между серверами БД.
Остальные сервера уложатся в 1Gbps. Uplink 1Gbps. Трафик в среднем 300 с пиками до 700 Mbps.
  • Вопрос задан
  • 3450 просмотров
Пригласить эксперта
Ответы на вопрос 4
vvpoloskin
@vvpoloskin
Инженер связи
1. Смотрите на Cisco 4900M — отличное решение как раз для кучи серверов.
2. Смотря какой объем трафика предполагается на аплинк. И что вам надо от маршрутизаторов. Может вам кучу VPN надо будет? А может BGP Full View? А может тупо статический маршрут?
3. Да
4. Не понял вопроса
5. Конечно надо. Как минимум для активного мониторинга ИБП отдельный Влан напрашивается сам. Да и для обращения К кластеру БД отдельная сетка напрашивается.
6. смотря failover для чего нужен. Ответ «для всего» не принимается.

А вообще, если бюджет не волнует, берите какую-нибудь 65-ю циску, пихайте в нее модулей с нужным количеством портов каждого типа и будет вам счастье. У нее все зарезервировано будет, если денег не пожалеете)))
Ответ написан
@pavelsh
1. зависит от того, как организованны потоки данных в вашем случае. Если между стойками планируется большой трафик — ставьте два коммутатора в центр
2. Какой у вас трафик? Сколько пакетов в секунду, что за трафик, tcp/udp — нужно больше подробностей. Если у вас провайдер вам дает интернет по ethernet, то зачем вам маршрутизатор? Что и куда маршрутизировать будете?
3. в теории. Надо проверять.
4. Как минимум делать отдельный приоритетный vlan. Я бы поставил отдельную физическую сеть
5. Надо сначала понять какие задачи на серверах, какие потоки данных, а потом можно и vlan-ы делать.
6. Хм. Традиционно. Посмотрите как обычно строят сети для датацентров.

Если что непонятно — спрашивайте еще.
Ответ написан
IlyaEvseev
@IlyaEvseev
Opensource geek
Коммутаторы для стоек, в которых нужен 10г — DGS-3420-28TC, dlink.ru/ru/products/1/1468_b.html

Для стоек с гигабитом — DGS-3120-24TC, dlink.ru/ru/products/1/1366_b.html (SFP+ отсутствует, т.е. если в ядре будет железка без гигабитных портов, то потребуется промежуточная).

Ядро — Extreme Summit X650, extremenetworks.com/products/summit-x650.aspx
Ответ написан
Комментировать
@nemo0x2102
Оренбург
Если вы сомневаетесь в своих способностях правильно рассчитать сеть для северной рекомендую к более опытным людям. Они проведут анализ вашей системы(потоки и тип трафика, пиковые нагрузки на критически важных сервисах и т.д.) и предложат несколько решений - требуйте не менее 2х. Вы выберите то которое больше устроит и они сделают проект по нему.
Далее садитесь и считаете:
берёте стоимость проекта, делите на 15 лет (средний жизненый цикл сети) и прибавляете ежегодную стоимость обслуживание собственной серверной инфраструктуры:
- зарплата сетевику
- каналы интернет (основной и резервный)
- система бесперебойного питания: замена аккумуляторных батарей и обслуживание дизеля
- системы охлаждения (например ТО кондиционеров)
- смартнет или аналог в зависимости от вендора на ключевые железки
- сигнатуры для IPS + защита от DDoS
- электропотребление всего это хозяйства

Полученный результат сравниваете с тем что вы платите за колокейшн. Только после этого принимайте решение о собственной серверной. Если суммы незначительно отличаются то, на мой взгляд, предпочтительно остаться в ДЦ.

Без знания вашей системы очень сложно дать конкретные рекомендации.

P.S. если несложно пишите к чему вы в итоге пришли это будет очень полезным дополнением к вопросу
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы