Задать вопрос
Ответы пользователя по тегу Серверное оборудование
  • Как располагать стойки / шкафы в цоде?

    @Komrus
    CIO в системном интеграторе.
    Если говорить про шкафы, теплоизбытки с каждого шкафа.

    0) Современные 19" сервера рассчитаны на подачу к ним холодного воздуха спереди и выдув горячего воздуха (уже силами собственых вентиляторов) - сзади.
    Используется термин Airflow Front-to-back.
    Исходя из этого и серверные 19" шкафы делают: достаточно глубокие и с СИЛЬНО перфорированными передней и задней дверью (чтобы не мешать движению воздуха).
    Размер шкафа - глубина - не менее 1000 мм (лучше - 1200 мм); ширина - 800 мм (чтобы спокойно установить вертикальные PDU и расположить все кабели) Высота - 42 или 47U.
    Всякие вертикальные органайзеры, PDU, подсветка, полочки - настоятельно рекомендуются.
    Требуемое место спереди шкафа - чтобы выкатить на штатных салазках сервер. Сзади - чтобы подойти человеку и скоммутировать, что надо. Желательно полтора метра - спереди и метр - сзади.

    Шкафы с вентиляторами в крыше (и стеклянной дверью) - это для коммутационных шкафов. Где много-много патч-панелей и парочка коммутаторов с непонятным airflow и тепловыделением в пределах сотен Ватт.

    1) Холодные/горячий коридоры - это когда есть достаточное количество шкафов, чтобы их в линию выстроить. И подавать холодный воздух тем либо иным способом к передней стороне ряда шкафов.
    Изолировать какой-либо из этих коридоров - когда тепловыделение с отдельного шкафа велико, а также - когда боремся за энергоэффективность (увеличиваем кап.затраты, уменьшаем операционные затраты)

    2) Куда и какие вешать кондиционеры, как расставить шкафы - зависит от фактического (и перспективного) тепловыделения от серверов/СХД/коммутаторов...

    2.1) Если "просто серверная" с несколькими серверами и тепловыделением в пару киловатт со стойки - вешаем сплит систему. Полупром или даже хорошую бытовую. Но ОБЯЗАТЕЛЬНО с зимним пакетом до -30. Ибо серверам не объяснишь, что за стенкой - зима :). Учесть, что летом, в +30 фактическая холодопроизводительность кондея несколько меньше заявленой. Плюс стенки/потолок помещения нагреваются и тоже дают теплопритоки. В общем - раза в полтора запас по холодопроизводительности надо иметь от перспективных теплоизбытков от серверов. Плюс - кондеев неплохо бы парочку поставить. С блоком ротации.
    Вешаем так, чтобы дуло более-менее на лицевую сторону шкафа. Шкафы ставим, как позволяет имеющееся помещение (с учетом сказанного в п.1)

    2.2) Если более 5 КВТ на стойку намечается - то с висящими на стенке кондиционерами могут начаться чЮдеса. Из серии "верхние сервера в 19" шкафу хорошо охлаждаются, а у нижних датчик перегрева орёт". И с постоянными танцами с оптимизацией воздушных потоков тем либо иным способом. Надо бы или раскидать на бОльшее количество стоек, либо начинать думать о чём-то вроде фальш-пола. Из под которого будет холодный воздух дуть. И прецизионные кондеи, которые будут под этот фальш-пол холодный воздух загонять.
    Или изолировать холодный коридор и туда канальными кондиционерами холодный воздух загонять.

    2.3) Если более 10 КВт на стойку - лучше на специализированные внутрирядные кондиционеры смотреть. В комплекте с изоляцией коридора. Которые устанавливаются с один ряд в 19" серверными шкафами между этими шкафами (кондеи имеют высоту как серверный шкаф, а ширину - 300 либо 600 мм). Кондеи забирают горячий воздух из горячего коридора, охлаждают его и закидывают в холодный коридор.
    Если речь об одном-двух шкафах идёт, места мало, а напихать надо много - бывают готовые решения "ЦОД-в-шкафе". Шкаф с внутришкафным кондиционером, кабель-менеджментом, блоками PDU (розеток) и даже - опциональным газовым пожаротушением.

    2.4) Ну а больше 20 Квт на стойку - ОЧЕНЬ внимательно проектировать надо. Airflow, CFD-моделирование воздушных потоков, отказоустойчивость и т.п. Ибо случись что - перегреется в момент...
    Ответ написан
    3 комментария
  • Какие нормы регулируют температуру в серверной?

    @Komrus
    CIO в системном интеграторе.
    Про наши - написали выше.
    Из междунпродных наиболее часто используемый -
    TIA-942-C Telecommunications Infrastructure Standard for Data Centers

    Дополнение:
    А стандарт TIA-942, если углубиться - ссылается на ASHRAE TC 9.9 :)

    В ASHRAE - общие рекомендации - "от 18 до 27 градусов Цельсия" и целая таблица с уточнениями допустимых вариантов. В зависимости от важности ЦОДа. Вплоть до +45 :)

    Ибо сервера +27 на входе нынче спокойно переваривают, а на энергоэффективность ЦОДа поддержание +27 вместо +18 - влияет самым позитивным образом. А это, для больших ЦОДов - ощутимая экономия...

    Но с другой стороны - надо прикидывать допустимые диапазоны температур в зависимости от: объёма помещения; теплоизбыктов; уровня резервированности системы кондиционирования; висят ли кондиционеры на ИБП...

    Ибо в маленьком тесном высоконагруженной контейнерном ЦОДе при поддержании +25 - мяукнуть не успеешь, как при любой проблеме с кондиционированием температура улетит за допустимые пределы.

    А в большом ангаре, даже не с самой надёжной холодилкой - есть запас по времени на ремонт охлаждения...
    Ответ написан
    1 комментарий
  • Какой можете посоветовать ИБП для серверной?

    @Komrus
    CIO в системном интеграторе.
    Из не особо дешёвого - есть привычный APC/ Schneider Electric. Он теперь называется Systeme Electric :)

    Есть пачка китайских железок. INVT, CyberPower, PowerCom

    Есть разной степени российскости железки - ДКС, Ермак, Парус...

    Просто такой мощности - это достаточно расхожее оборудвоание и делают его много=-много разных производителей.
    Ответ написан
    2 комментария
  • Модификация сервера HPGen 9?

    @Komrus
    CIO в системном интеграторе.
    1) Желательно уточнить полную марку сервера (между "HPE" и "Gen9" будет какой-нибудь DL180 ещё...
    2) У HPE у компонентов - может быть много артикулов (при заказе в составе изделия, при заказе отдельно, при заказе через сервис-центер). У рассматриваемой Вами памяти будут варианты артикулов что-то вроде
    836220-B21, 846740-001, 809081-081
    Если искать родную HPE - то по ним посмотреть...
    3) Есть фирмы типа Kingston - выпускают совместимую память для различных брендовых серваков.
    Ангалог для рассматриваемой памяти вроде как KTH-PL424/16G
    4) Лучше посмотреть Quick Ref guide на ваш сервер и выбрать рекомендуемые сочетания модулей памяти.
    Возможно - имеет смысл взять все одинаковые модули (например 4 шт по 32 Гб ECC - запас карман не тянет), убрав имеющиеся.
    Ответ написан
    Комментировать
  • Структура и железо для 1С и MS SQL + терминал, как лучше?

    @Komrus
    CIO в системном интеграторе.
    0. Попробуй уточнить у руководства фирмы - сколько стоит час (или сутки) простоя (неработоспособности 1С). Пусть оценят.

    1. Скорее всего, для 1С (на которой крутится вся повседневная работа организации) основной акцент - на надёжность. Тогда лучше использовать специализированное серверное железо. В частности - с дублированными блоками питания.
    Ответ написан
    1 комментарий
  • Подбор железа для видеосервера?

    @Komrus
    CIO в системном интеграторе.
    1. "Ещё какие-нибудь опции" - есть понимание? Если захочется иметь возможность распознавания лиц (отличать Иванова от Сидорова) - это уже другие требования к железу...

    2. Софт видеонаблюдения какой будет- выбран ли уже? С учётом п.1

    3. Определяясь с пп 1 и 2 - рекомендую посмотреть на готовые видеорегистраторы. Надежнее будет.И по цене, скорее всего, получется интереснее.
    Ответ написан
    1 комментарий