Ответы пользователя по тегу Серверное оборудование
  • Raid 6, zfs proxmox. Несколько вопросов...?

    @RStarun
    Что означает ZFS на самом контроллере?
    HBA mode passthrough für ZFS, Ceph, MS StorageSpaces, vSAN.


    Это означает что для storagespaces, vsan и т.п. необходим режим работы контроллера - HBA. В некоторых случаях это ограничение обходят создавая raid0 из каждого диска и предоставляя ОС такие диски, но это крайне не рекомендуемый вариант и он очень опасен. ОС в этом случае не узнает о проблемах на диске никак и не сможет спасти рейд.

    Если вы планируете использовать программный рейд (storagespaces/vsan/...) то можно купить просто HBA sas, он значительно дешевле.

    С ZFS не работал, но, насколько я помню, там часть фишек тоже связана с возможностью управления самими дисками. И используя аппаратный raid вы лишаетесь части гибкости и устойчивости ZFS. Думается у ZFS тоже должен быть tiering, ssd caching, гибкое управление емкостью и т.п.

    Хотя в плане "настроил и забыл" аппаратные решения значительно легче и лучше.
    Ответ написан
    Комментировать
  • Как рассчитать серверное пространства, для виртуальных сервисов на базе Win Serv 2022 16 ядер?

    @RStarun
    Лучше исходить из поставленых задач.
    Вот есть у вас задача - AD DC поднять. Она понятна и для нее есть рекомендации от вендора. Там вендор прописывает сколько CPU надо на каждую тысячу юзеров и т.п. В целом один DC заберет у вас 2 ядра и 2 гига, может чуть больше. 80 гб пзу, пусть SSD.
    При это использование одного DC не рекомендуется, желательно иметь 2 шт. И по возможности на разных железках. Если нет второго hyper-v, то найдите любой ПК для этих целей.

    Облачный файлообменник это что-то на linux скорее всего будет. Тот же nextcloud. Ну то есть у МС есть sharepoint, но его поднять и сопровождать это отдельную команду нужно. (может windows storage server что-то может, но их мало в продакшн) Требования есть. Грубо 2 гига, 2 ядра. Емкость - неизвестно сколько вы планируете хранить информации. Ну пусть 2 тб. медленных hdd

    Еще можно просто общие папки, они прекрасно доступны в локалке, а удаленно к ним получать доступ через VPN. Решает примерно те же задачи, но уже не "облачное" решение.

    Почту проще держать у внешнего сервис провайдера. Лучше не тащить ее в дом. Если хочется почту на MS, то это exchange. Дорого, богато. Требования как и у всех, зависят от нагрузки. Без 2х процессорного сервера с 256 гигами лучше не подходить. На старых версиях работало с 64 гб и 8 цпу, емкость по 100-300 гб на юзера. HDD + OS на SSD 200 гб.

    Веб сайт можно впихнуть куда угодно. Но зависит от .... сюрприз - нагрузки! Требования к веб сайтам тоже есть у всех cms, движков и тп. В среднем 2 гига, 2 ядра, 100 гб ssd :) для визитки достаточно. Только, как и с почтой, рекомендация - разместить у хостера и не знать горя.

    Под контролем доступа непонятно что имеется в виду. Есть системы для служб безопасности, они отслеживают кто в какой файл полез, какие изменения внес и много чего еще. Это отдельные железяки и много. Стоимость софта затмевает стоимость железок. Если просто прокси + дать доступ к вконтакту или заблокировать, то usergate умеет. Ну или Squid на Linux. Usergate 4 цпу, 10 гб, 300 гб SSD.

    Kaspersky Security Center тоже может, но менее гибко и нужно много времени на обучение. Но вам все равно антивирус ставить, так что под него закладываем еще 4 цпу, 8 гб, 300 гб SSD.

    У MS ранее был продукт ISA - для контроля доступа к интернет ресурсам. Это ооочень давно было. С тех пор нет вроде ничего такого.

    Linux машины прекрасно на WS Hyper-v поднимаются и работают если что.

    А еще это все ведь бэкапить нужно время от времени. И под это нужно емкость посчитать раза в 3 превышающую данные самих сервисов. Ну и подумать как, чем и куда бэкапить.
    Ответ написан
    Комментировать
  • Запуститься ли сервер?

    @RStarun
    Идея так себе. Спрашивать мнение в интернетах. Ответственность за потраченные деньги Вася Пупкин с Хабра будет нести? Regard хоть как-то потом сможет ответить, ну хоть промычать.
    Отвечая на ваш вопрос - взлететь вроде должно.
    • Кулер не всегда в базе платформы идет, нужно читать
    • Памяти не надо по 8 гиг брать, берите по 32 хотя бы.
    • Диски по 8 тб в рейде будут перестраиваться так долго что успеет сдохнуть еще диск. Берите по 6 тб, но большее количество.
    • 2 тб непонятно зачем, хотя в целом задачи не указаны
    • про ssd люди пишут
    • Intel РФ не любит, может лучше Supermicro? А то потом VPN для скачивания дров использовать.
    Ответ написан
    Комментировать
  • Если накроется raid контроллер, то можно восстановить рейд заменивши на идентичный контроллер?

    @RStarun
    Вероятность того что рейд контроллер сдохнет крайне мала. Она ниже чем вероятность выхода из строя нескольких дисков или сервера в целом.
    У каждого рейд контроллера есть документация. В ней указано можно ли заменить адаптер. Например у контроллеров HPE обычно есть возможность апгрейда. То есть новый raid контроллер увидит диски от старого и сможет импортнуть их к себе. Но в документации оговаривается с каких версий ПО и на какие это поддерживается.

    В любом случае правильный ответ будет вопросом - а зачем вам такая информация? Правильное решение на случай выхода из строя сервера или контроллера это бэкап данных не на этот же сервер.
    Ответ написан
    Комментировать
  • Сервер для 1с предприятия?

    @RStarun
    Количество юзеров у вас небольшое. По соотношению производительность/стоимость конечно же мощный ПК сделает сервер если не в разы, то около того. То есть вы можете поставить ПК на базе последнего поколения Ryzen/i7 и вам этого наверняка хватит. Стоить будет значительно дешевле сервера начального уровня и работать будет значительно шустрее. Но возникает вопрос администрирования и надежности. У ПК обычно нет ECC памяти и сдвоенных блоков питания, а так же средств диагностики и удаленного управления. Выбор за вами. Нужно посчитать все решение на сервере и посмотреть можете ли вы себе его позволить. В решение должны войти железка, лицензии МС, ИБП, хранилка для бэкапов или просто съемный диск.
    Делать файловый вариант в данном случае не стоит. Либо терминальный либо веб публикацию если конфига позволяет, либо серверный.
    По архитектуре решения.
    Самый дешевый вариант - веб публикация. Не требует никаких доп лицензий. Но нужно убедиться что конфигурация поддерживает. Можно хоть сейчас попробовать, проверить устраивает ли вариант.
    Вариант подороже это терминальный доступ + файловая база. Наверное оптимальный для 5-15 юзеров. Нужно будет купить win srv (40k) + TS CAL(5k*10).
    Сервер 1с предприятия наверное будет перебор на 10 юзеров. 60-90к на саму лицензию сервера + еще на лицензию МС SQL или ковырять postgre который на Win не дает хороших результатов. С другой стороны тогда можно не покупать терминальные лицензии.
    Посчитайте все варианты, сведите в табличку и поймете на что хватает, на что не очень.
    Ответ написан
  • Как увеличить объем hdd диска, на котором находится сетевая папка?

    @RStarun
    Вероятно у вас хороший сервер с raid контроллером на борту.
    С его помощью создайте Raid уровня 1 (зеркало) из двух свободных дисков 146gb. Это делается прямо из винды, через программу Hp storage manager.
    После этого у вас появится новый свободный диск на 146 гб куда вы сможете скопировать полностью вашу текущую папку и расшарить ее уже по новому местонахождению. У вас в системе окажется один диск 146 под Windows server и один 146 для вашей папки.
    При копировании желательно использовать всякие xcopy чтобы данные перенеслись сразу с необходимыми правами доступа. При таком решении у вас папка будет еще и защищена от выхода из строя одного диска.
    Диск на 1тб можно воткнуть в этот сервер только в качестве внешнего диска, через usb переходник (внешний бокс). И это стоит сделать. Используйте его как локальное хранилище для автоматических резервных копий. Ну или как съемный носитель для резервных копий.
    Ответ написан
    Комментировать
  • Как объединить два RAID массива?

    @RStarun
    Данных для решения задачи недостаточно. Но первое что приходит на ум, это подключить все диски к одному контроллеру. На P841 скорее всего 4 разъема, если они не все заняты, то берем один из них и подключаем внутрь сервера, к backplain. А P840 просто выкидываем из сервера.
    То есть кабель с внешнего разъема заворачиваем аккуратно через заглушку внутрь. Не совсем по феншую, но зато рабочее решение. Сможете все диски подключить в один контроллер и построить один большой массив. Просто представьте что передняя часть сервера с дисками и backplane'ом это та же дисковая полка по сути.
    Тут, правда, нужно смотреть точки отказа и в сервере и в полках.
    В идеале я бы на такое количество дисков уже брал HBA и подключал все все диски к нему, а дальше программный рейд в зависимости от ОС и задачи.
    Ответ написан
    1 комментарий
  • По какой причине может загораться лампочка неисправности RAID массива?

    @RStarun
    Документации по серверу быстро не смог найти, а долго искать лень. Но могу предположить что используется Backplain, а значит контроллер не напрямую с дисками общается. Если так, то между backplane и контроллером идет обмен данными по сигнализации. И тут могут быть ньюансы обмена между этими девайсами. Посмотрите прошивки контроллера, возможно даже backplane, а так же провода.
    Ответ написан
  • Доступ к серверу через 2 роутер?

    @RStarun
    По картинке понять что либо сложно.
    Нужно настраивать маршрутизацию на маршрутизаторах - ведь маршрутизировать пакеты это их работа.
    Начать можно с попытки пропихнуть один единственный пакет от ПК к ближайшему роутеру, потом к следующему и так далее до сервера.
    ping 192.168.0.1 - это понятно работает
    ping 192.168.1.1 - это тоже видимо
    ping 192.168.31.1 - это нет.
    На каждом из маршрутизаторов прописываем куда посылать пакет для подсетей таких то и таких то.
    при попытке доступа из подсети 192.168.1.0/24 до 192.168.31.1 есть ответ? Прописан ли маршрут до 192.168.31.1 на R1?
    Сам сервер так же может не маршрутизировать пакеты.
    Ответ написан
    Комментировать