Ответы пользователя по тегу Серверное оборудование
  • Какой raid контроллер?

    athacker
    @athacker
    Там ещё вопрос, какой бэкплейн в сервере. На сайте заявлено, что SAS/SATA, но не указано, какой конкретно SAS. Может быть 6G, может быть 12G -- у них разные разъёмы. Плюс судя по найденным в интернете картинкам подключения дисков, там прямая SATA-разводка. Так что не исключено, что под SAS и SATA конструктивно разные бэкплейны, и возможно, в серверах, которые поставляются в SATA конфигурации, потребуется ещё и замена бэкплейна.
    Ответ написан
  • Получится ли подключить СХД Dell к контроллеру sas от HP?

    athacker
    @athacker
    Ну у вас не СХД, а DAS.

    В теории должно работать, но нужно смотреть HCL от хранилки, поддерживается ли этот контроллер. Если есть возможность попробовать -- надо пробовать, т. к. даже если контроллера нет в HCL, это не значит, что связка не будет работать.

    Что касается дисков -- то тут тоже только смелый эксперимент. Т. к. в СХД обычные диски не работают -- обычно хранилки проверяют прошивки дисков и бракуют диски, которые не прошиты вендором. Т. к. именно в СХД работали бы диски только маркированные вендором. Как будет в случае с DAS -- ХЗ, только натурные испытания.
    Ответ написан
  • Какое железо будет оптимально под сервер в автомобиль?

    athacker
    @athacker
    Если хочется "всерьёз и надолго", то есть Intel NUC, например. Это достаточно производительная железка, плюс внутре у неё неонка есть отсек под 2.5" диск, есть M2.

    Если NUC не по бюджету, то у кетайцев есть всякое вот такое в широчайшем ассортименте.
    Ответ написан
  • Б\у сервер или мощный ПК?

    athacker
    @athacker
    Alex, серверное железо и его использование -- это своя, определённая специфика. Сервер не ушатан, но процы старые, и не очень многоядерные (если речь про тот, который по вашей ссылке, на авито). Не исключено, что у него может использоваться только ECC REG память, а её ещё придётся поискать, если вдруг потребуется заменить или докинуть оперативы. Ну и коллеги правильно заметили -- шум там будет стоять порядочный, т. к. компоновка в серверах 1U плотная, и с охлаждением туговато. Компенсируется это увеличением тяги вентиляторов. На радиаторах CPU там кулеров нет, поэтому ставится гребёнка кулеров, которые охлаждают сразу всё, протягивая воздух от передней до задней панели через всю электронику, плюс есть кулеры в блоках питания.

    Это, кстати, момент, который нужно особо в серверах проверить. Процы и память, которые заработают в серверной материнке, найти проще. А вот кулеры, как правило, строго специфичны для конкретной модели. Поэтому их наличие, количество и работоспособность нужно проверять при покупке зело тщательно.

    Ну и в целом, ответ на ваш вопрос будет зависеть от того, что именно вы собираетесь делать на виртуалках. Если обычные лабы -- домен там, почту, инфраструктурные сетевые сервисы и т. п. -- это одно. А если какие-то жрущие Java-приложения с высокой нагрузкой или десятки виртуалок -- это совсем другое. Под второй профиль использования лучше сервак, конечно. А для первого хватит и десктопа. К тому же, десктоп всегда можно перепрофилировать под рабочий комп, или продать, если появится такое желание. А старый сервер сбыть будет куда сложнее.
    Ответ написан
  • Почему падает линк на сетевухе Emulex?

    athacker
    @athacker
    У Вас карта 10G, а коммутатор 1G. Не все карты/свичи могут работать в таких связках. Присоединяюсь к оратору выше -- попробуйте на карте выставить принудительно скорость 1G, и патчкорд взять 6-ой категории. Если не взлетит -- значит, не судьба, работать оно не будет.
    Ответ написан
  • Почему диски подключены к контроллеру не на полной скорости?

    athacker
    @athacker
    Проверьте настройки контроллера и перемычки на дисках. И там и там есть возможность установить скорость обмена.
    Ответ написан
  • Какой сервер собрать для офиса в 15пк?Какое ПО использовать для резервирования?

    athacker
    @athacker
    Два микротика-- это правильно, одобряю.

    Сервер -- да, можно обойтись обычным десктопом, с корпусом, куда можно воткнуть 8 или более дисков. Только дисковый контроллер я бы посоветовал внешний. Например, LSI 9300-i8. Под фряхой работает ОК, я проверял. Дисковая конфигурация: RAID10, собирать ZFS-oм. То есть, потребуется минимум 4 диска в сервер, и как минимум один в ЗИП, всего пять. Диски обязательно хот-свопные -- можно будет менять на ходу, без остановки сервера.

    Обязательно обновить прошивку контроллера -- у него была подлая бага, что при детаче на ходу одного диска он отсреливал сразу все диски. Данные не страдали, но ZFS-пул дох, разумеется. Лечилось только ребутом.

    Есть один тонкий момент. Порт Самбы под BSD имеет косяки. По крайней мере, имел в версии 3.4, 3.5. При использовании файловой базы 1С более чем 2-3 пользователями одновременно резко просаживалась производительность. Это было связано с особенностями реализации блокировок открытых файлов, и насколько я помню, никак не лечилось. Возможно, в 4-ой версии это починили, но на момент моих исследований (года 4-5 назад) команда Самбы слала всех лесом, мотивируя это тем, что "у нас на линухе всё работает". Так что сначала надо протестировать производительность, перед вводом в прод. Чтобы потом не пришлось судорожно менять ОС.

    Из железа ещё -- поищите БУ HP Proliant Microserver, 7 или 8-го поколений. Это отличные машинки, надёжные и с хотсвопными корзинками. И БУ они стоят недорого. Gen8 дороже, конечно, но тоже можно раскошелиться, там цены от 18 до 50 тысяч, в зависимости от комплектации. Gen8 лучше тем, что у них есть встроенный адаптер удалённого управления, с IPMI и IP-KVM. Дисковая корзина там на 4 диска, на 5-ый можно поставить систему. 5-ый ставится обычно в лоток от CD-ROM, есть специальные адаптеры, но можно и просто так положить. Только диск нужен будет 2.5". Дисковый адаптер туда тоже можно поставить, но только предыдущего поколения, т.е. LSI 9200 -- там (в сервере) SAS-разъём другой, к 9300-8i бэкплейн сервера не подключить.

    Устройство для хранения бэкапов -- обязательно отдельное. Т.е. отдельный системник.

    Готовые коробки типа QNAP/Synology -- это треш и угар, лучше даже не вязаться. Для дома ОК, для конторы -- нет. Максимум, что им можно доверить -- это хранение файлов бэкапов, и всё. Да и то, лично я бы не стал, больно много у них прибабахов.
    Ответ написан
  • Что выбрать сервер или обычный системный блок?

    athacker
    @athacker
    Покупайте ДВА системника, стройте резервирование на софтверном уровне. Win2016 вроде как умеет уже storage spaces direct без общего хранилища строить. Ну и остальные сервисы задублировать.

    Только интернет раздавать с контроллера домена -- это адски плохая идея. Купите пару старых системников (уровня Core Duo и 1 гиг оперативы будет более чем достаточно), поставьте туда FreeBSD/Linux, и пусть они занимаются раздачей интернетов.

    P/S/: Да, и дисков нужно ставить два, и собирать их в RAID1-массив.
    Ответ написан
  • Чем отличается выделенный сервер от сервера хранения?

    athacker
    @athacker
    Да ни в чём. "Как вы яхту назовёте, так она и поплывёт". Технически разницы между серверами может не быть вообще, разница будет только в назначении и возложенных на них задачах.

    Например, можно предположить, что "сервер хранения" у данного хостера имеет более слабую начинку, но больше дисковых отсеков. Т. е. заточен в основном под хранение данных, а не под виртуализацию или ещё какие-либо вычислительно прожорливые задачи.

    Короче, это чистой воды маркетинг.
    Ответ написан
  • Собираю отзывы, что можете сказать о DEPO Storm 3400A2?

    athacker
    @athacker
    Раз уже DEPO не советуют -- попробуйте STSS. По сути то же самое -- сборщик на платформе SuperMicro, но по крайней мере, они своё железо тестируют тщательно, и за качество отвечают. Меняют вышедшие из строя компоненты по гарантии без проблем, и всё такое. Есть опыт эксплуатации серверов STSS -- пожаловаться особо не на что, вполне нормально работает.
    Ответ написан
  • Можно ли пользоваться owncloud без https и других средств безопасности?

    athacker
    @athacker
    Вопрос: можно ли пользоваться owncloud без https и других средств безопасности?
    Ответ: Не нужно.

    :-)
    Ответ написан
  • Как установить фряху на компьютер без монитора и консольного кабеля?

    athacker
    @athacker
    Установите систему на любой другой диск, настройте как хотите. Скопируйте образ диска этой системы с помощью dd в файлик. Потом загрузите систему с флэшки с mfsbsd и раскатайте полученный образ на диск неттопа.
    Ответ написан
  • Из какого ПО собрать бекап сервер?

    athacker
    @athacker
    У вас смешались в кучу кони и люди. Бэкап-сервер -- это, скорее, просто железка, на которую можно по сети складывать бэкапы. То, о чём вы спрашиваете -- это просто ПО, софт для выполнения резервного копирования.

    На самом деле, пофиг чем бэкапить :-) Все эти системы имеют свои прибабахи. Для виртуализации сейчас популярнее всего Veeam. Если SQL-сервера у вас виртуальные, и на MS SQL или Oracle, то Veeam подойдёт. Для физики Veeam тоже есть, они как раз недавно вроде выпустили агента для бэкапа физических виндовых серверов. Физические линуксовые сервера они умеют бэкапить уже давно.

    Акронис наоборот, начинал как бэкапилка для физических серверов, и только потом добавил возможность бэкапить виртуалки. В общем, хрен редьки не слаще, попробуйте несколько на тестовых стендах, и сами решите, что вам больше нравится.

    А RAID там у вас на серваке, или нет -- это дело десятое, к процессу бэкапа имеет мало отношения.
    Ответ написан
  • Как организовать ИТ инфраструктуру и 1с сервер в гос учереждений?

    athacker
    @athacker
    1. Никаких вайфаёв в рабочей сети, только провода. Так как,
    - Во-первых, вы прокачиваете персональные данные по сети, а влезть в wi-fi и заполучить эти данные -- это раз плюнуть.

    - Во-вторых, WiFi имеет ограниченную пропускную способность, для файловых баз 1С его использовать -- самоубийство, особенно учитывая в третьих:

    -- В-третьих, заявленные 200 метров покрытия легко превратятся в 10 метров покрытия в процессе развёртывания внутри конкретного здания. По дороге запросто могут попадаться какие-нибудь плохо проницаемые вещи типа металлических сеток (под штукатуркой), толстых железобетонных стен, различного излучающего оборудования (рентген-аппараты, МРТ и пр. медицинская техника). Даже старая фонящая микроволновка в ординаторской может создать вам массу незабываемых приключений с "у нас тут плохо сигнал ловится!", причём проблема будет плавающей -- кто-то греет обед, и сигнал пропадает. Согрел -- сигнал появился. Упаритесь искать.

    И даже если в отдельных местах сигнал по уровню будет более или менее, то при наличии мощных "фонителей", дропы пакетов будут такими, что у вас доступ из отдельных помещений будет очень осложнён или даже невозможен вовсе.

    WiFi можно использовать, если очень хочется, но только для некритичных приложений. Раздавать посетителям котиков в интернетах смотреть, например.

    Далее -- пачку PCI-разъёмов в "системный блок" вы не найдёте (я не помню материнок, где их было бы больше 4-х). Разве что серверные матери с raiser'ами. Но оно и не нужно, от слова "совсем". Ваши ADSL-модемы имеют LAN, нет смысла их втыкать в сервак напрямую, для этого белые люди давно придумали коммутаторы. Учитывая скорость ADSL-каналов, вам хватит и 100-мебагитного. Все модемы в него, и "внешнюю" сетевуху шлюзового сервака -- тоже. Итого на шлюзе вам нужно всего две сетевухи -- одна в локалку, вторая -- наружу.

    Керио -- это лицензия. Лучше думать в сторону линуха или фри. К тому же, я юниксах можно настроить автоматическую балансировку трафика на все ваши ADSL-модемы одновременно. Не уверен, что Керио поддерживает такие сценарии. Failover-балансировка там есть, а вот как насчёт равномерного распределения -- это вопрос.

    А, ну и да. Вместо всего этого сервака можно установить коробку от Mikrotik. С вашими нагрузками даже hEX lite справится, думаю. Стоит 40$ ;-)
    Ответ написан
  • Как правильно организовать инфраструктуру (выделенные серверы, облака и пр.)?

    athacker
    @athacker
    Я бы вынес всё, кроме основного сервака, на виртуалки. Легче маневрировать, легче масштабировать, если что. "Ещё один сервис" -- тоже вынес бы на какую-нибудь потустороннюю виртуалку.

    Неясна необходимость ещё одного выделенного сервера под бэкапы. У вас база всего 5 Гб, полный дамп даже на домашнем интернете можно 1 раз в час скачивать без всяких проблем, зачем ещё один выделенный сервак?

    Резюмируя: облака -- они таки для того и сделаны, чтобы масштабироваться по-быстрому. Например, в каком-нибудь амазоне поднять пару виртуалок с проксями в разных ДЦ (Там по географии можно выбрать ДЦ. Есть Штаты, Германия, Британия, ЮВА). Мало будет пары -- поднять ещё несколько. Там есть функция Auto Scaling, которая количеством проксей будет рулить автоматически. Есть тонкость -- при реально мощном DDoSе можно автоматически смасштабироваться на очень много денег :-) Так что учёт, контроль и мониторинг -- это наше всё.

    Построить туннели от проксей (IPsec, OpenVPN, whatever) до бэкэнд-серверов. Я бы делал на IPsec.

    Бэкапный сервер перепрофилировтаь в полноценный бэкенд. Почтовый сервер, как я уже говорил выше -- на виртуалку и куда-нибудь подальше. Почтовых серверов можно сделать более одного, по той же схеме, что и проксей -- в нескольких регионах на виртуалках (для гарантии получения IP-шников из разных подсетей). Связь почты с бэкендами -- тоже только по VPN, по серым адресам. Все сервисы на бэкендах, кроме SSH -- повесить на серые IP-шники туннелей.
    Ответ написан
  • Какой сервер для дома лучше выбрать?

    athacker
    @athacker
    ML350 однозначно будет шуметь гораздо сильнее, чем микросервер. И места занимать в 4 раза больше :-) В остальном он микросервер превосходит, разумеется.

    Я бы для домашней платформы виртуализации собирал сервак на mini-ITX. Проц Core i5-i7 6-го поколения, память DDR4. DDR4 имеет модули по 16 Гб, что позволяет в mini-ITX воткнуть их два, и получить 32 Гб, при этом оставшись в форм-факторе микросервера. Возможно, со временем появятся модули и по 32 Гб.
    Ответ написан
  • Как определиться с железом под сервера?

    athacker
    @athacker
    Всё это ОБЯЗАТЕЛЬНО нужно поднимать на виртуалках. Но проц можно попроще, а памяти -- побольше. Я бы начал с 64 Гб. 2 таких хоста в кластере + общее хранилище (NAS, DAS, СХД -- без разницы) позволят вам виртуализовать не только это, но и пачку других серверов. Единственное -- согласно best practices, один контроллер домена всё же лучше сделать железным. Для 35 юзеров под контроллер хватит любого самого простого сервака, можно даже БУ. Можно даже HP Microserver поставить, при желании, он потянет.

    SATA-диски -- вполне ОК для этой нагрузки, если из них собирать RAID10 в несколько пар. Но надо понимать, что "внутренний" вариант в случае организации кластера не подойдёт -- никакой отказоустойчивости не получится, нужно общее хранилище, которое будет одновременно доступно всем хостам кластера виртуализации, независимо от состояния других хостов кластера.
    Ответ написан
  • Какие различия оперативной памяти?

    athacker
    @athacker
    EP3L-12800E -- серверный вариант памяти, он с механизмом коррекции ошибок. Не все обычные материнки могут использовать ECC. Причём формально его можно не использовать, но некоторые материнки всё равно не работают с ECC-памятью.
    Ответ написан
  • Как заработать на blade сервере (или по крайней мере не уходить в минус)?

    athacker
    @athacker
    Монетизировать -- вряд ли удастся. Сам по себе блейд -- это ни о чём. Для продажи чего-то на этих мощностях нужна будет обвязка -- сети, коммутаторы и пр.

    Для пользы человечеству -- поставьте где-нибудь в чулане-подвале, и подключите все лезвия в BOINC, на любой из понравившихся проектов. Либо отдайте в доступ команде FreeBSD под сборку/автотесты.
    Ответ написан
  • Как правильно настроить ownCloud + RAID0 (Ubuntu Server 16.04)?

    athacker
    @athacker
    Вы серьёзно полагаете, что настройки ownCloud имеют какие-то особенности при установке на RAID? :-)

    Кстати, RAID0 использовать не рекомендуется ;-)
    Ответ написан