Тупо считаем ресурсы:
1. ОС Windows Server 2019 Standard. Хостовые ресурсы 4 цпу, 6 озу, 100 пзу ссд (200 мбит/сек).
2. контроллер домена Active Directory + DNS. 4 цпу, 6 озу, 100 пзу ссд (100 мбит/сек)
3. samba на 20 пользователей (реально не более 10 одновременно). 4 цпу, 6 озу, 100 пзу ссд (100 мбит/сек), 1 тб пзу hdd.
4. Сервер терминалов (не более 7 пользователей одновременно). Не указано для каких приложений. Пусть будет 1С и серфинг. 12 цпу, 32 гб озу, 500 гб ПЗУ (500 мбит/сек и больше)
5. "Стахановец" (программа для защиты коммерческих данных, собирает статистику и снимки с камер с компьютеров в домене). Смотрим сколько сейчас и закладываем Х2. Либо ищем у вендора.
6. Apache (необходим для работы фронтенда "Стахановца" см п.5.
7. PostgreSQL (для хранения данных "Стахановца") см п.5.
8. MySQL (для хранения данных самописной программы) 2 цпу, 2 гб озу, 60 гб пзу (100 мбит/сек (наверное))
9. Самописная программа 2 цпу, 2 гб озу, 60 гб пзу (100 мбит/сек (наверное))
10. OpenVPN 6 цпу, 2 гб озу, 60 гб пзу
Почти все ВМ на SSD, скорее всего на разных raid массивах, но можно и HDD воткнуть чисто для холодных данных (резервные копии которые снимаются локально, мусор который жалко выкинуть, те же видеопотоки от стахановца (они же не в бд хранятся?). Например, под хостовую ОС + VM DC + VM SMB (OS) можно raid 1 sata ssd. Под остальное быстрое R1 nvme, под медленное R1 sata hdd.
Важная, но сложная тема IOPS, т.к. там зависимость от размера блока. Грубо, если производитель SATA SSD говорит о 30k iops, на них можно комфортно разместить 4-5 виртуалок без нагрузок, получается по 7k iops на Win VM. Это субъективная оценка. В плане указал именно мбит/сек, а не iops, потому что попугаев сложно считать.
Собирать ли на базе ПК, искать бу сервер или собирать на новой серверной платформе - это считать надо каждый из вариантов и понимать как это все админится будет и насколько дорогой простой.
Crazy_Cooler, не надо standalone хост в режиме ядра. Просто ОС с графикой и роль hyper-v.
решение самостоятельное и рабочее. Как раз Core или proxmox это для извращенцев в данном случае. Хотя кому как )
Искатель, чем больше виртуалок, тем меньше проблем с их обслуживанием. Проще бэкапить, обновлять, менять настройки каждого из сервисов. Но в качестве расплаты увеличение используемых ОЗУ, ПЗУ, ЦПУ.
Crazy_Cooler, hyper-v можно использовать без доменной структуры. И отдельный КД ему не нужен совсем, он в workgroup умеет. И будучи в домене без доступа к КД тоже умеет работать.
Мы же не про SCVMM говорим, а про отдельно стоящий hyper-v
Есть вероятность что к коммутатору провайдера так же приходит 100 мбит, и тогда хоть 20 отдельных линков объединяй, не получится превысить этот порог.
Так же есть вероятность что провайдер может включить агрегацию портов на своем оборудовании.
Все в руках провайдера, задавайте ему как можно больше вопросов.
НР ЕlitеDеsk 800 G3 DМ
И подобные ему бывают по 8-10 т.р. Будет шуршать на полочке. Провайдер может осадить, а может забить на ваши коннекты. Как повезет.
Но брать нужно сразу парочку, как ниже заметил alexalexes в случае поломки у вас не будет шансов быстро восстановить работоспособность, в отличие от ПК на ширпотребе.
"Защищенность" по требованию ФСТЭК бывает очень разной. И перс данные бывают очень разными. Могут быть данные с ФИО и телефоном, а могут быть данные о ВИЧ инфекции. Требования к защите этих данных разные. Начинается все не с сетевого пограничного оборудования, хотя это тоже неплохо. Начинается все с бумажек и проверять прежде всего будут бумажки.
На бумаге нужно изложить классификацию обрабатываемых данных, очертить модели угроз, на основании предыдущих пунктов составляются механизмы защиты. Исходя из классификации данных берется уже оборудование или ПО закрывающее соответсвующие угрозы.
И для бумажных работ вам либо в штат нужно взять человека умеющего в бумажки, либо обратиться в соответствующую контору которая за количество денег значительно большее чем стоят все железки сделает за вас работу по оформлению бумажек и скажет что купить.
Периодически задаюсь тем же вопросом.
Вероятно лучшего решения здесь нет. Просто берем калькулятор и считаем расходы на емкость.
В разных системах копирования, с разными механизмами дедупа сталкивался с невозможностью восстановления. Где-то не во время отключилось питание, где-то странное поведение дисков. Хорошо что это было не критично. Понятно что это частный случай, но вероятность потерять данные в любом случае возрастает. С одной стороны это не основные данные, а лишь бэкапы. С другой стороны - когда бекапы нужны, они являются единственным источником и ценность их резко возрастает.
При большом желании можно размещать тома V B&R на отдельной машинке умеющей в снепшоты. Хранилка как раз может быть под линуксом, с отдельными учетными данными и вообще живущая почти отдельно. Но это усложнение.
Обратите внимание на сеть. Задержки и потери пакетов могут быть причиной тормозов. Важна даже не столько пропускная способность, сколько своевременность доставки и стабильность. Хотя и пропускная способность влияет. Были случаи когда весь канал в интернет у клиентских ПК был забит торрентами и для связи с сервером оставалось всего ничего. Если все в одной локальной сети, то тоже было - трафик бэкапов забивал сеть, снижалась производительность остальных сервисов.
В стандартном клиенте есть даже минимальная диагностика, которая говорит о состоянии канала связи. Иногда на сеть можно повлиять:
антивирусом
сменой сетевого адаптера
сменой драйверов сетевого адаптера
включением UDP
настройкой коммутатора ядра (маршрутизации, если есть)
Power off recovery count мог быть связан просто с плохим контактом диска в салазках. Плохо прикручен, не до конца вставлен, пыль на контактах, проблемный backplane.
Проверить это можно просто подключив диск к тестовому ПК и прогоняя какие-нибудь тесты наблюдая за показателями. Если счетчик перестанет расти, значит с диском все ок.
Soft read errors - не уверен, но это могут быть проблемы совместимости raid контроллера и дисков. То есть это не похоже на износ накопителя, даже на ошибки ПО в накопителе. Хотя на всякий случай я бы поискал прошивку от intel новую.
По поводу скорости в Crystal mark, диски на тестовом стенде точно подключены по SATA 6G? Может случайно по 3G поднялось?
Все верно. Беспроводные технологии удобны, но не обладают стабильностью стационарных. В данном случае еще и непонятно кто, где, как и кого пингует. Вопрос составлен некорректно.
Обычно, если нагрузки на wifi сеть нет, то 1-3 мс нормальный результат в условиях хорошего приема. Уровень сигнала проще всего посмотреть на андроид устройствах через wifi analyzer. Там будет видна и загруженность частот и уровень сигнала. Возможно поможет смена частоты, уменьшение количества подключенных устройств, изменение настроек сетевого адаптера на ПК.
к слову, на таких серверах без батарейки больше raid1 не поднять, контроллер просто не позволит, даже с подключённым кешем
Поднять рейд любого уровня обычно можно. Нельзя кеширование wb включить. Но проверять лень.
В противном случае это была бы слишком ненадежная конструкция. Вот подняли вы 60 рейд, а батарейка через год сдохла. И что - перестать работать от этого? Он должен продолжить работу, доступ к данным должен сохраниться, просто просядет производительность. А если он работать и без батарейки с 60 рейдом продолжает, то смысл запрета на создание такого рейда без батарейки? Работать можно, а создать нельзя...
threedaws, практически все рейд контроллеры переключаются в режим write throught если батарейка сдохла или отсутствует.
Для SATA дисков в которых внутри есть защита кеша (ваши диски такие), можно включать кеширование на уровне дисков. Кеширование на уровне контроллера для SSD как правило отключают, оно не дает прироста производительности, скорее наоборот. Но тут нужно тестировать. То есть для SSD можно включить write throught.
Переключение между write throught и Back можно делать без опасений по потере данных. Некоторые контроллеры требуют перезагрузки чтобы применить настройку.
А вот уменьшение на горячую я бы делать не стал. Да и контроллеров которые это умеют - не встречал.
Если контроллер считает что smart- ok, это еще ни о чем не говорит. Получить информацию о состоянии дисков скорее всего придется сторонними утилитами.
Кстати, dell выводит информацию о степени износа дисков только если диски dell. А если это intel, то информация not supported обычно.
1g кеша защищен батарейкой? У сервера нет жалоб на состояние батарейки? Если аппаратно все ок, то как указал rPman контроллер даст вам определенные преимущества в скорости работы.
Касательно выбора уровня raid (без разницы, что программного, что аппаратного) нужно понимать требования по скорости, емкости, надежности. R10 всегда самый быстрый, но теряется 24тб емкости. Если там нужно хранить относительно холодные данные, то R6. Если нужно хоть какую-то скорость, то R60. R50 наверное не стоит на дисках такого объема поднимать.
Если данные имеют ценность, то как минимум 1 диск сразу под hotspare, а значит на R10, 60 мы оставляем уже 10, а не 12 дисков. И тут разница в емкости между R10 и R60 уже минимальна, а разница в скорости есть. Но опять же на R10 шансы потерять данные чуть выше, т.к. есть вероятность выхода из строя двух дисков в страйпе.
killogramdns, свою зону какого уровня? Типа .net?
Таких нет, насколько я знаю.
Если очень хочется, наверняка можно найти бесплатные домены типа best.someonesdomain.somecompany.net Вопрос - зачем?
1. Да. Покупаете у владельца домена .net субдомен killogramsdns.net и настраиваете ns сервера на ip адрес вашего dns сервера выставленного в интернет. Все попытки узнать что скрывается за именем bestserver.killogramsdns.net пойдут к вам на ДНС сервер.
2. Нет. Не желательно выставлять виндовый днс сервер наружу. Может быть больно. Виндовые сервера прекрасно работают во внутренней сети.
3. DNS это просто, почитайте книги, посмотрите видосики. Там логика простая, если вы ее поймете, это сразу снимет много вопросов.
1. ОС Windows Server 2019 Standard. Хостовые ресурсы 4 цпу, 6 озу, 100 пзу ссд (200 мбит/сек).
2. контроллер домена Active Directory + DNS. 4 цпу, 6 озу, 100 пзу ссд (100 мбит/сек)
3. samba на 20 пользователей (реально не более 10 одновременно). 4 цпу, 6 озу, 100 пзу ссд (100 мбит/сек), 1 тб пзу hdd.
4. Сервер терминалов (не более 7 пользователей одновременно). Не указано для каких приложений. Пусть будет 1С и серфинг. 12 цпу, 32 гб озу, 500 гб ПЗУ (500 мбит/сек и больше)
5. "Стахановец" (программа для защиты коммерческих данных, собирает статистику и снимки с камер с компьютеров в домене). Смотрим сколько сейчас и закладываем Х2. Либо ищем у вендора.
6. Apache (необходим для работы фронтенда "Стахановца" см п.5.
7. PostgreSQL (для хранения данных "Стахановца") см п.5.
8. MySQL (для хранения данных самописной программы) 2 цпу, 2 гб озу, 60 гб пзу (100 мбит/сек (наверное))
9. Самописная программа 2 цпу, 2 гб озу, 60 гб пзу (100 мбит/сек (наверное))
10. OpenVPN 6 цпу, 2 гб озу, 60 гб пзу
Почти все ВМ на SSD, скорее всего на разных raid массивах, но можно и HDD воткнуть чисто для холодных данных (резервные копии которые снимаются локально, мусор который жалко выкинуть, те же видеопотоки от стахановца (они же не в бд хранятся?). Например, под хостовую ОС + VM DC + VM SMB (OS) можно raid 1 sata ssd. Под остальное быстрое R1 nvme, под медленное R1 sata hdd.
Важная, но сложная тема IOPS, т.к. там зависимость от размера блока. Грубо, если производитель SATA SSD говорит о 30k iops, на них можно комфортно разместить 4-5 виртуалок без нагрузок, получается по 7k iops на Win VM. Это субъективная оценка. В плане указал именно мбит/сек, а не iops, потому что попугаев сложно считать.
Собирать ли на базе ПК, искать бу сервер или собирать на новой серверной платформе - это считать надо каждый из вариантов и понимать как это все админится будет и насколько дорогой простой.