Zelenuh,
два сервера под 1С, которые я собирал, в двух организациях, в разные годы, оба работают на сегодня.
1. собирался в конце 2015 г., цена на момент сборки 35100 р, апгрейдился летом 2018 г. (+8Gb RAM, новый SSD) на сумму 12600 р., работают в 1С 25..30 человек - продавцы в нескольких магазинах, бухгалтерия, менеджеры.
AMD A8-7670K 3.6GHz
GIGABYTE GA-F2A88XM-D3H
Kingston DDR3 DIMM 2x8Gb 1866MHz, апгрейд до 3x8Gb
HDD SATA 500Gb
SSD SATA Intel 120Gb, апгрейд до Samsung 250Gb 850 EVO
450W ATX
RAID не используется, каждый вечер бэкап всех баз на отдельный файловый сервер.
1С на виртуальной машине, "три в одном" - на одной виртуалке и SQL, и 1С-сервер, и 1С-клиенты по RDP (кажется, 1С-ники называют это "однозвенной схемой", если не ошибаюсь). На SSD только образы дисков виртуалки (1С любит SSD).
2. собирался в апреле 2017 г., цена на момент сборки 91860 р., работают в 1С ~30 человек - менеджеры по продажам, бухгалтерия, руководители + репликация с четырьмя удалёнными серверами 1С.
Intel i7-7700 3.6GHz
GIGABYTE GA-B250M-D3H (нет, я не фанат этой фирмы, просто так совпало)
Foxline DDR4 4x16Gb 2133MHz (реально задействована лишь половина этой памяти, в принципе можно было прилично сэкономить)
Тут лирическое отступление. Когда собирали этот сервер, наш 1С-ник принялся рассуждать, что он не очень доверяет надёжности SSD. "Хрен с тобой", - подумал я, не стал устраивать дискуссию, и заказал диски, какие его устроили - дорогущие HDD, хоть и SATA, но enterprise-уровня.
HDD WD Gold 4x1Tb.
500W ATX
Тут тоже на хосте Linux, на одной виртуалке 1С, на другой виртуалке AD DC. Из четырёх дисков собрано два отдельных зеркала (mdadm - программный RAID под Linux'ом, под виндой тоже можно делать свой вариант программного RAID, вроде тоже хорошо работает).
Для AD можно поднять виртуалку. Если пользователей человек 25..50, то такой виртуалке вполне достаточно выделить 1 ядро и 1 ГБ памяти - ресурсов и телодвижений минимум, а кошерность уже повысится.
Также не забудьте, что напряжение заметно падает на длинном кабеле. Т.е. на коротеньких (~1 метр) патч-кордах вы может быть и запустите пять Микротиков каскадом, а вот на 100 метров может и второй не заработать, особенно если кабель не медный, а алюминиевый с медным покрытием (сопротивление больше).
В спецификациях посмотрите диапазон напряжения питания. Вроде максимум 30 вольт на вход можно, хотя у разных моделей Микротика может отличаться этот параметр. БП родной на 24 вольта, правильно? Вот на первый Микротик подали 24V, на PoE-out будет на несколько вольт меньше, на втором на PoE-out будет еще на несколько вольт меньше. Берёте патч-корд, раздербаниваете в середине и мультиметром замеряете, сколько вольт фактически между вторым и третьим Микротиком. Также в спецификации смотрите, какое минимальное напряжение нужно, вроде бы 10V, но могу ошибаться. Так что по напряжению скорее всего четвёртый еще можно прицепить, может даже и пятый. Но сам блок питания (родной, штатный) может не потянуть даже три Микротика. Если не потянет, то покупаете другой БП, способный на бОльший выходной ток.
гуглить по фразе "screen OCR" - нагуглится несколько программ, какая лучше не скажу - надо пробовать.
Если найдёте лучшую - отпишите ответ, другим может тоже пригодиться.
Чтобы зайти в конфигурацию RAID-контроллера, надо нажать комбинацию клавиш. Комбинации могут отличаться - либо гуглить по модели, либо снимать видео при загрузке - там может порядка одной секунды отображаться подсказка с комбинацией. Нажать тоже надо умудриться успеть :) - либо целую минуту спамить клавиатуру, либо с десятой попытки засечь-таки нужный момент.
Нет такой величины кВт/ч, есть кВт*ч (умножение, а не деление, и соответственно произносится "кВт час", а не "кВт в час"). Помимо физического смысла (который важен в первую очередь), если вы будете писать в формулах кВт/ч, то у вас не сойдутся размерности.
Фаервол на L2 - это что, просто чёрный\белый список mac? В "нормальном" фаерволе 99.9% смысла - это L3.
Если уж двигаться от простого к сложному, то фаервол лучше отложить до этапа, когда всё остальное будет хорошо получаться.
1. свитч
2. роутер с hard-coded адресами на интерфейсах
3. конфигурирование через telnet или через web-морду
4. dhcp-клиент на WAN, dhcp-сервер на LAN
5. NAT и вообще весь firewall
В софтовой части очевидный путь - использовать Linux + BusyBox и собрать что-то типа dd-wrt\open-wrt, но своё, "с покером и куртизанками". C нуля разрабатывать свою OS - крайне трудоёмко, это больше подходит для коллектива.
Ну я могу себе представить конфигурацию, когда наверняка не справится: из 70 хостов 30 - это камеры, и еще 30 - это юзерские компы, и большинство юзеров смотрят видео с этих камер. :) Вот это будет тяжеловато прокачать из одного VLAN в другой. Но вряд ли это ваш случай.
Есть такая должность "помощник системного администратора" (иногда "младший сисадмин"). Не требует много знаний и в то же время позволяет научиться всему. Ищите такие вакансии.
Александр Вульф, можно даже так: в пуле DHCP
192.168.2.10 - 192.168.2.40
192.168.2.51 - 192.168.2.200
192.168.2.222 - 192.168.2.254
статически назначаем:
192.168.2.1 - 192.168.2.9
192.168.2.41 - 192.168.2.50
192.168.2.201 - 192.168.2.221
- всё это прописывается на DHCP один раз.
Александр Вульф, никаких проблем, на DHCP надо отдать в пул не всю подсеть, а заныкать часть адресов. Например, DHCP раздаёт из диапазона 192.168.2.51 - 192.168.2.254,
а адреса 192.168.2.1 - 192.168.2.50 можно руками статично прописывать на виртуалках или где угодно. Это обычная практика.
- поздравляю, если вы справляетесь с iptables, то вы уже сисадмин :)
Виртуалки KVM - да, загоняю в единственный бридж на хосте, ip-адреса виртуалки получают из общего пула с "железными" хостами, не выделяю их ни в другую подсеть, ни в VLAN.
iptables только на шлюзах, внутри локальной сети весь доступ к виртуалкам прозрачный, ничего не NAT'ится, ничего не фильтруется. Но правда у меня и сети небольшие (но площадок несколько), может быть поэтому такая простая конфигурация нормально работает.
Дмитрий Трейсеров, да в целом получается нормально. По последнему вопросу - в строке 4 добавить в столбце In Interface значение bridge-local.
Т.е. эта строка теперь будет открывать SNMP не на любых интерфесах, а только со стороны LAN.
По SNMP мало могу сказать (лучше загуглить), этот протокол в зависимости от настроек позволяет либо смотреть состояние устройства (разные параметры), либо рулить некоторыми функциями устройства. Там предусмотрена какая-то авторизация, но часто оставляют дефолтные настройки, получается дыра.
а... стоп... насчет строк 6, 9 (где accept) - тыркни по строкам, там больше деталей. Если в обеих этих строках в поле Connection State есть два крыжика related, established, и других крыжиков там больше нет, тогда всё нормально, так и должно быть.
firewall строка #4 (во все стороны открыт порт 161/udp на сам Микротик) - скорее всего надо закрыть со стороны WAN. Надо бы еще посмотреть настройки SNMP на Микротике, но потенциально это дыра.
Также неплохо бы закрыть Winbox и web-морду со стороны WAN, можно оставить только ssh на всякий пожарный случай.
Дмитрий Трейсеров, щас как-то искоса посмотрел на скриншот и новая мысль пришла. У левого DHCP на LAN-интерфейсе возможно прописано два ip-адреса.
1. 192.168.0.x
2. 113.0.168.1
Это не точно. И даже если так, то не знаю, чем это может помочь, может быть ничем. Просто в копилку мозгового штурма.
два сервера под 1С, которые я собирал, в двух организациях, в разные годы, оба работают на сегодня.
1. собирался в конце 2015 г., цена на момент сборки 35100 р, апгрейдился летом 2018 г. (+8Gb RAM, новый SSD) на сумму 12600 р., работают в 1С 25..30 человек - продавцы в нескольких магазинах, бухгалтерия, менеджеры.
AMD A8-7670K 3.6GHz
GIGABYTE GA-F2A88XM-D3H
Kingston DDR3 DIMM 2x8Gb 1866MHz, апгрейд до 3x8Gb
HDD SATA 500Gb
SSD SATA Intel 120Gb, апгрейд до Samsung 250Gb 850 EVO
450W ATX
RAID не используется, каждый вечер бэкап всех баз на отдельный файловый сервер.
1С на виртуальной машине, "три в одном" - на одной виртуалке и SQL, и 1С-сервер, и 1С-клиенты по RDP (кажется, 1С-ники называют это "однозвенной схемой", если не ошибаюсь). На SSD только образы дисков виртуалки (1С любит SSD).
2. собирался в апреле 2017 г., цена на момент сборки 91860 р., работают в 1С ~30 человек - менеджеры по продажам, бухгалтерия, руководители + репликация с четырьмя удалёнными серверами 1С.
Intel i7-7700 3.6GHz
GIGABYTE GA-B250M-D3H (нет, я не фанат этой фирмы, просто так совпало)
Foxline DDR4 4x16Gb 2133MHz (реально задействована лишь половина этой памяти, в принципе можно было прилично сэкономить)
Тут лирическое отступление. Когда собирали этот сервер, наш 1С-ник принялся рассуждать, что он не очень доверяет надёжности SSD. "Хрен с тобой", - подумал я, не стал устраивать дискуссию, и заказал диски, какие его устроили - дорогущие HDD, хоть и SATA, но enterprise-уровня.
HDD WD Gold 4x1Tb.
500W ATX
Тут тоже на хосте Linux, на одной виртуалке 1С, на другой виртуалке AD DC. Из четырёх дисков собрано два отдельных зеркала (mdadm - программный RAID под Linux'ом, под виндой тоже можно делать свой вариант программного RAID, вроде тоже хорошо работает).