В случае с серверными материнскими платами официально неподдерживаемый процессор с большой вероятностью не заведется или либо же BIOS откажется грузиться с ним. Известно, что у Intel совместимость в пределах одного сокета вовсе не гарантируется, и мало кто решается на такие дорогостоящие эксперименты, поэтому вероятность получить достоверный ответ на этот вопрос невелика.
P.S. Хотите совместимость в пределах сокета - смотрите в сторону AMD.
Проброс USB в Proxmox работает нормально. Проверено на 1С с HASP-ключами. Конечно тут есть нюанс, что если есть кластер серверов, то виртулки с проброшенными устройствами не смогут мигрировать наживую.
Может подойти к проблеме с другой стороны? Конкретнее, у Proxmox, в отличие от ESXi, практически нет ограничений по списку оборудования, на котором он может работать, в т.ч. по сетевым адаптерам.
Самые очевидные варианты варианты проблем на стороне роутера:
- не прописана маршрутизация между сервером zabbix и роутером
- на микротике запросы от сервера блокируются файрволом
- SNMP Community неверный (в случае SNMP v2) или логин/пароль (для v3)
- SNMP-запрос приходит с ip-адреса, не входяшего в разрешенные для данного Community
На современных материнках Supermicro заводские пароли на IPMI уже рандомные, так что admin/admin может и не сработать. И забавно, что одно из мест, где записан заводской пароль, - заглушка в сокет CPU.
Настройка VLAN на Fortigate: https://docs.fortinet.com/document/fortigate/5.6.0...
или на русском https://docs.selectel.ru/security/firewalls/fortig...
Ничего сложного и принципиально отличного по сравнению с другими вендорами нет. А читать документацию по хорошему нужно у любого сетевого оборудования. И даже комп с тремя сетевухами тоже кому-то придется настраивать, и этот кто-то должен понимать, что он делает. Так что стоит ли менять Fortigate на что-то попроще и классом пониже?
zed, если ты сисадмин, уже немолод, программируешь лишь изредка, и в голове винегрет из Bash, Perl, PHP, Delphi и LUA, такое иногда случается. Компилятор впрочем ничего странного в этой строке не увидел.
Попробуйте не ActivePerl, а https://strawberryperl.com/
Даже если нужных модулей не будет в комплекте, можно будет установить или собрать их традиционным способом через CPAN.
Ну считайте, что я вас предупредил. Территориально распределенный кластер я бы стал строить только при наличии "тёмного волокна" или VPN с гарантированными характеристиками между локациями, иначе стопроцентно возникнут проблемы со стабильностью. Лучше было бы разместить кластер в одном месте, а скажем Proxmox Backup Server - в другом.
Кстати у вас есть общее хранилище SAN/NAS, которое используют серверы, или какая-то заменяющая его технология, например CEPH? Как виртуалка с упавшего сервера сможет запуститься на соседнем сервере, если её виртуальные диски будут на нем недоступны?
Как вариант:
- Закинуть все домены сайта в address list, где они отрезолвятся в айпишники
- в ip -> firewall -> mangle сделать mark routing по исходящему транзитному трафику на этот address-list (в цепочке prerouting)
- в Routing -> Rules создать правило, которое перекинет трафик с нужным routing mark в таблицу маршрутизации, где дефотный шлюз за интерфейсом Wireguard
Думаю, тут надо проверять
- STP/RSTP (эти протоколы призваны устранять избыточные линки в сети, но могут и создавать проблемы, и их надо фильтровать на клиентских портах)
- loopback detection (если такой функционал есть в явном виде)
- конфликты mac- и ip-адресов
- возможную проблему с коллизиями мак-адресов, которой подвержены недорогие коммутаторы (https://habr.com/ru/articles/155265/)
В логах коммутаторов что-то есть в момент возникновения проблем?
Ну и на сети такого размера очень желательно вынести управление коммутаторами в отдельный влан.
Тут нужно учитывать, что если кластер Proxmox - это действительно кластер, а не три одиночных сервера, то у него есть достаточно строгие требования к задержкам и потерям пакетов на кластерной сети. Очень может быть, что на туннелях через публичные сети кластер начнет постоянно разваливаться. И это не теоретическая проблема, мне потребовалось устанавливать на пяти серверах моего кластера отдельные сетевухи под кластерную сеть, несмотря на то, что между серверами изначально была сеть 10 Гбит/с. Но во время ночных бэкапов сервера периодически уходили в ребут, а после выделения отдельного сегмента под кластер все стабилизировалось. https://pve.proxmox.com/wiki/Cluster_Manager#_clus...
Если виртуалок много, то быстрее будет их восстанавливать из бэкапов, чем так. А вот команда "qm rescan" вместо "qm importdisk" позволяет радикально ускорить процесс. Но да, нужно быть аккуратным, чтобы не повредить данные.
AuthorOfTheQuestion, для автоматического построения списка команд я использовал такую команду Linux (правда тут на выходе команды Mikrotik, но ничего не мешает изменить её под желаемый синтаксис). Да и сделать такое можно многими способами, подойдет даже Эксель.
Просто вернуть диски недостаточно. Надо еще добавить их в Proxmox как хранилища, причем сделать это так, чтобы данные не потерялись. А чтобы сказать точнее, слишком мало инфы: Proxmox поддерживает много разных технологий хранилищ и нужно понимать, как все было настроено до сбоя.
Если вопрос конкретно про Google / Youtube, то все используемые гуглом подсети можно узнать из официального ресурса - https://www.gstatic.com/ipranges/goog.json
Список достаточно компактный.
P.S. Хотите совместимость в пределах сокета - смотрите в сторону AMD.