Bermut, в общем-то, вы хотите чего-то довольно странного. Во первых, Xeon e3 1220v2 скорее всего окажется "узким местом" на скорости порядка 10 Гбит/с. Во вторых, строить что-то критически важное на столь сильно б/у оборудовании - допустимо лишь при наличии резервирования, да и то с большой натяжкой. В третьих - далеко не всякий файл-сервер сможет отдать 40 Гбит/с трафика. Что у вас там? СХД? Если он у вас набит NVME-дисками, то вопрос финансов не должен быть столь довлеющим, чтобы остальную инфраструктуру собирать с миру по нитке. И опять же - какой функционал нужен от маршрутизатора? Софт-решения на серверах на таких скоростях применяются в основном в провайдинге (в качестве BRAS или DPI), и софт там весьма специфический обычно. Если NAT или что-то вроде NextGen Firewall (NGFW) между файл-сервером и остальным миром не являются критично необходимыми, то в вашей схеме явно напрашивается устройство, которое обрабатывает трафик аппаратно, а не на CPU. В общем, опишите, каким вы видите сценарий использования этого сервера.
Свич не показывает, в каком влане мак... Попробуйте выключить опцию "Use Service Tag" на микротиках. Она задает использование двойного тегирования, такой свич этого не поймет да и вряд ли это вам нужно.
В сочетании Ubuntu 20.4 - хост, Windows 10 - гость, VirtualBox 6.1.26 двунаправленный буфер обмена работает. С одним но - нужно делать Normal Start, в режиме Detachable (фоновый режим с интерфейсом) перестает работать.
Jasonflo, если вы создаете виртуальную машину из ISO-файла или из бэкапа proxmox, то её диски можно разместить напрямую на lvm-thin. Если же у вас есть образы дисков ВМ, которые нужно импортировать, то тут чуть сложнее, но тоже можно сделать через командную строку. А сторейдж с типом directory нужен, например, для хранения iso-файлов (на lvm их хранить нельзя).
Jasonflo, описано тут - https://pve.proxmox.com/wiki/Installation
Но, если я все верно понимаю, сделать как вы хотите инсталлятор не позволяет...
А какая в подробностях ошибка с размещением виртуалок на lvm-thin? Возможно получится что-то подказать.
Jasonflo, тогда проще переставить систему. Насколько я помню, в процессе установки Proxmox установщик спрашивает, в какой пропорции распределить место между local и local-lvm.
А чем не нравится размещение образов виртуалок на lvm-thin? Вообще, тут имхо проще вообще удалить pve-data_tmeta и pve-data_tdata (но если там уже хранятся образы виртуальных машин, то их сначала надо куда-то мигрировать), и потом разбить освободившееся место как нужно, например создать там еще один раздел поверх логического тома, и потом его добавить как storage с типом Directory.
ky0, компонентами с EBAY? :) Нет, подход конечно имеет право на жизнь, но у коллег был случай, когда на большой брендовой СХД одновременно оба контроллера потеряли конфу. И спас их тогда только сервис от производителя.
Maga Izdaga, серый ip-адрес сервер в общем случае узнать не сможет. Такое может быть, если кто-то выходит в интернет не через NAT, а через proxy, тогда прокси может добавить инфу о внутреннем ip-адресе в http-запрос (заголовок X-Forwarded-For). NAT скрывает от сервера фактический ip-адрес клиента, независимо от того, реальный он или серый. Но теоретически сервер может идентифицировать посетителей не только по ip, но и по кукам, отпечатку браузера и т.д., так что бан по ip - это не единственный вариант.
Ничего она никуда не передает. Сервер видит только ip-адрес роутера, который осуществляет NAT. Все остальное, что он знает, он узнает от браузера клиента, и тут не играет роли - есть нат или нет.
Прочитайте вопрос внимательнее. Мне нужно не зарезервировать узлы, а обеспечить отказоустойчивость сетевой доступности между ними, причем кластерному сервису, который там будет крутиться, можно указать только один ip-адрес для каждой ноды. Какие конкретно используются коммутаторы, не столь важно, достаточно знать, что L3-маршрутизацию (и как следствие, OSPF, RIP, BGP и т.д.) они не умеют, а так же они не стекируемые, что означает, что LACP тоже отпадает как средство резервирования. К сожалению, "плясать" приходится от имеющегося оборудования.
Коммутаторы L2, и прямого линка между ними нет. Нужно обеспечить маршрутизацию между 172.16.0.1, 172.16.0.2, 172.16.0.3 с резервированием на случай падения одного из коммутаторов.
hint000, для радиомоста на 2.4 или 5 ГГц нужно еще получать разрешение на частоты. Иначе рано или поздно придут и предпишут демонтировать оборудование.
mordo445, если погуглить "dual rate sfp", то вполне можно найти контрпримеры - модели модулей, которые умеют работать и на скорости 100 Мбит, и на гигабите. Даже у Cisco были такие. А для SFP+ поддержка 10G/1G - это вообще вполне обыденно.
Вообще, SFP-модули бывают двухскоростные (100/1000), но лучше всегда исходить из того, что и активка, и модули будут работать на одной конкретной скорости.