Мне нужно до удаленного хоста прокинуть FCoE. Из голов нельзя, в свитче есть один Ethernet-порт, но он только для управления, как я понял.
Да он только для управления. В вашем варианте проще проложить оптику до нужного места. Оптика многомод. Иначе вам надо будет еще и 10gb свитчем закупатся и кабель должен быть 6 категории.
Что в общем вообще тереется смысла в корзине. Как по мне, я уже давно ушел от этого всего. Хватает обычного сервера на windows 2012r2 + jbod полка + storage space и там уже по iscsi с 10gb куда надо. Для большинства фирм этого хватает. Можно еще рассматривать linux/CEPH FC итд.
poisons: Оно вредно, когда производитель кладет болт на спеки и забивает на прошивки.
С учетом того, что тики сами пишут модулю, к upnp в плане безопастности нет претензий. Естественно речь идет со стороны WAN.
Teyla: Что значит по отдельности ?
Контроллеры (головы) вы можете подключать к разным машинам , но надо понимать, что обычно делают MultiPatch , на случай выхода одной из голов, вторая будет работать и связность с машиной не потеряется.
К примеру у вас 2 головы по два выхода у каждой. Выход из головы 1 ставите в первую машину, выход 1 из головы 2 в первую машину. Со второй все то же самое. Вы должны понимать, что тогда должен быть включен MultiPatch иначе вы увидите два раза одно и тоже и буду коллизии, особенно на не кластерную ФС.
Каждая голова может быть primary вторая secondory, если выходит из строя primary то вы в некоторых полках теряете контроль, но полка будет работать дальше, пока вы не поставите новую голову и она не заберет данные со второй головы. Но обычно у каждой головы есть свой ethernet порт и работают самостоятельно, но все зависит от версии полки.
Две полки могут работать между собой как непрерывная репликация данных , но и тогда они не видны как одно целое. Вам например может быть надо отключить полку, поменять голову,диск ,firmware итд.
Как я уже писал выше, вы можете не ставить Command View EVA , а тупо обращаться по адресу к полкам.
Рекомендация почитать толстый мануал, там описано все , что вам нужно.
configboy: Если у вас есть полный backup базы данных, я бы не стал ломать голову, что произошло с той машины и все бы быстро восстановил. Шаблон не как не связан с запусками вирт машины, у меня они уже на машинах например все удалены, что бы ничего нового другие люди не разворачивали.
Рекомендация, если есть backup все восстановить в новом контейнере, но перед этим обновить proxmox. Так как в новых версиях нет openvz и там уже lxc и вам надо будит делать конвертацию контейнеров, что не факт пройдет хорошо и без ошибок.
configboy: Посмотрите pid openvz и посмотрите есть ли в cacshe по этому pid что-то ?
Хотя дело наверно не в этом. Ну а вообще openvz новая машина стартует ?
configboy: а этот template сборный или он доступный ? Если доступный тогда надо смотреть, что с ним.
Более новые системы могут не работает уже в 3.4. Ядро очень старое 2.6. Например ubuntu край 16.04 и то, там glibc не обновляется и все работает на свой страх и риск.
Судя по маршруту он у вас все же блокируется.
Я не знаю, есть ли у вас списке , что бы посмотреть заблокирован этот ip или нет.
Как вариант, можно сделать запрос с самого роутера, если он достаточно продвинут.
Еще момент, я сильно рекомендую настроить ipv6 туннель. В массе своей очень много сайтов перешли на Ipv6 и пока не особо блокируются. Я могу рекомендовать только одно брокера he.net, но нужны определенные условия. 1) это прямой ip 2) возможность настройки на роуторе.
Можно попробовать использовать Teredo , но я этот вопрос пока не изучал.
KeyDel: Ну видимо да. Судя по тому, что вы все же получили ip ресурса - проблема не в DNS.
Может он попал в список блокировок ? Если есть VPN , было бы неплохо проверить.
Через vpn заработает, значит 100% это сетевая проблема и надо разбираться уже внутри сети и на стороне провайдера.
Евгений: Еще из жизненного, у меня несколько организаций на обслуживание удаленно. Разные сервера в разных дата центрах. В общем у меня на роуторе приземлены все vlan и некоторые разбиты по портам.
Воткнулся туда провода и ты в той сети со всем широковищательным трафиком. Да это грузит канал особенно если такого трафика много и естественно я не буду его делать при 200 машин. Еще вариант VPN в US,DE,FR итд. Что бы проще было переключатся и не ставить клиенты каждый раз, вывел все на wifi сеть. Подключился к одной в США, к другой Германия :) В общем это просто удобства, который порой не замешены на масштабах.
Евгений: Тут не зависит от объемов, тут зависит от ситуации.
Ну например много у вас будет устройств серверов,свитчей,схд,nas итд в среднем предприятии .
Однако в целях безопасности лучше убрать в отдельный vlan. С brodcast штормом сейчас вполне справляются сами коммутаторы , которые умеют это определять и отрубать виновников. Как в общем и петли ловить.
Хотя я лично сам не сторонник держать 200 машин в одной сети, особенно если это сеть не управляемая (не настроили на коммутаторах все как надо или коммутаторы тупые). Тогда лучше сеть /24 разделить на две части. Но еще раз, тут нет универсального рецепта как и с советом , а какой мне сервер купить для web в 1000 человек в день. Например мне очень часто попадается , что провод провайдера наверху , а серверная внизу. Тянуть провод ? Да ну нафиг. Создаем vlan и передаем до нужной точки. Есть тут нагрузка ? нет. Просто удобно и не более.
Сделать дист можно вполне. До недавнего ubuntu-core решала эту задачу, сейчас они переключились на iot устройства и он немного распух. Но это не мешает собрать из debootstrap.
Но в итоге пробуйте alpine как минимальную альтернативу , если вам надо всего две среды запускать.
Хотя помнится мне и freebsd пилила поддержку XEN Dom0.
Да он только для управления. В вашем варианте проще проложить оптику до нужного места. Оптика многомод. Иначе вам надо будет еще и 10gb свитчем закупатся и кабель должен быть 6 категории.
Что в общем вообще тереется смысла в корзине. Как по мне, я уже давно ушел от этого всего. Хватает обычного сервера на windows 2012r2 + jbod полка + storage space и там уже по iscsi с 10gb куда надо. Для большинства фирм этого хватает. Можно еще рассматривать linux/CEPH FC итд.