• Как пробросить HDD в LXC контейнер Proxmox?

    @Vova-vova
    За три года так и не появилось ответа. В интернетах попадается только проброс в Виртуальную Машину, а не в контейнер lxc. Тогда я отвечу сам.
    Пробросить физически диск с хоста в контейнер проксмокса (на самом деле папку на хосте) можно в консоли хоста proxmox так:
    pct set 102 -mp1 /mnt/pve/moydisk/films,mp=/mnt/hdd2
    pct - Proxmox Container Toolkit, утилита для управления контейнерами
    set - команда выбора контейнера
    102 - номер контейнера
    -mp0 - опция указывающая номер точки монтирования. Первая начинается с 0, потом 1, потом2 и так далее, если хотите несколько дисков пробросить в контейнер.
    /mnt/pve/moydisk/films - путь, куда у вас примонтирован диск (ну либо вы просто папку с хоста хотите пробросить в контейнер). В случае софтрейда это будет например /dev/md0.
    mp=/mnt/hdd2 - путь внутри контейнера, куда будет отображаться диск. Эту директорию надо предварительно создать, если её нет.
    После этого можно проверить. Для этого надо зайти в веб-морду проксмокса, далее выбрать наш контейнер - Resourses - и там будет виден новый пункт Mount Point. Смонтированный диск сразу виден в окружении контейнера, перезагружаться не надо. Актуально для версии 7.4, но наверное и на других версиях тоже самое.
    И не забудьте в хостовой системе (проксмоксе) выдать права на запись, чтобы приложения из контейнера могли туда писать.
    Ответ написан
    1 комментарий
  • Как получить доступ у серверу извне?

    @Akina
    Сетевой и системный админ, SQL-программист.
    Любой маршрут пакета может быть представлен так:

    (source IP1) - (IP2 router1 IP3) - (IP4 router2 IP5) - ... - (IPn destination)

    У тебя весь маршрут точно известен. А потому временно добавляем на источнике (IP1) маршруты во все промежуточные подсети, если они не покрываются маршрутом по умолчанию или более широкими частными маршрутами, и с источника (IP1) начинаем последовательно пинговать IP2, IP3, IP4, .. и так до узла назначения.

    Где-то возникнет проблема, и очередной IP не ответит. Вот именно знание, кто не ответил, и какой именно тип ошибки пинга возвращён, и позволит определить, на каком узле и по какой причине грабли. Конечно, следует понимать, что в маршруте может быть несколько последовательных ошибок, и даже несколько параллельных на одном узле.

    Например, если проходит пинг на IP4, но не проходит на IP5, то в случае ответа No route to host проблема - в отсутствии маршрута в подсеть IP5 на узлах source (забыли добавить или сделали это неправильно) или router1, а в случае ответа Timeout проблемы с маршрутизацией на узле router2 или файрволом на любом из трёх задействованных в маршруте узлов.
    Ответ написан
    Комментировать
  • Как заставить работать RAID-контроллер HP p410 в моей ситуации?

    Dep3kuu
    @Dep3kuu
    Веб-разработка и любая интернет реклама
    Автору уже явно не актуально, а другим, кто придет из гугла (как я) - возможно.
    Воткнул в десктопную мать хп п410. Ситуация схожа с описанной автором.
    Решение:
    Прошить в контроллер прошивку старую (3.66), станет доступно меню настройки контроллера.
    Далее предлагается прошить свежую прошивку для работы. Надо или нет - решать самим.

    У меня сработало. Биоск онтроллера стал доступен, массив создан.
    Ответ написан
    2 комментария
  • Можно ли восстановить zpool ZFS массив (raidz1) из 4х дисков после физического изменения порядка дисков?

    1mAx0
    @1mAx0 Автор вопроса
    it freelancer
    Сам отвечу - немного не хватило знаний устройства linux-систем, провозился пол дня пока разобрался.
    В общем при загрузке после того как вытащил диски zpool развалился, а так как директория пула указана в Proxmox (/rpoolz), автоматом создались системные подпапки в директории /rpoolz, после того как zpool восстановился, он автоматом пытался примонтироваться к директории /rpoolz, но так как она была не пуста - не получалось. Помогло просто очистить пустые папки в директории /rpoolz.
    Странно то что рейд вообще развалился и мне пришлось рандомно перетыкать все диски в разные сата-порты чтобы он заработал, т.к., почитав разные статьи, пришел к выводу что raidz не должен распадаться если поменять диски местами физически...
    Ответ написан
    Комментировать
  • Покажет ли "нормальный" SMART SAS-диска такие программы как AIDA64, CrystalDiskInfo если его подключить в режиме HBA (JBOD) через raid-контроллер?

    15432
    @15432
    Системный программист ^_^
    Самая "пробивная" утилита для просмотра состояния дисков - smartmontools. Наиболее полные возможности у неё в Linux, но и в Windows частично что-то она может.

    Перечень поддерживаемых контроллеров, "сквозь которые" поддерживаются запросы, здесь:
    https://www.smartmontools.org/wiki/Supported_RAID-...

    про AIDA64 и CrystalDiskInfo не уверен, но полагаю, что у них способностей поменьше будет
    Ответ написан
    2 комментария
  • Где лежат образы виртуальных машин на Proxmox?

    RicoX
    @RicoX
    Ушел на http://ru.stackoverflow.com/
    1) /var/lib/vz/images/ ,если не указано другое, вообще можно посмотреть через веб морду Датацентр-Хранилище. RAW формата может и не быть, все машины могут лежать в более современном qcow2, тогда сначала конввертим в raw, затем в vmware.
    2) Вы не указали, что бэкапы должны лежать там, заходим в Датацентр-Хранилище, открываем на изменение local, там выделяем поле ...backup...
    3f2cb34f74544d118013b7ca25a1e5db.png
    P.S. Я так понимаю, что цену на vmware вы уже видели, согласовали с руководством и оно готово заплатить кучу денег за ваше неумение пользоваться открытыми инструментами, Proxmox в ровных руках ничем не хуже, а в ситуации, когда много контейнеров даже лучше продуктов vmware, в чем смысл перехода, если и так все работает?
    Ответ написан
    Комментировать
  • Нужна ли защита ZIL zfs?

    heathen
    @heathen
    Выбор между аппаратным RAID (с SSD кэшем и батарейкой) и ZFS - вопрос экономической целесообразности, и только. Примите во внимание сказанное ниже, посчитайте, сколько будет стоить железо для ZFS, и сколько - аппаратный RAID. После этого думайте. При этом учтите, что величина кэша на чтения у аппаратного RAID - фиксированная (если мы о разумных деньгах говорим). Кэш на запись не так критичен в данном случае.

    Так вот, что касается ZFS и быстродействия:

    0.1. В первую очередь выбор будет решать поддержка ECC-памяти у вашего сервера-хранилища. ZFS очень критично относится к ошибкам RAM, а собственных механизмов для защиты от них у неё нет. Само собой, никто вам не гарантирует неприятности в случае отсутствия ECC, но единичные сбои в памяти - случаи не эксклюзивно редкие, поэтому решать вам.
    0.2. Не используйте встроенные SATA-контроллеры. Купите LSA 3008 в IT-режиме и к нему всё цепляйте. Может быть, ваш имеющийся RAID-контроллер можно использоваться (но в JBOD-режиме, понятное дело), но он тоже может дать какой-то оверхед (если там даже для JBOD используется кэширование или ещё что хитрое).

    1. Первое, во что стоит вложиться для оптимизации производительности чтения ZFS - это оперативная память. Больше памяти - быстрее операции чтения (ARC находится именно в памяти). Если у вас менее 16ГБ ОЗУ и возможности поставить больше нет - задумайтесь, нужен ли вам ZFS. Лучше вложить деньги в память, чем в SSD под L2ARC.
    2. Для оптимизации операций случайной записи вам понадобится, как вы правильно заметили, SLOG, он же ZIL, на SSD. Правила следующие для него:
    2.1. Во-первых, это должно быть устройство, предназначенное для ЦОД с максимально допустимым TBW (total bytes written). Не покупайтесь на дешевизну пользовательских SSD, это выйдет вам боком. Если говорить о Samsung, то смотрите в сторону 843 DC (именно DC, не Pro и не Evo), а лучше - Intel S3700. Учитывая, что вам нужен диск на 100GB - это не принципиально дорого получится. 1 DWPD и ниже - плохо, 3 - более-менее, 5-10 - отлично. Ну, и устройства для ЦОД имеют конденсаторы, поэтому при падении питания то, что в кэше диска, будет таки скинуто в основную память. Но повторюсь: обязательно смотрите условия гарантии и максимально допустимые объемы записи в день\всего.
    2.2. По поводу того, что случится, если выйдет из строя устройство с ZIL. ZFS на запись работает следующим образом. Все транзакции, синхронные и асинхронные, кэшируются в памяти. В случае синхронных транзакций подтверждение приложению, отправившему транзакцию, будет отправлено только в случае завершения дисковых операций, в случае асинхронных - сразу же. Так вот, чтобы сократить время ожидания, ZFS скидывает каждую синхронную транзакцию на ZIL и отправляет приложению подтверждение. Теперь, если сервер неожиданно выйдет из строя, асинхронные транзакции будут потеряны (они только в памяти были), но вот синхронные будут восстановлены последовательно из ZIL и записаны на диск. Если же выйдет из строя SLOG-устройство, на котором у нас ZIL, во в процессе работы сервера, то ZFS запишет всё на диски основного массива из памяти, и далее начнёт использовать под ZIL основной пул.
    Я это рассказал, чтобы вы понимали механику и смогли информированный выбор сделать. Т.е., с одной стороны, вы потеряете критичные данные только в том случае, если одновременно выйдет из строя SSD и сервер выключится по тем или иным причинам. Но если сервер включился, до перезагрузки существовала очередь синхронных транзакций, а SLOG-устройство неисправно, вы потеряете все незавершённые транзакции (что в случае с VM почти наверняка будет означать кучу проблем). Причём пул будет в аварийном состоянии, и вам придётся вручную его импортировать и "отмотать" назад до последней успешной транзакции. В качестве защиты можно поставить два SSD и mirror'ить zil между ними (прямо средствами ZFS), но это, понятное дело, снизит скорость.
    Само собой, в случае проблем с диском (любым) вам и ОС ругаться будет, и ZFS том пометит как degraded. А превентивно - пользуйтесь smartmontools :-)
    2.3. Большой ZIL вам не нужен, буквально несколько GB. Т.е. если у вас 1 диск, я бы отдал немного под систему, 5-10GB под ZIL, остальное - под L2ARC, если два диска, то зеркало под систему, зеркало - под ZIL (zpool add tank log mirror /dev/sda2 /dev/sdb2) и остатки на каждом разделе - под l2arc (zpool add tank cache /dev/sda3 /dev/sdb3). l2arc будет stripe'иться, что ещё увеличит скорость чтения.

    Но, вообще говоря, 4 диска - это семечки для ZFS. На таком количестве дисков правильно подобранный SSD даже на операциях последовательной записи может дать прирост. Ну, и в случае хранилища под виртуализацию - только stripe + mirror, понятное дело. И маленький совет - купите пятый диск для hot spare. Просто на всякий пожарный.

    Ну, и самое важное: качественный UPS must have.

    P.S. Не используйте ZFS on Linux. Лучше Фря.
    Ответ написан
    4 комментария
  • Oktell SIP-GSM + huawei e1550. Как принимать звонки?

    @SashaSkot
    Специалист широкого профиля
    Подключайтесь к COM порту модема, вешайте листенер, как только появляется Incomming Call или что-то типа этого (посмотрите вывод из ком-порта при звонке) фиксируете номер.
    Тут шпаргалка.
    https://social.msdn.microsoft.com/Forums/vstudio/e...
    Ответ написан
    2 комментария
  • Как раздать wi-fi с mikrotik с использованием VPN (прокси)?

    @LiS-31
    Если задача стоит в том, чтобы завернуть весь трафик сети через VPN, то просто указываете VPN-тунель в качестве интерфейса в правиле SRC-NAT

    /ip firewall nat
    add action=masquerade chain=srcnat out-interface-list=VPN
    Ответ написан
    1 комментарий
  • Возможно ли настроить PAC скрипт на Mikrotik?

    @Wexter
    Там рядом лежит конфиг для OpenVPN, поднимите с микротика openvpn по примеру конфига и пользуйтесь
    Ответ написан
    2 комментария
  • Как объеденить подсеть приходящую с l2tp over ipsec с внутренней подсетью на mikrotik?

    @geniuscomposervsevolodpus
    Работаю с сетями ETH и PON
    Вам поможет OSPF
    Ответ написан
    Комментировать
  • Как объеденить подсеть приходящую с l2tp over ipsec с внутренней подсетью на mikrotik?

    hempy80
    @hempy80
    Внесистемный администратор
    Для корректной работы HMS, как и любого DLNA (UPnP) сервера необходимо, чтобы клиент и сервер находились в одном широковещательном домене. т.е. по идее вам нужно добавить в бридж L2TP-сервер (или бондинг L2TP сервера конкретно для этого клиента), в который подключен гипервизор. Будут проблемы с MTU, но вродь решаемые5d5ec05cd214f404629790.png

    тут почитайте
    Ответ написан
    3 комментария
  • Как ограничить пользователей VPN (pptp,l2tp) на mikrotik RB2011?

    @etoosamoe
    Предположим, что пользователь подключившийся по vpn получил адрес 10.1.6.15, другие пользователи так же получают адреса из 10.1.6.0\24.
    Попробуйте сделать правило в цепочке
    forward, action=drop, src-address=10.1.6.0/24, dst-address=10.1.6.0/24

    Чуть выше него поставить правило
    forward, action=accept, src-address=10.1.6.0/24, dst-address=10.1.6.1
    (где 10.1.6.1 это адрес шлюза для пользователей).
    Таким образом мы будет резать весь трафик из шестой подсети в шестую подсеть, кроме трафика из шестой к шлюзу.

    Если нужно ограничить еще дополнительно все остальные кроме второй, тогда
    chain=forward, action=drop, src-address=10.1.6.0/24, dst-address=!10.1.2.0/24


    Честно, я не пробовал так делать, но в теории должно сработать. Может знатоки packet flow diagram меня поправят
    Ответ написан
    Комментировать