там кстати есть совет использовать Шоколатье, я на какой то DevOps конфе , еще в 18 году слушал одного спикера, который очень вдохновляюще рассказывал как классно они все накатывают через него на винды, и по факту - мы попробовали и обломались
оно работало вообще не предсказуемо, то ставилось, то не ставилось - в логах пусто, просто висит таска и все. плюнули и остались на Deploy over GroupPolicy
даже бэкапы делать не обязательно.
делаешь список всех файлов в системе командой find
устанавливаешь пакет
снова делаешь список файлов
сравниваешь на предмет изменений.
профит.
нет. вам надо зайти снаружи, по ssh. Используете вы putty или другой клиент - это не важно. Если у вас будет внешний доступ к виртуалке по ssh , вы сможете выдернуть данные.
Если вы не понимаете как проверить почему у вас нет доступа туда снаружи, ну.. Установка ftp сервера на виртуалку вам ничем не поможет - где гарантия что вы на ftp зайдете снаружи.
есть вариант на самой виртуалке сделать архив с данными и по ftp положить их на какой то внешний сервис. умеете из консоли пользоваться ftp клиентом?
Цепляете конфиг при запуске, это во всех мануалах по запуску Прометея в докере есть.
Прометей у вас работает. Как его настроить отдельный вопрос.
По моему мнению вы напрасно связались тут с докером - без него было бы гораздо проще.
я вам ничего не писал о том как запускать.
смотрите. у вас есть _уже_ запущенный и работающий контейнер. на скрине в вашем первом сообщении у него номер b9631 и так далее
все. Прометей запущен.
второй контейнер с Прометеем запустить не выйдет , либо (ну вдруг вам правда надо их два) указывать другие порты и volumes.
Сообщение ошибки говорит о том что volume УЖЕ используется, и переиспользовать его нельзя.
вам тут никто ничего не должен.
запускаете контейнеры с опцией --net=host - это видно из вашего прошлого вопроса, потому что лепите по мануалу , разжевывать для чего нужна эта опция я не буду, в документации докера изложено крайне понятно. https://docs.docker.com/network/network-tutorial-host/
и? что мы видим ?
два контейнера которые бьются за одинаковые ресурсы, поэтому второй сдох и не может подняться - порт занят, вольюмы тоже заняты. И отдельные сервис Прометея, который не может подняться по тем же причинам.
это _разные_ command shells , соответственно места расположения конфигов у них разные. И если я не ошибаюсь , в макос, базовый все же bash , а zsh вы ставили ручками.
edit
Я ошибся. Оказывается для BigSur , для новых юзеров - zsh базовый. Значит просто инструкция, которой вы пользовались, была просто написана до Big Sur.
у меня используется телеграм бот, он просто добавлен в канал (там все инженеры) и пишет в этот канал. на сервере это просто скрипт в две строки буквально, что и когда писать - логика вся в заббиксе.
"прога" может отправлять смс через USB модем, может пинать скриптом один из многочисленных СМС-сервисов в интернете, прога много чего может.
У меня например - просто пуляет в телеграм.
мне честно говоря не очень понятно как он вообще должен запускаться в таком раскладе. конфигурация сделана ансиблом, параметры сервера распиханы в нестандартные места. ок.
я бы полез в свойства юнита Systemd и посмотрел как оно там сделано, может оно должно стартовать не самостоятельно, может его битрикс этот стартует каким то хитровывернутым способом.
короче, идеи есть, но чтобы их проверять - надо сидеть у системы и ковыряться.
По битриксу у меня опыта нет, так что, извините..
Шикарно.
Что в
# Parameters set by bvat are stored in /etc/mysql/conf.d/bvat.cnf.
# If you want to change any parameter, you'll have to redefine it in /etc/mysql/conf.d/z_bx_custom.cnf
??
конфиги показывайте,
/etc/my.cnf
содержимое папки (если есть) /etc/my.cnf.d/
как вариант попробовать его запустить просто из командной строки указав его конфиг, и посмотреть что он напишет в stderr
И я добавлю, вы деплойменты-то покажите, может там что-то совсем простое , или даже может у кого под рукой и тестовый стенд с кубером есть, запустит глянет.
оно работало вообще не предсказуемо, то ставилось, то не ставилось - в логах пусто, просто висит таска и все. плюнули и остались на Deploy over GroupPolicy