ivan58, вопрос и правда очень неконкретный, трудно понять, что хочется узнать. Что такое АСУ или ТП? Определение можно найти в Википедии не только. Как делают АСУ ТП? Тоже в интернетах.
Сюда можно приходить с конкретными вопросами, которые легко не гуглятся или с которыми что-то непонятно, возникли затруднения, не удалось что-то настроить, запрограммировать... Можно посмотреть на другие вопросы (в том числе в упомянутых в вопросе тэгах) и станет понятно, о чём идёт речь.
Bermut, это делается так. Получаем AS (одну, две не надо), подключаем два провайдера и с каждым организуем BGP стык. Наша AS попадаел в BGP fullview и весь интернет начинает знать, что трафик до нашей AS можно роутить через этих двух операторов. Причём, как правило, роутиться трафик будет по условно "кратчайшему" пути.
Но это будет стоить достаточно дорого, далеко не 100 рублей в месяц, да и AS получить - это очень непростое дело. Дешевизна интернетов (даже с учётом часто заметно завышенных цен для юрлиц) - это следствие того, что это услуга массового спроса. Однако специфические требования при этом исполнит не каждый провайдер - да и небесплатно выйдет подобное удовольствие.
Поэтому так для уровня "мне достаточно /29" никто не делает ничего подобного. Обычно так делают для проектов совсем другого уровня сложности, причём чаще всего это делается в датацентре, не в офисе.
Например, у моего работодателя арендованные стойки в трёх датацентрах (причём намеренно от трёх разных операторов), между которыми проложена оптика, причём между некоторыми парами это по два независимых канала с разной непересекающейся трассой по городу. Соответственно, нужно оборудование, которое примет 10 Гбит/с на каждой площадке, и грамотный цискарь, который всё это настроит. Далее, у нас 3 провайдера, два на одной площадке, третий на другой, на третьей площадке ничего нет. С каждым из провайдеров BGP. В реальности на любую из площадок трафик может придти по любому из каналов - и дальше дойдёт уже по нашей внутренней сети.
Но у нас есть серьёзные причины для такого дорогого и сложного решения. А для пары серваков в офисе и пожеланий "до 100 рублей" это не вариант. Для такого имеет смысл решения другого класса, хотя и их простыми не назовёшь.
Заводим два провайдера и по каждому кидаем VPN до арендвоанного сервера/виртуалки. На этот сервер покупаем нужную сетку или набор IP, но только один приписываем серверу, остальные анонсируем статически в arp в сеть датацентра, а на серваке роутим в VPN. Тут надо обеспечить роутинг в любой из VPN, это проще всего метриками, но лучше поднять OSPF или даже BGP. На стороне сервера в офисе придётся нагородить policy routing. Так мы обеспечим, чтобы внешний IP, приписанный серверу, маршрутизировался поверх VPN (любого из) в датацентр, а в датацентре эти IP маршрутизируются уже поставщиком услуг.
Ну вот, а теперь нужно понять, что чаще всего даже это не нужно. На нашем сервере же будет крутиться что-то конкретное, на каких-то конкретных портах. И надо всего лишь выпустить в интернет эти порты. Так можно просто на серваке у хостера эти порты пробросить через VPN до сервера в офисе. И не светить весь сервер в интернет. Причём если не нужно видеть адрес подключающегося клиента, то можно проброс сделать с двойным nat и даже policy routing не потребуется.
Надеюсь, я убедил искать решение попроще и не заморачиваться слишком сильно :)
Bermut, отказоустойчивость должна исходить из конкретных сценариев. И вовсе необязательно для этого целую сеть покупать.
Например, сайт проще убрать за Cloudflare, это дёшево и довольно надёжно.
По серверам в датацентре у некоторых хостеров можно купить услугу типа vrrp между датацентрами. Тогда сбой сервера в одном датацентре не помещает серверу в другом принять трафик с тем же самым адресом. По крайней мере у selectel что-то такое было.
Но в целом если нужно чтобы надёжно был доступен сервер, то лучше не провайдеров в плохом месте подключения плодить, а переместить сервер в хорошее место с высоким уровнем обслуживания - в датацентр.
Drno, "у меня работает" это плохой аргумент, он ничего не доказывает. Не работало у многих, не работало на конкретных провайдерах в конкретных регионах.
jcmvbkbc, хорошо, pid namespace и другие namespace позволяют получить "псевдосистему" с тем же ядром и отдельными процессами, файлами, сетью и даже именем хоста. Но "из телеграм" это всё равно не получится.
progar prik, в чём вопрос? Думаю, ты чего-то другого хочешь. Если хочется получить другой процесс с PID=1, то нет, PID=1 может быть только один (ц) Дункан Маклауд, и PID=1 может образоваться только вызовом exec внутри PID=1. Естественно "из телеграма" это сделать нельзя (да и это была бы ахренительная дыра в безопасности).
Так-то в качестве init можно подсунуть другой процесс вместо обычного, надо ядру передать параметр init=, например, для откачивания умершей системы можно попробовать сделать init=/bin/bash и дальше разбираться (но это нужны хорошие скиллы, чтобы разобраться, так как, например, / будет read only, не будут смонтированы /dev /proc /sys, не будет работать сеть и много чего ещё...).
Телеграм предполагает, что пользователь не может редактировать чужие сообщения с текстом, а сообщение бота - это тоже чужое сообщение. Вообще, боты в Телеграме не задумывались как средство создания сложных полноценных интерфейсов администрирования, для этого придумали сайты. Использование средств Телеграма для этого сродни попытке сделать мост из близ валяющихся деревянных палок. Не всякий мост и не для всех задач можно так сделать.
Можно пытаться накостылить, как в том другом ответе, но выглядит это так себе и usability для пользователя тоже не очень. Проще тогда использовать preformatted текст, который в Телеграме по клику сразу копируется в буфер. Это примерно так же так себе выглядит, но намного проще.
И ещё я бы ещё попробовал рассмотреть идею сделать webapp. Правда, по сути это нужно сделать минисайтик, открывающийся прям в клиенте Телеграма, и возникает вопрос, не проще ли таки просто сделать полноценный сайт.
PS: идея апнуть вопрос двухлетней давности весьма внезапная :)
Drno, ну начиналось всё с того что авторизация была только по логину и скорость 6-8 Мбит/с макс. :) так что в целом openvpn на микротике не очень распространённая практика.
Ну современная крыса в современной убунте выглядит очень даже неплохо. Гарантирую как пользователь с 15-летним стажем. Когда-то у ней даже при минорных обновлениях конфиг слетал в дефолт на любом дистрибутиве...
Владимир, зато этот сервер уже готовый есть, его не нужно будет писать. Мне кажется, тут больше проблем с клиентской стороны, если нужно именно своё приложение, а не готовое.
Это немного неправда, так как в реальности эти компьютеры регулярно проводят выборы и выбирают среди master browser. Причём на выборы влияет os level, который у любой серверной версии винды выше, поэтому выборы выигрывают сервера, если они в сети есть. Но если использовать samba, можно поставить в конфиге os level в 255 и тогда этот samba-сервер будет всегда победителем по жизни...
Впаять штраф - легко. Причём даже жалобы MS не нужно. Захотелось проверяющим органам палки в план заработать - они оштрафуют за абсолютно любой нелицензионный софт. Ведь уход поставщика с рынка не отменяет его авторских прав в силу участия России в Бернской конвенции и других международных соглашений по защите авторских прав.
Да, конечно, в текущих условиях шансы на подобное снижены, но нарушение от пустых рассуждений общего характера не перестало быть нарушением, а разговоры в духе "все же нарушают" не подошьёшь к делу. Что будет дальше никто не знает.
Если госсектор, то можно огрести проблем из-за того, что некоторые дистрибутивы Linux на своих сайтах выразили поддержку Украине.
До кучи, госов сейчас могут по поводу и без повода трясти на тему того, чтобы софт числился в "реестре отечественного ПО", особенно при закупках в конкурсных процедурах. Даже если купленный софт реально отечественный от отечественного производителя.
mayton2019, MPI - это не протокол. Это абстрактный интерфейс функций, который имеет много реализаций. В частности, в нулевых популярно было использовать LAM MPI, сценарий использования которого предполагал заранее раскопировать файлы на все узлы кластера или использование nfs, а затем программа вызывалась через mpirun, что приводило к запуску экземпляров программы с помощью rsh/ssh на нужных узлах с правильными параметрами. Но были и другие реализации, в том числе под специализированные контроллеры типа SCI.
В своё время были проги типа offline explorer или teleport, которые позволяли ходить руками по сайту и при этом сохраняли все его страницы. Но это, условно, работает на "классических" сайтах, где контент представляет из себя генерируемые на сервере страницы, если же там front-back, то уже не поможет.
Обычная практика для сохранения данных сайтов в наше время - это написание парсера. Но это требует навыков программирования. Либо можно обратиться на фриланс, чтобы кто-нибудь за денюжку взялся...
Сюда можно приходить с конкретными вопросами, которые легко не гуглятся или с которыми что-то непонятно, возникли затруднения, не удалось что-то настроить, запрограммировать... Можно посмотреть на другие вопросы (в том числе в упомянутых в вопросе тэгах) и станет понятно, о чём идёт речь.