Простой Человек, у cpio два основных режима: copy-in (распаковка), copy-out (запаковка) и test (проверка), которые задаются ключами -i и -o. Как и tar, этот архиватор не занимается сжатием файлов, поэтому его надо будет пожать чем-то ещё (gzip, bzip2 итп).
Список файлов для запаковки передаётся через pipe (да, немного непривычно). Поэтому типичное создание архива такое:
cd /path/to/directory
find|cpio -ov|gzip > /path/to/backups/archive.cpio.gz
artempawww, ну так в синхронном коде клиенты и будут работать по очереди. А так как никакой сам по себе не завершается, то будет работать только первый.
Например, из самого простого - величина оверкоммита vCPU. Допустим, у нас процессоров на 72 ядра, но мы размещаем на сервере 50 виртуалок по 4 ядра. Но ядер-то 72, а не 200, поэтому временами клиенты будут недополучать процессора. И чем больше уплотнены виртуалки, тем больше риск этого. Но зато это заметно удешевляет хостинг.
Или вот технология виртуализации влияют. Честная виртуализация (kvm/xen/vmware/hyperv) дороже нечестной имитации с общим ядром (openvz/lxc). Да и сами технологии виртуализации имеют разную стоимость. Например, решения от vmware по определению будут стоить дороже, так как там ещё и лицензия на коммерческий продукт.
Или вот дисковая подсистема, которая может работать с разной скоростью, да и просто в любой момент с непредсказуемой.
Чтобы "работало хорошо", приходится платить.
Ну и напрямую сравнивать российских хостеров с зарубежными в нынешних условиях нельзя. У российских намного выше собственные расходы были всегда, а сейчас так ещё сильнее выросли. Плюс сильно выросший спрос. Мой хостер, например, поднял цену на выделенный сервер стоимостью 5.5 тыс. до 11.2 тыс.
А Яндекс ещё и завышает цены просто для того, чтобы к нему не шло слишком дофига народу. К нему в основном идут те, кому нужны особые облачные услуги Яндекса (которые тоже стоят дороговато, но хотя бы достаточно уникальны и полезны).
albertalexandrov, ОС может выполнять операции ввода-вывода в неблокирующем режиме. Например, чтение длинного ответа http будет происходить частями, по мере поступления пакетиков от удалённого сервера. Соответственно, можно не ждать, пока все они дойдут, и переключиться на что-то ещё.
Это inline mode. Важно понимать, что в этом режиме бот помогает пользователю составить сообщение, но при этом бот не узнает, в какой чат пользователь это сообщение отправит - да и отправит ли вообще или откажется? И запросы пользователя кэшируются на серверах Телеграма, поэтому точно такой же запрос может не дойти до бота, а отвечен из кэша.
По бинлогам я бы посмотрел время создания файлов, если они очень старые, то возможно то, что осталось до выключения бинлогов.
Архивировать /usr/bin это очень странная затея. Принято архивировать данные, которые затем выкатывать в свежезалитую с нуля систему. Кстати, с этой точки зрения непонятно, почему не бэкапится wwwroot - это ж обычно самое важное и интересное...
По моему опыту, для архивации именно системы - если вдруг очень приспичило - лучше использовать cpio, а не tar. Я делал сборки системы в виде архива image.cpz (cpio+gz), которые использовал для массового разливания готовой системы. От tar пришлось отказаться, так как он почему-то сходил с ума от симлинков на абсолютные (не относительные) пути.
Shing, может и в IMEI. Просто сама постановка вопроса "раз в телефоне работает, значит дело не в TTL" категорически неверна. Именно TTL - первейший признак того, что коннект устанавливается не с самого мобильного устройства, а с другого за ним. И если просто вставить симку в случайный китайский роутер, то не нужно удивляться, что это легко палится что по TTL, что по IMEI...
SemenPPP, человек легко делит одно предложение на части либо тараторит предложения вплотную. Использовать особенности речи очень сложно. Либо это будут грязные хаки, либо это должна быть нейросеть, обученная на весьма объёмных аудиофрагментах, что довольно сложно и сомнительно.
Правильно говорят, что тут может быть перспективнее смотреть в сторону алгоритмов и методов NLP (Natural Language Processing, не путать с лженаучным "нейролингвистическим программированием").
К вышеответившим добавлю, что типичных форм автомобилей не так много, а тент на фотке всё равно закрывает авто полностью. Поэтому проще взять 3D-модель тента с торчащими внизу колёсами и на неё уже рендерить изображение.
Николай Екатеринин, для начала, локальная копия на 1 коммит отстаёт от удалённой. Надо сделать git pull и разрешить конфликты. Как вариант, спрятать изменения program.py с помощью git stash, а потом по окончании всей операции вернуть эти изменения git stash apply. Это если они нужны, конечно. Совсем сбросить эти изменения можно с помощью git reset --hard, при этом состояние репозитория будет восстановлено на самый верхний коммит в локальной копии (который всё ещё будет отставать на один коммит от удалённой).
Когда локальная копия будет соответствовать серверной, нужно будет внести необходимые изменения, потом git commit & push. Иногда можно использовать git revert, чтобы откатить изменения конкретного коммита из предыдущих.
Миша, в любой операционной системе есть понятие текущего каталога. Путь media/main_profile/about.jpg является относительным и будет искаться относительно текущего каталога.
Список файлов для запаковки передаётся через pipe (да, немного непривычно). Поэтому типичное создание архива такое:
Распаковка:
zcat archive.cpio.gz|cpio -idmv