1 Гб это очень мало для сколько-нибудь сложной задачи. А задача проверки на вирусы - она сложная.
Можно поупражняться в самосборке ядра, убирания лишних запущенных сервисов, но в целом это сильно не поможет. Ну получишь ещё сотню мегабайт, это проблему сильно не решит.
Можно ещё делегировать недостаток памяти на swap. SSD довольно быстрые, да и лёгкие тормоза почте не не слишком уж повредять.
В связи с тем, что звонки WA и телеги блокируются, народ бросился в альтернативы. И гугл мит тоже по многочисленным сообщениям местами начали блокировать.
d-stream, конечно, я и говорю, это должны быть сложные случаи, а тут два контейнера на локалхосте. Вообще, люди, которые пытаются внутри хоста в шифрование беспарольным ключом, который открыто лежит на файловой системе с правами 644 или даже 666, явно занимаются фигнёй.
К вышесказанному добавлю, что часто само разрабатываемое приложение не умеет SSL, вместо этого перед ним ставится reverse proxy (nginx, haproxy, traefik, envoy ид), который и предоставляет SSL, а между nginx (или другим веб-сервером) трафик всё равно не шифруется. До кучи, этот nginx может отдавать статику и скрипты фронта.
Чтобы по ТЗ требовать шифровать трафик в каждом прилоежнии, это должно быть что-то из области военки, гостайны или корпоративных данных супервысокой значимости, крупных финансов или что-то подобное. Обычному сайту такое ни к чему.
sakair, возможно, имеет смысл поискать в /usr/local. Или даже во всём /usr. Или даже прям в /.
"Установлен пакет" не значит, что имеется файл. Имя пакета вообще может никак не быть связано с именами файлов в нём. Возможно, пакет установлен неправильно или файл был кем-то удалён после установки или что-то ещё пошло не так.
У меня в убунте файл входит в пакет texlive-latex-recommended.
Также посмотрел в docker-образе texlive/texlive - там есть файл cmap.sty, а пакет cmap зависит от collection-latexrecommended.
This is pdfTeX, Version 3.141592653-2.6-1.40.28 (TeX Live 2025) (preloaded format=latex)
Может, установленная 2026/dev просто поломана? Ставить нестабильные сборки будущих версий вообще не очень хорошая идея.
locate cmap.sty (если в системе есть locate, то он умеет быстро искать файлы по именам, с учётом что его база обновляется раз в сутки)
или
find /usr/share -name 'cmap.sty'
Может оказаться, что файл есть, но лежит в каком-то странном месте, в котором LaTeX его не ищет. Или на самом деле файла просто нигде нет.
PS: Гугл подсказывает, что в дебианоподобных системах лучше ставить штатный пакет командой sudo apt-get install texlive-latex-extra, а не использовать tlmgr. Возможно, в арче тоже есть что-то подобное.
Quqas, если это слитый в один файл набор блочных устройств и там есть "настоящие" файловые системы (типа ext4), то можно прогнать на дамп утилиту testdisk и она может с хорошим шансом найти границы этих файловых систем. В промежутках между ними могут быть идентифицированы блочные устройства без файловых систем.
Ещё можно изучить дамп с "настоящего" устройства, сравнивая его с "поддельным". Например, получить md5-суммы блоков фиксированного размера (16 кб, 64 кб), если многие блоки совпадут, то всё интересное значит в "разнице".
Это просто некоторые идеи, они могут оказаться и полностью бесполезны для решения задачи.
Мне как-то приходилось снимать mtdblock с реального устройства (Nexx WT3020), но там в bootloader был для этого штатный механизм, который сохранял каждое устройство в свой отдельный файл. Если они даже в реальности хранились в одном чипе, это никак не было заметно.
Например, считая число запросов и выдавая ошибку 429 или показывая капчу на превыщение рейтлимита. Или отслеживая запросы с нетипичными для живых пользователей особенностями (заголовки Referer, User-Agent, запросы с параметрами, которые в js-скриптах сайта не предусмотрены, итд итп). Можно отслеживать js или tls fingerprint'ы, аномальную нагрузку по сравнению со средней... В этой сфере довольно много уже придумали, как много придумали и те, кто сайты парсит.
В общем случае задача никак не решаема. Парсер всегда может изобразить органического пользователя или много органических пользователей с разных адресов. Даже профессиональные сервисы защиты за много денег обходят.
Refguser, ну как сказать? Например, в личном блоге можно спокойно ставить любой тэг к записи. Тут может потребоваться управлять, что могут ставить конкретные юзеры. Или сделать отдельную систему "хабов". А это уже не так просто.
В общем, без изучения, что нужно автору и что умеет WP из коробки (я им никогда сам не пользовался, только помогал кому-то ставить/чинить) или с какими-то адекватными плагинами тут сложно точно сказать. Но я бы всё равно советовал рассмотреть в первых рядах вариант из постскриптума.
ffff567, представляешь - во всём мире прекрасно понимают код с переменными латиницей. И в большинстве языков даже не предусмотрено использовать символы экзотических алфавитов для этого.
Adamos, если кнопка на KVM или на выносном проводе (у меня такой как раз), то легко решить вопрос со "случайно". Ну кроме случая бардака на столе (и даже с ним у меня редко случается такая оказия).
Дмитрий, и якобы удобен для виртуалок, докеров итд? Лучше уж тогда полноценный Linux даже на этот роутер, если уж он реально такой "мощный". Openwrt для другого существует.
bodial, в целом я бы поставил вообще вопрос, почему там возникают такие проблемы с доступом по ssh. Потому что надо как-то очень хреновое что-то регулярно делать с сервером, чтобы у него часто сеть отваливалась. Как правило "настроил и забыл" обычная практика.
Я к своему домашнему вообще с телефона иногда хожу. Найти какие-нить файлы, перезапустить упавший скрипт итд.
Можно поупражняться в самосборке ядра, убирания лишних запущенных сервисов, но в целом это сильно не поможет. Ну получишь ещё сотню мегабайт, это проблему сильно не решит.
Можно ещё делегировать недостаток памяти на swap. SSD довольно быстрые, да и лёгкие тормоза почте не не слишком уж повредять.