Adamos, "вчерашние" процессы при mpm-prefork это более чем нормально. Запущено ндцать воркеров, они обрабатывают запросы. В зависимости от настроек, worker перезапустится при выполнении некоего лимита на количество запросов. И количество воркеров тоже может адаптироваться под нагрузку. Я бы начал с уменьшения их максимального числа (ServerLimit), сделать лимит например 30, чтобы было точно меньше 40.
Это неправда, вполне себе кэшируются, и история тут ни при чём. Практика показывает, что 301 редирект вполне может кэшироваться очень даже хорошо. Например, был печальный опыт с приложением, которое забирало мобильный PUSH-контент по ссылке, которая при некоторых условиях возвращала 301, и когда это пофиксили, некоторые мобилки ещё через год помнили этот редирект.
Имя, если книг действительно "несколько", то проще вручную выбрать страницы с оглавлением и распознать, затем скопировать это в таблицу и причесать в вид навроде "раздел - диапазон страниц" и после этого скрипт написать для вызова какого-нить ghostscript/pdftk/итдитп, который выдернет нужные части файлов. Картинки можно попробовать конвертацией doc в html. Но как правило всё равно где-нибудб будет хрень и потребуется вручную подправлять: выкидывать картинки дефектов печати или загибов страниц, неправильно определённые картинки итд итп.
Вообще FineReader правильнее использовать в полуручном режиме. Сначала прогоняем файл с распознанием областей, потом просматриваем его и исправляем где он определил неправильно (например, увидел текст вместо таблицы или наоборот, или двухколоночный текст посчитал одноколоночным). Потом прогоняем финальное распознавание текста и уже тогда текст вычитываем, исправляем ошибки (благо оригинал параллельно виден). При этом получаем полноценную текстовую версию сканированного документа, а не фиг знает что с неопределённым количеством ошибок.
Полученный результат можно превращать хоть в электронную книгу, хоть в текст на сайте, хоть печатать в нужном формате...
morloz, насколько я помню, с кириллицей в микротиковских модемах всё очень плохо. Как и с многосегментными сообщениями. Тем более что предназначены функции SMS там для задач типа посылки простейших команд через SMS, не для полноценного обмена данными.
Я бы рекомендовал использовать транслит, а лучше использовать более адекватные модели модемов, поддерживающих SMS полноценно, со склейкой и юникодом.
den96, i2p очень медленная сеть сама по себе. А попросить пользователей никак, тем более что это чаще всего попросту невозможно, потому что пользователи никак сами скорость не ограничивают. У многих пользователей, что сидят на древних раздачах, часто в клиенте сами по себе могут быть сотни и тысячи раздач, а это значит, что с них по мелочи качают много и на всех скорости может банально не хватать.
Ссылаться на то, что иногда старые раздачи удаётся скачать, недостаточно для утверждения о возможности скачать в любом случае. Ведь скачать можно только то, что кто-то раздаёт, если никто не раздаёт, то и скачать не получится. Ситуация, когда в сети осталось от раздачи каких-нибудь 5-10-20-30-99% только благодаря другим пытавшимся это скачать не такая уж и редкая.
Например, у меня сейчас висит раздача на 25 Гб, где ооочень редко появляется сид (видимо, запускает клиент что-нибудь скачать и сразу гасит) и по чайной ложке выцеживает, за пару месяцев 1 Гб набрался...
Akina, да, теоретически такое может иметь смысл, но на практике postgres и oracle такого не поддерживают вообще никак, и я не вижу смысла приучать себя к подобному, даже если в какой-то базе такое реализовано.
Вообще, я бы не связывался с хостингом, который даже лимиты нормально настроить не может.