webviktor, по сравнению с обычной записью логов их фильтрация - разумеется, будет значительно более затратна по ресурсам. Но дело даже не в этом, а в том, что веб-сервер идеологически не предназначен для таких манипуляций, соответственно - и возможностей в нём для этого по сравнению со специализированными решениями или даже просто системными утилитами гораздо меньше.
Готового скрипта у меня нет, но по-моему, довольно несложно однострочником сgrep -v 'bot1\|bot2\|etc' реализовать такую сортировку. Если же вам нужен более интеллектуальный анализ - стоит посмотреть на штуки вроде goaccess.
Понятно, хотя как по мне, не совсем логично. Ведь сам вебсервер формирует эти логи. Логично было бы, чтоб он имел более широкие возможности их управлением.
Ведь игнорить определенный юзер-агент гораздо проще, чем парсить его в итоговом файле.