Исходные данные:
- содержание payload сетевого пакета
- правила фильтрации
- все данные в RAM, а не на диске
Согласно правилам фильтрации нужно принять решение, что делать с пакетом.
Проблема:
пакетов прибывает несколько сотен тысяч в секунду. Правил более тысячи. Процессор, естественно, "утопает".
Нужны ваши фантазии на тему, как переработать такое огромное количество данных эффективно и как вообще это можно кластеризовать.
Скорее всего исходных данных мало: буду уточнять по ходу диалога.
Заранее спасибо за идеи!