Доброго времени суток. Какие существуют стратегии масштабирования (или экспорта данных в warehouse) для Cassandra? Требуется хранить и обрабатывать (Spark) большие объемы логов (~ 30 млн записей в сутки). В документации указано, что для partition ограничение составляет 2млрд (cols x rows) ячеек, причем что имеется ввиду под partition не совсем понятно. Прошу подсказать по поводу того, что имеется ввиду под partition и какие подходы к решению данной задачи могут быть (пока что мне видится создание таблиц для каждого месяца, а затем join через spark, если временной промежуток запроса затрагивает несколько месяцев)?