Есть простая система учета статистики кликов по ссылкам. Фронтенд после того как осуществляет редирект, отправляет RPUSH'ом данные о клике (LinkID, сессию, timestamp), в ключ с именем "clicks_queue". Каждые 5 сек, просыпается воркер который командой LRANGE clicks_queue 0 -1 извлекает все клики из очереди и записывает в БД изминения сгруппированные по ссылкам. При маленьких нагрузках все ок, но стоит нагрузке возрасти как наблюдается расхождение по логам и статистике. Подозреваю что пока воркер читает данные из очереди, фронтенд добавляет еще клики. Но когда воркер извлек все элементы, он очищает ltrim'om очередь и те данные что запичались так же удаляются. Что я делаю не так, и как лучше организовать отложенную обработку статистики?