Некоторое время назад я занимался аналитикой по данным, и если не БИГ, то где-то миддл дате (сотни миллионов записей). Задачи решали мы на стеке довольно стандартном. php, java, pgsql, mysql, sphinx, etc.
Все в принципе реализуемо и работало, но сейчас уже хочется чего-то более "изкоробочного". Какие сейчас технологии модные для сбора, хранения, распределения, обработки и аналитики по данным.
Интересует все. Языки заточенные под работу с данными и статистическими функциями, хранилища заточенные под большие объемы разных данных, распределяторы(mapreduce) и серверы очередей, изкоробочные olap решения и т.д.
Принимаются названия, желательно с кратким синопсисом, но можно и без него :)
Точнее все наоборот. На чистом Map Reduce сегодня мало кто считает. Сейчас модно использовать Stream обработку. Смотреть стоит в сторону Spark, Kafka + их интеграция.