Растет io write и read
При этом в постгресе на всякие буферы используется 17 гиг.
искать нужный шард можно по проверенной и многими любимой схеме - вычисляем хеш от логина/телефона -> берём остаток по модулю на количество шардов -> получили нужный шард.
Сессий никаких не надо
Я только не совсем понимаю, почему вы говорите только о количестве регистраций
а если взлетит то что вы будете делать, когда количество запросов которое можно обработать упрется в самую мощную конфигурацию железа?
А на счет "пихают в varchar(255)" - это да, катастрофа, если честно не думаю, что в продакшне такие случаи есть или их очень много, уж очень это грубая ошибка.
Обычным сиквенсом, генерирующим uuid?
мы, программисты, должны смотреть на задачу с точки зрения правильной архитектуры и простоты масштабирования
Вряд ли на ровном месте люди себе головняки создают.
В некоторых субд есть возможность генерировать последовательные uuid, что благополучно сказывается на производительности.
Раз 5 перечитал я все равно не понял. Можете пожалуйста чуть более подробно сказать, что имеете в виду?
может народ использует это как правило хорошего тона, чтобы привыкнуть и использовать уже на крупных проектах
за счетчик айдишников обычно большая конкуренция в кластере. Как это вот все синхрогизировать, чтобы две записи с одинаковым ключом не сгенерились?
lvresize пропустили видимо. Да, блочный уровень LVM и уровень файловой системы никак между собой не связаны. Это даёт заметную гибкость настройки, но на стыке получаются такие артефакты. Файловая система может не совпадать по размеру с блочным устройством.
/var вероятно отмонтировать и не надо. Попробуйте после увеличения LV сделать resize2fs. ext4 давно уже умеет расширяться наживую.