не выдержала бы такой нагрузки как сейчассколько Тб у вас сейчас в данной таблице?
таблицы сделаны вручную.зачем?
Если кто-то сделал такую архитектуру, то он и должен вам ответить, как ее использовать
Сейчас есть подозрение, что "спец" совсем не спец
0. В часности, как реализованы FK/M2M от и к данным таблицам
1. Сколько там реально данных, что простейшая фильтрация по инт полю там убивает СУБД
2. Какое железо
def get_test_data_model(prefix):
db_table_name = 'region_' + str(int(prefix)) + '_data'
class TestDataMetaClass(models.base.ModelBase):
def __new__(cls, name, bases, attrs):
name += db_table_name
return models.base.ModelBase.__new__(cls, name, bases, attrs)
# region_*_data
class TestData(models.Model):
__metaclass__ = TestDataMetaClass
...........
class Meta:
app_label = db_table_name
db_table = db_table_name
verbose_name = 'Test' + str(int(prefix)) + 'Data'
verbose_name_plural = 'Test' + str(int(prefix)) + 'Data'
return TestData
спец норм, у него более 20 лет опыта с БД, и построил архитектурные решения в хороших проектахЗначит он должен знать как использовтаь его подход
фильтрация по нескольким полям, 3 поля TINYINT (4), 11 полей INT (11), 2 поля DATETIMEгруппировка - проблема. Все остальное - не должно вообще создать проблем
фильтрация с операторами "=", "! =", "<=", "> =" + иногда группировки
str(int(prefix))
очень стремно, такое впечатление, что префикс еще откуда-то с клиента приезжает. Model.managed= False
import importlib
MyRegion = importlib.import_module('region' + str(int(prefix)))