Если же обязательно нужна полная база, можно подумать в сторону того чтобы использовать файлы прода на чтение, а весь кэш (превьюшки) делать на каждой копии в отдельности.
Да, этот вариант я и описывал в тексте вопроса по организации.
Было интересно узнать еще подходы к этому вопросу.
Да, это так, но замерить очевидные проседания в том же фильтре все же будет проще на 50 000 товаров, чем на 5000, особенно если используется EAV и т.п решения.
Конечно же можно очистить базу от большинства товаров с фото. Но где гарантия, что завтра не потребуется реализовать или доработать фильтр товаров или механизм кэширования. В данном случае потребуется вся база, иначе замеры производительности будут не объективны.
Да и сама задача по очистке базы требует внимание и потребует его всегда, а если к этому еще и добавить плохую/не самую удачную для этого случая организацию хранения фото, то это потребует еще и решения задачи, как выцепить с сервера фото, только для оставшихся товаров.
Это решение подойдет только в случае, если на дев сервере не нужно как-то модифицировать ранее загруженные изображения.
Например, вы захотите обкатать сам (локально), а после дать клиенту возможность на стейджинг сервере потестировать новый супер код по умной обрезке фото. Мне (разработчику) и клиенту хочется видеть, как это будет выглядеть на реальных товара (утюгах, телевизорах, люстрах, и прочих разнородных товарах).
Наверняка другие разработчики с этим сталкивались, возможно есть еще какие-то подходы к решению этого вопроса.
Да, этот вариант я и описывал в тексте вопроса по организации.
Было интересно узнать еще подходы к этому вопросу.