Для GET запросов и так подразумевается, что они могут кешироваться не только беком, но и другими прмежуточными прокси.Справедливое замечание.
В HTTP есть header "ETag" который как раз для таких случаев.Но чтобы посчитать ETag для корзины, нужно всё равно на сервере её собрать и посчитать хэш. И в итоге получается экономия только на количестве передаваемых данных, а не на ресурсах сервера - проще и надёжнее выключить HTTP-кэширование совсем.
п.3 это уже сгенеренные данные ответа, без захода в бизнес логику приложения.Ну, то есть по сути - кэширование на уровне веб-сервера. Я бы сказал, что это почти всегда плохая идея, если речь идёт не про жёсткий-прежёсткий хайлоад.
как пинг понг, отталкиваясь от стенки краев контейнера, чтобы начало текста и его конец был в поле видимости, автоматически как бы прокручиваясьWAT??
А в более простых сценариях справочников нет уже ни авторизации, ни валидации.
Я никогда не кэшировал данные на уровне веб-сервера, только статику. И не вижу причин начинать - экономию ресурсов это даёт такую мизерную, что эффект от неё заметен только на действительно огромной посещаемости.
Ваш третий пункт корректнее сформулировать как "настроить заголовки кэширования", но в процессе быстро окажется, что корректно это сделать трудоёмко, а профит часто ничтожен.