на примере с одним документом это работает быстро, а когда у меня 20к документов и строк в массиве по несколько десятков то по таймауту отваливается...
Ничего особенного. Переписывает содержимое файла в память. Я же говорю, скачал его один раз, и это уже 4й проект который делаю на нем. Т.е. одни и те же файлы. Но 3 норм, а этот нет. Значит навеорное дело в Серве.
Так, хорошо. У статьи же по стандарту имеется заголовок, символьный код, дата, сам контент. И выборка из многомиллионной таблицы по символьному коду становится довольно проблематичной. Хотя во многом требуется доставать только код/заголовок/айдиху для виджетов и списка. Тогда получается что в выборке учавствует тяжеленная (из-за самих статей) таблица.
Вопрос ставится для того чтобы узнать не типовое решение, а решение для больших объёмов данных при большом объёме посешений.
Да, уже спрашивал и всё устраивало пока не попалась БД в сотни раз крупнее и теперь нужно сокращать кол-во запросов максимально. Иначе никак не отсеять функционал блога, например вот посмотри
example.com/игрушки/мягкие/плюшевый-медведь/
example.com/лекарства/парацетамол/
example.com/лекарства/page/4
как решить данную проблему не прибегая к кучке условий в контроллере? на сайте кроме этого функционального модуля еще множество других, которые можно задействовать при помощи штатного роутинга.
Денис Инешин: нашел только newvirus@kaspersky.com . Они мне прислали автоматическое письмо о том, что я не валидный клиент т.к. прислал письмо без вложений.