100% результат все равно не могу получить. То одна страница выпадает, то другая. Или это какая-то игра с кодировками на сайте или что. Банальные урлы не могу вытянуть. Больше 10 лет парсю сайты - первый раз такой геморрой.
Попробую разбить на части, но для меня это не выход - мне нужен весь массив данных. Проверял на соответствие - пишет utf-8. Почему я подумал на кривую кодировку, потому что при перекодировке из iso-8859 в utf-8 json создался только в кракозябрах, поэтому объем тут не при чем.
ThunderCat, Гигабайт на входе примерно. На выходе меньше намного. Ошибки нет никакой. Просто функция json_encode не отрабатывает из-за кодировки. Когда я пытался из iso-8859 перекодировать в utf-8 - json записался, но в кракозябрах. Это, конечно, не вариант.