MinTnt, при чем тут это? Если твоё решение было не удачным, это не значит, что нельзя сделать иначе. Я делал такой подход. Разделял чтение файла по разным потокам. Каждый поток читал свою часть данных. Делить нужно на области. Я не просто так привел пример с функцией, которая принимает диапазон строк от 0 до 100.
В начале алгоритма читаем, сколько строк в файле. Далее, разбиваем эти строки на несколько частей. если в файле 1000 строк, то если делить на 5 потоков, то один поток будет обрабатывать строки от 0 до 199, второй поток от 200 до 399, тертий поток от 400 до 599, четвертый от 600 до 799, ну и пятый - от 800 до 999.
Ternick, что не обязательно? Делать проще, чем ты предлагаешь?
Создаешь функцию, которая принимает на вход отведенную ей часть в виде индексов строк (Например, 0 и 100) и файл. Запускаешь каждый метод в отдельном "питоновском потоке". Таким образом ты можешь сколько угодно распараллелить обработку. А если вместо потоков использовать процессы, то и ещё сильнее ускорится работа. И без переделки кода.
Вы не понимаете о чем говорите. В Вк есть лимит на кол-во запросов в секунду.
В общем - это ~3 запроса в сек. По-вашему php не укладывается в 3 секунды отправляя 10 запросов?
Судя по текущим вопросам на тостере с гуглом регулярные перебои, а в последнее время, кажется, некоторые регионы просто не могут им воспользоваться. Долбанный РКН