файл количеством строк в 8 тыс
pub = await aioredis.create_redis('redis://localhost')
оставить в __main__
и сам pub
передавать в качестве аргумента? Ок.multiprocessing
работает вроде ничего не зациклилось. Может поищу что-то среднее между паблик и приват прокси, тогда уберу while
По поводу "впихнуть пару строк" — можно попробовать оставить в первом скрипте, который качает данные. Я почти уверен, что одна регулярка почти не помешает IO операциям
response = await r.text()
match = re.search(r'[\w\.-]+@[\w\.-]+', response)
response = await r.text()
match = re.search(r'[\w\.-]+@[\w\.-]+', response)
asyncio
буду выгребать все 4 сайта и отдавать их через redis
выполняться в multiprocessing
?asyncio
что может замедлить работу. Т.е. мне в любом случае нужно 100% грузить как минимум 2 страницы, если я буду грузить всегда 4 страницы, то это может быть быстрее, чем если создавать дополнительные асинхронные выполнения? Причём, количество процессов бессмысленно указывать больше, чем ядер у тебя в компуктере.