файл количеством строк в 8 тыс
pub = await aioredis.create_redis('redis://localhost') оставить в __main__ и сам pub передавать в качестве аргумента? Ок.multiprocessing работает вроде ничего не зациклилось. Может поищу что-то среднее между паблик и приват прокси, тогда уберу whileПо поводу "впихнуть пару строк" — можно попробовать оставить в первом скрипте, который качает данные. Я почти уверен, что одна регулярка почти не помешает IO операциям
response = await r.text()
match = re.search(r'[\w\.-]+@[\w\.-]+', response)
response = await r.text()
match = re.search(r'[\w\.-]+@[\w\.-]+', response)
asyncio буду выгребать все 4 сайта и отдавать их через redis выполняться в multiprocessing?asyncio что может замедлить работу. Т.е. мне в любом случае нужно 100% грузить как минимум 2 страницы, если я буду грузить всегда 4 страницы, то это может быть быстрее, чем если создавать дополнительные асинхронные выполнения?
Причём, количество процессов бессмысленно указывать больше, чем ядер у тебя в компуктере.