a = ['1', '1', '1', '1', '1', '2']
b = ['q', 'w', 'e', 'r', 't', 'y', 'x']
res = {}
for index, key in enumerate(a):
value = b[index]
if key in res:
res[key].append(value)
else:
res[key] = [value]
for index, key in enumerate(a):
value = b[index]
res.setdefault(key, []).append(value)
for key, value in zip(a, b):
res.setdefault(key, []).append(value)
import asyncio
import aiohttp
from contextlib import closing
urls = ['http://yandex.ru', 'http://rambler.ru', 'http://mail.ru']
async def process(url):
async with aiohttp.ClientSession() as session:
async with session.get(url) as response:
html = await response.text()
print(html[:100])
if __name__ == '__main__':
with closing(asyncio.get_event_loop()) as event_loop:
event_loop.run_until_complete(
asyncio.gather(
*map(process, urls)
)
)
1) Зачем снова используете тот же самый плохой код?
2) Из loop.run_forever() нужно выходить через loop.stop() - где это реализовано?
3) Не следует называть итератором то, что итератором не является.