async def func():
for i in range(10):
time.sleep(1)
async def func():
for i in range(10):
await asyncio.sleep(1)
async def func():
for i in range(10):
time.sleep(1)
await asyncio.sleep(0)
>>> r=range(0,10,2)
>>> r
range(0, 10, 2)
>>> type(r)
<class 'range'>
>>> i=iter(r)
>>> i
<range_iterator object at 0x7fc4143b8390>
>>> type(i)
<class 'range_iterator'>
>>> next(i)
0
>>> next(i)
2
>>> next(i)
4
>>> next(i)
6
>>> next(i)
8
>>> next(i)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
StopIteration
Но я бы советовал плясать с другой стороны. В чём задача? Насколько быстро надо получить результат? В целом, если там, допустим, 100 тыс. страниц (я от балды, ничего не утверждаю), то с 0.1 с на страницу выйдет три часа на "скачать всё". Так что если задача первично всё выгрузить и затем только ловить обновления, то может быть проще вообще не заморачиваться. Я неоднократно парсил всякие сайтики, и обычно меня не парило, если это работало часами и даже сутками.