import os
urls = open('pages.txt', 'r')
for i, url in enumerate(urls):
path = '/users/user/Downloads/{}'.format(os.path.basename(url)
urllib.request.urlretrieve(url, path)
link = 'https://dsa.court.gov.ua/open_data_json.php?json=532'
response = requests.get(link).json()
urls = []
for item in response['Файли']:
urls.append(list(item.values())[0])
async def main(urls):
async with aiohttp.ClientSession() as session:
tasks = [get_url(url, session) for url in urls]
return await asyncio.gather(*tasks)
urls = urls
loop = asyncio.get_event_loop()
results = loop.run_until_complete(main(urls))
print('\n'.join(results))
Без этого кода оно не хочет качать но все равно не скачивает все файлы(