Есть код:
def downloadImage(text: str, proxy: []) -> set:
ua = UserAgent()
arr = set()
max_count = 1100 # Минимально количество изображений для загрузки
main_url = "https://yandex.ru/images/search?text=" + text + "&p="
for a in range(1, 100 + 1):
print(main_url + str(a))
result = requests.get(main_url + str(a), headers=
{
"User-Agent" : str(ua.random)
},
proxies={
"http" : "http://" + proxy[a - 1]
})
soup = BeautifulSoup(result.content, "lxml")
links = soup.findAll("img", class_ = "serp-item__thumb justifier__thumb")
print(links)
for link in links:
link = link.get("src")
print(link)
arr.add(link)
if len(arr) > max_count:
break
return arr
Использую http прокси (бесплатные). Проблема в том, что могу спарсить только 3 страницы, потом минут 5 - 10 не парсится НИЧЕГО. (Вместо ссылок пустые списки) Что делать в данной ситуации?