Всем привет! Есть скрипт для определения в индексе поисковой системы страница или нет и результат записывает в отдельный файл. Скрипт в целом работает, но работает медленно, а мне нужно проверить порядка 300.000 страниц. Подскажите пожалуйста, есть ли способы как то ускорить работу кода? В python новичек.
import requests
import pandas as pd
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) \
AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36"}
d = {}
options = {
'muteHttpExceptions': True,
'followRedirects': False
}
with open('all-website-url.txt', encoding="utf-8") as f:
response_url = [line.strip() for line in f]
for i in response_url:
resp = f'
https://www.google.ru/search?q=site:{i}'
response = requests.get(resp, options, headers=headers).text
if "ничего не найдено" in response:
print("Не в индексе")
d.setdefault("URL", []).append(i)
d.setdefault("Статус", []).append("Не в индексе")
else:
print("В индексе")
d.setdefault("URL", []).append(i)
d.setdefault("Статус", []).append("В индексе")
df = pd.DataFrame(data=d)
df.to_excel('./googlecheckindex.xlsx')