Я сделал по другому, пасил через ссылки
spoilerimport requests
import pandas as pd
from bs4 import BeautifulSoup
from time import sleep
# Ссылки что нужно отработать ложить в файл url.txt
with open('url.txt') as f:
li = [line.strip() for line in f]
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0"}
sleep(3)
for url in li:
response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.text, "lxml") # html.parser
data = soup.find("div", class_="a10a3f92e9--page--OYngf")
name = data.find("h1").text
zhk = data.find("a", class_="a10a3f92e9--link--A5SdC").text
address = data.find("div", class_="a10a3f92e9--address-line--GRDTb").text
print(name+'\n'+zhk+'\n'+address+'\n\n')
Оставил пять ссылок, запустил и он отпарсил все удачно, перезапустил еще два раз и удачно, на четвертый раз отпарсил только первую ссылку и выдал ошибку, на пятый раз вообще не отпарсил, на шестой три
spoilerПродается 2-комн. квартира, 56,3 м²
ЖК «Борисенко 48»
Приморский край, Владивосток, р-н Первомайский, мкр. Борисенко, Борисенко 48 жилой комплексНа карте
Продается 1-комн. квартира, 33,26 м²
ЖК «Снежный парк»
Приморский край, Владивосток, р-н Первореченский, мкр. Снеговая падь, Снежный парк жилой комплекс, 1На карте
Продается 2-комн. квартира, 61,2 м²
ЖК «Босфорский парк»
Приморский край, Владивосток, р-н Первомайский, мкр. Патрокл, Босфорский Парк жилой комплекс, 4На карте
Traceback (most recent call last):
File "/data/user/0/ru.iiec.pydroid3/files/accomp_files/iiec_run/iiec_run.py", line 31, in
start(fakepyfile,mainpyfile)
File "/data/user/0/ru.iiec.pydroid3/files/accomp_files/iiec_run/iiec_run.py", line 30, in start
exec(open(mainpyfile).read(), __main__.__dict__)
File "", line 19, in
AttributeError: 'NoneType' object has no attribute 'find'
[Program finished]
Что интересно если по такому методу парсить главную страницу, то там отрабатывает, а когда путем открытия каждой ссылки, то рандомном отрабатывает