Есть ли например такая возможность как один раз открыть сайт и постоянно считывать с него информацию, чтобы не устанавливать соединение каждые 5 секунд?Есть, если только сайт отдает информацию по websocket(не зашифрованному).
s = requests.Session()
s.headers.update(headers)
s.post('https://edu.tatar.ru/logon', data={'main_login': 'login', 'main_password':'pass'})
response = s.get('https://edu.tatar.ru')
print(response.text)import requests
from bs4 import BeautifulSoup
url = 'https://koronavirusa.site/ru'
page = requests.get(url)
soup = BeautifulSoup(page.text, "html.parser")
container = soup.find('div', class_='sppb-container-inner')
data = container.find_all('div',class_='sppb-animated-number')
infected = data[0].text
died = data[1].text
healed = data[2].text
print(f'''Заражено: {infected}
Умерло: {died}
Выздоровело: {healed}''')Заражено: 1,990,746
Умерло: 125,919
Выздоровело: 466,997 import requests
from bs4 import BeautifulSoup as bs
def parser():
file = open("test.txt", "w")
HOST = "https://www.avito.ru"
max_pages = 9
for x in range(1, max_pages + 1):
page = requests.get("https://www.avito.ru/moskovskaya_oblast_krasnogorsk/igry_pristavki_i_programmy?p=" + str( x ) )
soup = bs(page.content, "html.parser")
buys = []
items = soup.find_all("div", class_ = "snippet-horizontal")
for item in items:
title = item.find("a", class_= "snippet-link").get_text(strip=True)
link = item.find("a", class_="snippet-link").get("href")
print(f"{title} {HOST}{link}\n")
file.writelines(f"{title} {HOST}{link}\n")
file.close()
parser()