Я хочу считать множество (около ста) страниц одного сайта. Для примера будет example.com
В python я делаю так.
def myFunc(pages):
forreturn=[]
session=requests.session()
for page in pages: #Список с нужными мне адресами страниц на сайте
url = 'http://example.com/' + page
#получаем нечто вроде 'http://example.com/sub1/page.html'
# И именно часть с sub1 каждый раз разная.
answer = session.get(url)
soup=Soup(answer.text)
# Тут парсим нужные данные и складываем их .append-ом в список forreturn
return forreturn
Как я понял, в таком случае, для открытия каждого нового url создается новое поключение к серверу.
Можно-ли получать эти страницы с разными URL, создавая всего одно подключение?
(как я понял, в таком случае ответы будут приходить быстрее и нагрузка а сервер - меньше)