@SerjLore

Парсинг более 1-ой страницы?

Здравствуйте.
Есть ли способ парсить более 1-ой страницы фото на сайте imgur?

Так-же код:
from bs4 import BeautifulSoup as bs
import requests

def save():
	with open('C:/konosuba_par.txt', 'a') as file:
		file.write(f'>Link: {comp["image"]}\n')

def parse():
	URL = 'https://imgur.com/search/score?q=konosuba'
	HEADERS = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.83 Safari/537.36 Edg/85.0.564.41'}

	responce = requests.get(URL, headers = HEADERS)
	soup = bs(responce.content, 'html.parser')
	items = soup.findAll('div', class_ = 'post')
	comps = []

	for item in items:
		comps.append({
			'post': item.find('a', class_ = 'image-list-link').get_text(strip = True),
			'image': item.find('img').get('src')
			})

	global comp
	for comp in comps:
		print(f'Link: {comp["image"]}\n')
		save()

parse()
  • Вопрос задан
  • 115 просмотров
Решения вопроса 1
@AlexBoss
Способ есть, в зависимости от ваших умений и желания.
1) через потоки concurrent.future библиотека хорошая
2) все переписать на асинхронном
Если встает подобный вопрос, лучше воспользоваться первым вариантом
Ответ написан
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы