Задать вопрос

Какой парсер на Python выбрать для парсинга сайта?

Приветствую

Захотелось попробовать попарсить что-нибудь, к примеру, данные с я.маркета или новости какие-нибудь. Малость почитал и собрал список библиотек:

beautifulSoap
lxml (быстрее BS раз в 8)
scrapy
grab
html5lib
pyspider


Разбираться в них во всех и сразу особого желания нет, но хочется выбрать один-два инструмента для плодотворной работы.

Что посоветуете?

P.S.
Слышал еще про универсальные обучаемые парсеры на основе нейросетей. В этой области знания отсутствуют полностью. Может быть у кого-нибудь завалялась ссылка на полезную статью, простыми словами описывающую вводную информацию, как для новичка.
  • Вопрос задан
  • 1097 просмотров
Подписаться 6 Простой 3 комментария
Решения вопроса 2
sim3x
@sim3x
Ответ написан
Комментировать
@Verz1Lka
Web scraping expert
Рекомендую scrapy. Работаю на нём четвёртый год.
Активно поддерживается, активно развивается, есть все ништяки, которые могут понадобится в парсинге.
Ответ написан
Пригласить эксперта
Ответы на вопрос 4
Я в свое время делал на request + beautifulSoap, вполне годное качество получалось.
Ответ написан
Комментировать
Revencu
@Revencu
requests+lxml
Ответ написан
Комментировать
nikolay_karelin
@nikolay_karelin
Ведущий разработчик, пишу на Python, Tcl, Matlab
Если могут встретится плохо сформированные страницы или *ОЧЕНЬ* старый HTML-код (который даже не XML), то советую смотреть на BS для парсинга. Если все по стандартам - тогда lxml для разбора.
Ответ написан
Комментировать
Mesolaries
@Mesolaries
Junior Python Developer
BeautifulSoup4 + requests
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы