Задать вопрос
Swartex
@Swartex
Многорукий могоног

Как парсить информацию на одном сайте, и сохранять файл?

Всем привет)
Собственно работаю контент-менеджером в довольно большой компании. Работы иногда для меня одного очень много, в целях прокачки знаний в программировании, хочется как то автоматизировать этот процесс :)
Знаю HTML+CSS и средне знаю JS, знаком с NodeJS и Python.

  1. Что для этой задачи лучше подойдет NodeJS или Python?
  2. Все данные лучше все сразу записывать в CSV-файл?
  • Вопрос задан
  • 1767 просмотров
Подписаться 3 Оценить Комментировать
Пригласить эксперта
Ответы на вопрос 5
mak_sim
@mak_sim
maksim77ster@gmail.com
Python.
Куда и как записывать данные дело третье. Всегда можно создать структуру языка с нужными вам данными (класс ну или просто словарь), а потом реализовать её сохранение в тот или иной формат хоть в csv хоть в БД.
Ответ написан
Antonoff
@Antonoff
Разработчик
Нода, хотя многие тут будут наверное за питон.
Ответ написан
skipirich
@skipirich
проходил мимо
Да пофигу какой язык. Практически любой язык который который используют в web, обладает набором библиотек для скачивания и парсинга страницы. Хватай любой который тебе по душе и вперед.
Ответ написан
Комментировать
@vshvydky
Я за ноду и конкретно за nightmare.js
Ответ написан
Комментировать
@hoarywolf
Вы странно вопросы задаете
— одни сайты можно спарсить одностроковым perl-скриптом, другим из-за скриптов и ajax-ов нужны тяжелые phantom или nightmare.
— в одном случае парсят, например, название и цены, которые можно в csv положить, в другом данных так много, что проще сразу в БД, а в третьем огромные статьи с картинками, для которых csv не особо подходит
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы