Можно ли с помощью file_get_contents подгрузить всё содержимое страницы?
Как я понял, file_get_contents подгружает только исходный html, без стилей, js, xhr, если они есть, и т.д.
Ну, тупо содержимое файла.
А можно как-нибудь выполнить все запросы, которые есть на странице? Ну чтобы пхп как-будто браузер страницу загрузил...
Просто хочу универсальный парсер новостей написать. Где новостная лента на севере генерится, там тупо проход по странице с селекторами. А там, где с помощью xhr, приходится изучать структуру ответа и писать отдельный метод для этого сайта. Охота чтобы пхп грузил страницу как сайт...
Самый простой вариант, это написать JavaScript-парсер для браузера, который бы периодически собирал инфу и отсылал ее вам на сервер. Чуть по сложнее, это раздебажить запросы во вкладке Network консоли браузера и эмулировать их php, чтобы тянуть инфу напрямую.
Вот я запросы сейчас и эмулирую. Но это для каждого сайта вручную отдельный метод прописывать приходится. Я думал, может есть способ автоматически это делать. Универсально.
Я правильно понимаю, что история с браузером - это нужен комп с открытым браузером? А сайтов у меня будут сотни. То есть, мне это не подходит, верно? Или я неправильно понимаю/представляю как это реализуется?