Ptolemy_master, Я приблизительно понял что вам необходимо, но тогда нужно будет немного больше чем можно себе представить. Итак, если у вас есть сервер с которого нужно вытащить информацию, но при этом он не имеет API то можно эту информацию получить используя тот же PHP. К примеру CURL использовать, PHP Simple HTML DOM Parser, или к примеру мой самый любимый вариант с Chrome Headless + Mink, такие же связки есть приблизительно для всех современных языков программирования использующихся для веб. То есть задача сформировать API и использовать его с помощью JS (на той странице на которую нужно вставить информацию), мне кажется другого варианта вставить информацию, не используя JS у вас нет... Не знаю на сколько правильно вас понял, если что уточните...
Антон Спирин, извините, не понял для чего используют современные фреймворки SSR?! Эти фреймворки полностью client side и весь контент формируется на клиентском уровне, включая формирование страниц и получение данных, SSR можно использовать только для REST сервисов... Пример:
Создание страницы на Ангуляре полностью не включает в себя использование PHP, Python etc... Но данные вы получаете через AJAX, WebSockets, etc... используя сервер, но можно использовать и статический JSON.
При этом эти сайты неплохо индексируются...
Получение контента через AJAX и создание DOM ноды это для SPA, а если с бэкэндом, то можно к примеру тем же PHP сделать AJAX (вариантов масса) запрос на другой сервер ну и полученную информацию вставить в страницу.
По поводу индексации поисковиками сгенерировано текста с помощью js, вопрос дискуссионный, поскольку на данном принципе базируются большинство популярных фреймворков, Angular, React, Vue и.т.д. не думаю что современные поисковые кроулеры не могут индексировать эту информацию...?!
А мне нужно чтобы при каждом роутинге на другую страницу, я мог проверить. Сессии и куки здесь будут как мне кажется слишком тяжелы для сервера. Я предполагал веб сокеты или что-то наподобие, неужто за столько лет ничего другого не придумали... :-(
Станислав Макаров, в конкретной ситуации да, но в случае большего количества библиотек, писать для каждой type definitions, как мне кажется не рационально?!
А если используется большая библиотека, но при этом есть ограничения во времени реализации? Неужели только определение типов это единственно правильное решение? Насколько я знаю typescript поддерживает 'vanilla JS'?!
Тоесть насколько я понял, правильнее было бы использовать для работы с JS - webpack, а все остальное к примеру компиляция css из scss, оптимизация изображений, и.т.д. делать с помощью gulp?
Я немного проанализировал данную специфику вопроса:
1) Google crawlers может анализировать JS, CSS. Ранее было иначе, сейчас он приблизительно сравнялся с рендерингом современных браузеров. Подтверждение https://webmasters.googleblog.com/2014/05/understa...
2) Ну и Яндекс тоже не ушел далеко https://yandex.ru/blog/webmaster/21369