Александр Дегтярев: LTS для живых проектов(в гугл за расшифровкой), и новая со всеми примочками которые вот-вот появились. Async помогает не городить огромный сложный огород из-за как раз этой самой асинхронности.
Taylor_Superhero: Это спокойно делается для десктопа потому что там вы сами открываете webview и делаете что хотите(читай свой баузер). Поэтому прочитать ссылку в строке не проблема.
В бразуере вы не можете со своей страницы узнать что там в других табах.
Это никакой не CORS.
berkutxxx: если я не ошибаюсь через впн туннель можно удобно добраться только до целевого сервера к которому собственно настроен впн, а вот проксировать это уже совсем другое
vovkka:
1. У вас есть git, зачем сливать с боевого? первый dev сервер - локалка
2. видимо администраторы/редакторы тоже будут выполнять все шаги, чтобы добавить/изменить статью?
3. тестовый сервер - проверка все что хорошо.
4. второй dev сервер - зачем он тут, что на нем происходит?
5. Опять же забирает из gitа изменения.
Изменения контента никак не вписываются в процесс РАЗРАБОТКИ. Если это не html сайт.
Первый шаг делается в принципе один раз, если вы будете работать в своей ветке на git.
Далее вы только её обновляете из мастера, мерджите в остальные по надобности(тестовый, мастер).
В общем тому что эту схему придумал неплохо бы почитать про то как происходит процесс разработки.
Павел: стандартная задача. Недавно делал это на такой таблице ui-grid.info/. На таких данных конечно не тестил, но генерирует все данные все равно бекенд, но отдает их только по спец запросу экспорта. В CSV вполне нормально выгружает. Так что в любом случае от бекенда зависит больше.
10000 строк выгружает нормально. Если данные ОЧЕНЬ большие, то фронт не вытянет с вероятность 99%. CSV выгружаю нормально, а вот PDF перестает генерироваться(фронтом) на тех же 10000 строк.
KurtsKhalia: боты даже на сайт не будут заходить. Найду скрипт и напрямую будут отправлять на сервер данные, на котором у вас не будет проверки каптчи))))