Стоит ли из данных полученных с двух ajax запросов создавать 1000 новых?
Добрый день!
Есть страница, и чтобы ее построить, необходимо выполнить два запроса на сервер, после чего, из полученных данных сформировать еще 1000 запросов для отрисовки контента с данными.
Как лучше это сделать? Переложить всю работу на бек часть, чтобы был 1 https запрос на получение данных, или генерить на фронте запросы?
szQocks, Да, я в тестовом режиме сделал это, 1000 запросов это очень долго, так как бек сейчас может отдавать в таком виде данные, то на тесте это так. Сейчас думаю как это улучшить правильнее
wakenbyWork, мутный вопрос у тебя, мало инфы для ответа на него, опиши подробнее.
Неужели ты собираешься отрисовывать 1000 элементов на странице одной ? - если нет нафиг тебе 1000 данных получать - и представь если пользователей будет 100 , 100х 1000 = 100к запросов ( у сервера кукуха отлетит ), так же нужно знать как часто эти данные изменяются
Так же есть пагинация на фронте, всё это нужно знать для того что бы ответить хоть примерно на твой вопрос.
szQocks, N, Есть граф, в него должны лететь 1000 пользователей, там они все связаны между собой, всеми существующими способами и не существующими.
Я пришел к тому, чтобы был один запрос на получение данных, но 1000 пользователей в одном json тоже уже ничего себе)) Но из за логики графа разбить их не получится. Ибо они все должны быть выведене сразу, не понимаю что с этим делать пока. Думаю отдвавать прям минимальную информацию, и ключи до одной буквы сжать, а все дополнительно грузить при выборе элемента в графе
wakenbyWork, Правильно. По "мере показа" данных их и нужно подгружать...только минимальным кол-ом запросов...т.е., как раз, - нужно и придумать: как это будет делать бек по мере необходимости...
wakenbyWork, а в данных у пользователей есть например координаты? если есть , то наверное вообще через сокеты всё это делать, а так в 1 запрос и отрисовывать граф только тогда когда данные с сервера прийдут, а так пока данные не пришли ставь крутилку какую-то