Задать вопрос
gordon_shamway
@gordon_shamway

Как быстро обработать большой массив данных?

Мне нужно получить через api vk 100 постов в группе, всё к ним комментарии,всёх учасников группы и их 10 постов и проверить всё посты и комментарии на наличие ключевого слова.
Можно как то на php засунуть запросы к api в поток, а потом и парсеры чтобы хотя бы работало одновременно 2 парсера?
PS я понимаю что php для этого не подходит, но демку мне нужно написать именно на нём.
  • Вопрос задан
  • 229 просмотров
Подписаться 1 Оценить Комментировать
Помогут разобраться в теме Все курсы
  • Skillfactory
    Профессия Fullstack веб-разработчик на JavaScript и PHP
    20 месяцев
    Далее
  • Хекслет
    PHP-разработчик
    10 месяцев
    Далее
  • Skillbox
    PHP-разработчик. Базовый уровень
    3 месяца
    Далее
  • Нетология
    Веб-разработчик с нуля: профессия с выбором специализации
    14 месяцев
    Далее
  • Stepik
    PHP (pro)
    2 недели
    Далее
  • OTUS
    PHP Developer. Professional
    5 месяцев
    Далее
  • Skillbox
    Веб-разработчик на PHP
    9 месяцев
    Далее
  • Onskills
    PHP: базовый курс
    1 месяц
    Далее
Решения вопроса 2
sim3x
@sim3x
Пихай в БД
Ищи через СУБД
Ответ написан
ThunderCat
@ThunderCat Куратор тега PHP
{PHP, MySql, HTML, JS, CSS} developer
Сохранить результат в хранилище (что будет самой долгой операцией на самом деле), далее поиск по строке, не должно сильно тормозить, поиск в строке по четко известному слову это быстрая операция, на вытаскивание через апи скорее всего в разы больше времени уйдет. Думаю получить из апи и сразу парсить быстрее даже будет, при использовании multicurl можно запустить потоки параллельно.
Ответ написан
Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы