Пробую следующим образом, изображение не выводится. Может есть ещё способы
В переменной $config массив:Массив состоит из 1 элемента, было бы странно ожидать что итераций foreach будет больше одной. Возможно имеет смысл проверять переменные чаще, если результат не соответствует ожиданиям, var_dump/dd($lang) внутри foreach был бы очень кстати...
ini_set('error_reporting',E_ALL);
ini_set('display_errors', 1);
и убедиться что ошибок выполнения нет. Естественно, подключение должно быть настроено на вывод ошибок. Так же убрать бессмысленный биндинг $stmt->execute(['id'=>id]);
, где внутри даже не переменная, а какая-то фигня...INNER JOIN category ON category.id=post.cat_id
, выполнить запросПути прописаны верно.Я сомневаюсь, так как маловероятно что код работает неверно, 99% что ошибается пользователь/кодер, особенно в вопросах прописывания пути...
var_dump(__DIR__);
в index.php?Теперь вопрос можно ли написать свою систему плагиатаМожно, разрешаю, пишите. А если серьезно - аналитическая составляющая такого продукта будет стоить как отдельный маленький гугл. Не считая вычислительных мощностей и сложности самого кода, там еще и база статей и текстов с полноформатным аналитическим поиском должна быть, а ее надо еще откуда-то взять, что тоже весьма нетривиальная задача. Про размер этой базы и стоимость хранения я вообще молчу. А ее еще и поддерживать в актуальном состоянии нужно...
или внедрить какой то существующий на свой сайт?Есть сервисы с доступным апи, читайте что умеют, сколько стоят, что предлагают и как использовать на соответствующих страничках сервиса.
Есть ли гайды, туториалы?Для подключения апи достаточно понимания принципов работы таких сервисов и доки от поставщика. В случае самостоятельной реализации думаю общие принципы можно посмотреть в каких-нибудь сторис от гугл/яндекс разработчиков, они часто работают с полнотекстовым нечетким поиском...
Как сделать поиск максимально производительным?Вопрос из серии "какая машина самая крутая?". Нет решения которое подходит под любой вариант базы и структуры, иначе все только одним им и пользовались, логично?
Есть несколько больших postgresql таблиц(по ≈ 1млн строк в каждой).Это таблицы среднего размера, ничего большого в них нет. Миллион записей это средняя таблица со статистикой, все должно работать достаточно быстро и без каких-то особых танцев.
Пользователь вводит номер, ему выдаётся инфа из бд.Ну так сами пробовали сделать 20-30 рандомных запросов и посмотреть скорость, explain, использование индексов? Или мы "боимся заранее"?
Что использовать? Асинхронность? Многопоточность?Мозги, используйте мозги, это гораздо эффективнее...