Но с постоянно увеличивающейся БД - обрабатывать это через json_decode становится всё более затратным по времени.
Сказать то легко, а вот сделать сложнее. Так как переделывать придётся много где (около 50 документов/контроллеров, модели и т.п.)
Задача чтение без дублей.
MySQL-сервер находится на отдельной машине, это тоже задержка.
Т.е. первый запрос не успевает сделать апдейт, чтобы залочить выполнение для второго запроса.
Пробовал лочить через БД, т.е. вначале скрипта делаю проверку, в БД записываю 1, а в конце скрипта 0
class Animal
{
public function eat()
{
echo 'кушаю...';
}
}
class Dog extends Animal {}
class Sheep extends Animal {}
Class Humanoid
{
public function feed(Animal $animal)
{
$animal->eat();
}
}
class Cat extends Animal
{
private function eat()
{
echo 'кушаю...';
}
}
Если говорить про физический хост, то создать-то можно виртуальный интерфейс без физического, но это не будет иметь практического смысла.
На самом деле, зная, что возможна коллизия, проверяйте на дубли, и в случае обнаружения, просто просите повторить с другим guid. Т.е. хотя шанс не большой, он все равно должен отрабатывать корректно.
Ну и guid бывают разные, например, для разных ДЦ правильно выбранный тип guid не будет пересекаться никогда.