это не sql injection это возможность клиенту все сломать, ведь если клиенту разрешить делать прямые запросы, база данных не будет контролировать, свои ли данные клиент удаляет/правит?
реляционные базы данных имеют очень мало инструментов по контролю целостности и разграничения прав доступа по записям.
исключение - оформление всей работы через хранимые процедуры, это работает но на практике дико неудобно для разработчика.
ragnar_ok, научись правильно задавать вопрос, даже обновив ты оставил больше вопросов чем ответов, твои мысли читать никто не умеет, есть шанс что кто то решал похожую с тобой задачу и сумеет ответить но он действительно мизерный и чаще наоборот ошибаются и делат ответ на другой вопрос.
ну и на кой ему пустая строка с уникальным идентификатором?
я просто поболтать
у меня была ситуация когда нужно было сначала добавить в табличку запись (id остальные поля пустые), а затем они постепенно наполнялись, так как это происходило достаточно долго и могли одновременно несколько пользователей делать, в сессии лежал id добавленной записи.
нейронная сеть ничего не знает про ограничения, накладываемые на выходные данные
хотя бы через функцию ошибки это ей скажи, если значения неправильные пусть ошибка умножается на 100500
innerText игнорирует visibility
я собирал getBoundingClientRect() для каждого dom элемента на странице, и все что имели не нулевые размеры считал видимыми (правильно еще пересечения смотреть но мало кто так коряво дизайнит 'сокрытие' данных), остается взять только конечные листья и смотреть их node.textContents.
pfg21, что? причем тут слив в общедоступный каталог?
никто никуда не будет публиковать твой ключ, его украдут чтобы читать твои файлы и искать способ монетизировать доступ к ним.
Я утверждаю что все провайдеры могут а крупные, с высокой вероятностью, делают на автомате, для всех своих клиентов, просто потому что есть заказ на это, начиная с правообладателей, готовых платить за это, и кончая правительства, до которых дошло что обладание информацией это огромная власть.
в тот момент как шифрованный доступ становится нешифрованным, появляется соблазн (а шифруют обычно то что ценно не правда ли?) обычным участникам процесса, администраторам и программистам, обслуживающих провайдера, изучить эти данные.
я встречал страницы (например то что возвращает aliexpress) на которых почти все php парсеры пасовали, даже после tidy, т.е. некоторые страницы корректно проходят анализ а некоторые нет.
помимо simple html dom parser есть штатный DOMDocument, пользоваться им сложнее и нет нормального xpath/css query, но тоже рабочий
Encfs это шифрование на уровне userspace, оно не умеет шифровать системные каталоги, мало того, после монтирования каталога файлы становятся доступны root
Систему нужно шифровать на блочном уровне, и даже в этом случае, подменив загрузчик хостер может получить к примеру пароль дешифровки диска
Юзкейс, ты делаешь сервис отправки криптовалют или оракул, публикующий данные в блокчейне, т.е. у тебя приватный ключ, потеря которого равносильна потере денег и бизнеса.
Примеры кражи провайдером (ее админом) криптовалют уже были (linode украли ключи пула майнинга криптовалют)
Хостер, имея доступ к системным файлам твой виртуалки, подсовывает свою утилиту, которая запускается под твоим доступом (например модифицированный bash) и читает зашифрованные файлы, да ему надо это сделать один раз чтобы сграбить пароль или ключи шифрования.
Stalker_RED, не всегда, очень часто pdf это не текст в прямом виде, это либо картинка либо векторная графика либо, я видел подмену шрифта, символы по кодам не соответствовали привычным, в этих случаях классический поиск не будет работать. Гугл же скорее всего пробует распознать текст на pdf теми же алгоритмами что и на изображениях, это тупо проще и организационно быстрее и результат чище, избавлен от служебной информации
прежде чем переписывать эту часть кода, достаточно хотя бы просто оптимизировать загрузку файлов, вполне возможно что 99% тормозов там
что происходит, если в консоли ты загружаешь одновременно 10 файлов по ссылкам? тупо проверь с помощью bash скрипта со списком вызова curl ссылка, а затем те же ссылки загрузи по очереди (первый скрипт - в конце ставь &, второй без, этот символ запускает команду в фоне)
pfg21 это элементарно, если антивирусная компания является продажником-прослойкой, имея на руках только windows решения, она тупо не сможет сама реализовать linux версию, ей тупо проще посчитать деньги и купить решение у майкрософт
после запуска sfc /scannow скорее всего они были удалены
еще момент, антивирусник может не обнаружить троян в автозапуске, загружающий тело основного вируса при следующем включении
лечение должно быть комплексным, в т.ч. и вручную посмотреть, я сказал название утилит
реляционные базы данных имеют очень мало инструментов по контролю целостности и разграничения прав доступа по записям.
исключение - оформление всей работы через хранимые процедуры, это работает но на практике дико неудобно для разработчика.