Будет ли оптимизатор рисковать полагаясь на статистику
И тут уже к автору вопрос, готов ли он раз в 2-3 года обновлять диски в raid массиве. Если данные критичны, то по 2-3 диска минимум необходимо в raid запустить.
NAME
par2 - PAR 2.0 compatible file verification and repair tool.
SYNOPSIS
par2 c|v|r [options] <PAR2 file> [files]
par2 c(reate) [options] <PAR2 file> [files]
par2 v(erify) [options] <PAR2 file> [files]
par2 r(epair) [options] <PAR2 file> [files]
Also:
par2create [options] <PAR2 file> [files]
par2verify [options] <PAR2 file> [files]
par2repair [options] <PAR2 file> [files]
DESCRIPTION
par2cmdline is a program for creating and using PAR2 files to detect damage in data files and repair them if necessary. It can be used with any kind of file.
Есть ли способ как-то уменьшить время выполнения? Или может какие-нибудь другие технологии
$conn->query("UPDATE ....")
Как сейчас - не знаю. В эпоху SSD такой параметр как seek time перестал играть роль для индексного поиска.
И чтоб определить эту границу переключения - нужен был CBO. Для SSD я думаю что были подкручены коэффициенты. Всегда проще сделать так чем менять rules. Потому что CBO это как-бы персептрон и менять его поведение лучше коэффициентами чем логикой алгоритма.