Просто отключите кеширование данных запросов
если бы postgresql понял, что кэш устарел, он запросил бы их заново из таблицы
все таки проблема в javascript коде
<input name=user required>
<div class=doom data-plusw=my name>
<div class="doom" data-plusw="my name">
'<div class="doom" data-plusw="' . htmlspecialchars($author['user']) . '">'
Partition #1 contains a linux_raid_member signature.
2019-04-13 15:22:54 - такого времени ещё нет, это же EST, сейчас там 12 только наступило
2019-04-13 15:22:54.761 UTC [2770] LOG: started streaming WAL from primary at 1BCA/DA000000 on timeline 1
2019-04-13 15:22:54.761 UTC [2770] DEBUG: sending write 1BCA/D9FFFFB0 flush 1BCA/D9FFFFB0 apply 1BCA/D9FFFFB0
2019-04-13 15:22:54.761 UTC [2770] DEBUG: sending hot standby feedback xmin 0 epoch 0
2019-04-13 15:22:54.762 UTC [2770] DEBUG: sendtime 2019-04-13 15:22:54.765466+00 receipttime 2019-04-13 15:22:54.762726+00 replication apply delay (N/A) transfer latency 0 ms
2019-04-13 15:22:54.762 UTC [2770] DEBUG: sending write 1BCA/DA020000 flush 1BCA/D9FFFFB0 apply 1BCA/D9FFFFB0
2019-04-13 15:22:54.815 UTC [2770] DEBUG: sending write 1BCA/DA020000 flush 1BCA/DA020000 apply 1BCA/D9FFFFB0
2019-04-13 15:22:54.816 UTC [2770] FATAL: terminating walreceiver process due to administrator command
2019-04-13 10:47:38.334 EST [10121] postgres@[unknown] ERROR: 58P01: requested WAL segment 0000000100001B93000000B7 has already been removed
а явно как указать? тут же не путь до файла вроде.....1BCA/DA000000
операция штатная, если не ошибиться в именах устройств,то дальшележащая файловая система не узнает, что что-то вообще происходило.
2) фактора два:
- надо записать объём данных равный размеру этого тома. То есть 10тб / среднюю скорость последовательной записи
- чтобы было что записать, это что-то сперва надо прочитать. Если у вас layout дефолтный near2 - то 10тб / скорость чтения одного парного диска. То есть зависит от нагрузки на оставшийся парный диск, ведь информацию надо сперва прочитать. Для offset и far - блоки будут размазаны по всем дискам и соответственно больше дисков будет использоваться для чтения. Кроме совсем загруженных случаев упрётся в скорость записи на новый диск.
3) linux raid10 нельзя рассматривать как зеркало поверх страйпа или страйп поверх зеркала. Это один массив (а для разных layout и пишется по-разному). Ядро отлично понимает, что если выпал один диск - только блоки которые должны быть на нём и надо восстанавливать при ребилде.