Большое спасибо за ответ, вы абсолютно правильно поняли текущею ситуацию. Сейчас делаю бекап данных на hetzner storagebox и затем постараюсь по вашей схеме всё это провернуть.
Виктор Таран, спасибо, но вы не внимательно смотрели на вывод lsblk, там sdA был вообще вне рейда, а на нём как раз текущие рабочие данные. А рейд состоял из sdB, который уже пол года не хранил никаких реальных данных и содержал всего 3 раздела, вместо 5. В итоге пришлось разобрать рейд совсем, сейчас нужно его пересоздать, разбираюсь с этим.
Спасибо, вашу статью видел, но проблема в том, что если посмотреть на результат вывода lsblk, то видно, что диск sdA на котором последние полгода хранились все данные, выпал из рейда вообще. И теперь рейд существует только для sdB диска который пустой. Вот это меня немного сбило столку, боюсь потерять данные, но при этом хотелось бы восстановить raid 1, так-как нужно зеркалированние для надежности.
Так проблема в том, что он считает проблемным диск sdA, который работал последние пол года и на нём все данные. Если заменить этот диск, то не запишет ли он данные из sdB на sdA? тем самым обнулив всё?
похоже, что это именно то, что мне нужно, спасибо. Сейчас тестирую, добавил еще CURLOPT_INFILESIZE и закрывание $handle для fopen. Как протестирую отпишусь. Аж стыдно немного, столько лет работаю с CURL и ни разу не приходилось использовать CURLOPT_INFILE. Большое спасибо.
по HTTP, это приватный сервис написанный кем-то на заказ. и почему-то там реализовано вот так криво, а не через multipart, чтобы просто передать массив с параметрами, где можно указать new CURLFile($file).
спасибо за цитату, но вы не поняли вопроса или не внимательно его прочитали. там сервис поддерживает только raw body загрузку файла. без multipart, т.е в CURLOPT_POSTFIELDS отправляется на массив, а RAW данные файла.
Единственные способ, как Я понял, это использовать fopen с разбиением файла на chunk-и. и читать файл по кускам. Не знаю только как это прикрутить к CURL, вот такой ответ Я ожидаю увидеть.
DrunkMaster: это все замечательно, но сайт не мой, ситуация частая и вот я решил с ней разобраться раз и навсегда, если это возможно, а писать движок не выход, так-как сильно дорого выходит. Как показывает практика, оно никому не нужно, особенно с бесплатным и удобным WP. Так что приходится бороться со ЗЛОМ, к тому же судя по тем многочисленным проектам, что я встречал на просторах интернета и сделанных на WP, он прекрасно работает и с 1 000 000 записей. Надо видимо лишь знать нюансы.
Игорь Воротнёв: вы правы, после настройки параметра pm.max_children в php-fpm стало занимать всего 6-8 GB из 64. В memcached.conf выставил 4096 MB, пока что полет нормальный, но так и не ясно, по какой формуле расчитывать этот параметр.
dimasibirak: так у вас все работает и таблицу генерирует, добавьте новые параметры в цикл $products. он сейчас уже генерирует таблицу, просто не хватает нужных аргументов которые мы добавили в самом начале.