VladlenO, ну если у вас там вообще не важные данные не очень понятна задача
Если нужна производительность то рейд6 не поставишь, если нужна произвольность то и зфс не поставишь если у вас есть копия всегда данных всех то не проще новые хранилища клепать
VladlenO, так если важна производительность то рейд6 и зфс явно не ваш выбор
Что значит потеря дисков? Это не потеря дисков это потеря всех данных на рейд массиве
khristoforov, вы подняли сварм на одном хосте чтобы запускать просто докер контейнеры ?
Так посмотрите логи почему он выключается
Ну и там надеюсь какой нибудь бекап не стоит с галочкой выключить у вас?
lapinstas, так все из коробки п олучается
открываешь таблицу в одну колонку вставляешь слово проблемы во вторую профессии, потом копируешь и вставляешь в файл, ну это секунд 30 , потом этот файл грузишь в задачу по парсингу вордс тата в софт ну еще секунд 30 и готово
ну первую часть если лень руками можно через чатгпт сделать , но по времени сильно дольше будет
lapinstas, не понял зачем руками?
Просто генерите список с профессиями и запрашиваете любым софтом для вордстата частотность, ну ручной работы на 5 минут, ну софт там в зависимости от количества запросов поработает подольше конечно
lapinstas, ну если проще то руками там по большей части уйдет час два людей девочки не дорогой
Если сложно то просто сгенерить сразу только с профессиями и уже по ним забирать частотность и ничего фильтровать не надо
Сергей Горностаев, вы слишком переоцениваете эти компании особенно банки
Которые смотрят сперва на штраф, если маленький то тупо не делают и так все подряд даже сбер )))
Я прямо с такого подхода в банках просто в свое время подохренел
если говорить про логи то там точные данные до секунды
про роботс там до дня
про просто историю индексации в вебмастере тоже до дня
в метрике не так все оченвидно но в целом если чекали страницы через поиск то тоже до дня обычно