Задать вопрос
@kiranananda

Оптимизация mysql, слишком большие таблицы?

Здравствуйте!

Есть база в которой куча таблиц от 10 до 50 гигов. Все это дело весит 350 гиг на диске. Если крашится одна из таблиц таких, ее вообще нереально восстановить. На днях упал слейв(запрос какой то не прошел) и тупое копирование базы заняло минут 20 простоя, но это пока место позволяет на сервере бд сделать копию файлов. После переноса на слейв, мускуль не запустился ругаясь на ошибки. Это уже насторожило, решили делать через mysqldump, но тут сами понимаете на всю ночь процесс....

Как что можно сделать с базой что бы избежать подобных проблем? Просто хотяб направления о чем задуматься...
  • Вопрос задан
  • 201 просмотр
Подписаться 2 Средний 9 комментариев
Пригласить эксперта
Ответы на вопрос 1
ipatiev
@ipatiev
Потомок старинного рода Ипатьевых-Колотитьевых
Ну как минимум xtrabackup а не mysqldump.

А в целом, я думаю, тут решение одно - нанять грамотного сисадмина/DBA
Чтобы лечил причину, а не следствие (то есть разбирался - почему "крашнулась" таблица, и делал так, чтобы это не повторялось)
Чтобы не писал ерунды типа "место кончилось" (как будто под линуксом проблема перекинуть файлы сразу на другую машину)
А если уж и писал в Спортлото, то делал это чётко и подробно, с максимумом технических подробностей - какие физические характеристики серверов, какая операционка, какая БД, все версии с точностью до последней буквы, какой тип таблиц, с какой ошибкой "крашнулось", какую "ошибку" пишет при переносе.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы