Всем привет!
Столкнулся с такой проблемой, есть необходимость держать таблицу на 500 млн записей. Таблица MyISAM. Структура таблицы:
CREATE TABLE `users` (
`id` int(11) NOT NULL,
`group_id` int(11) NOT NULL DEFAULT '0',
`email` varchar(255) DEFAULT NULL,
`reg_time` timestamp NULL DEFAULT NULL
) ENGINE=MyISAM DEFAULT CHARSET=utf8;
--
ALTER TABLE `users`
ADD PRIMARY KEY (`id`),
ADD KEY `email` (`email`),
ADD KEY `group_id` (`group_id`),
ADD KEY `reg_time` (`reg_time`);
ALTER TABLE `users`
MODIFY `id` int(11) NOT NULL AUTO_INCREMENT;
В данные момент решил сделать тест и просто сгенерить синтетические данные, так вот при вставке после 150 млн записей INSERT запросы стали отрабатывать нереально долгое время либо вообще не отрабатывать. Данные добавляю запросами вида:
INSERT INTO tbl_name (a,b,c) VALUES(1,2,3),(4,5,6),(7,8,9);
По железу: обычный домашний комп (amd 4 ядра, 22 гига памяти), ubuntu, mysql из коробки без доп манипуляций с ним.
Интересует в какую сторону копать?