у нас есть тяжёлая таблица
Как оптимальнее всего организовать хранения таких данных и чтобы потом максимально быстро доставать оттуда данные для отчётов?
CAST(if(cs.parent_id IS NULL, '', cs.name) AS CHAR(65535)) fqpath
WHERE cs.parent_id IS NULL
CAST(cs.name AS CHAR(65535)) fqpath
я буду получать только одного родителя.
здесь надо будет пылесосить каждый месяц
но на виртуалку надо будет докупить еще одну оф винду 10 или 11.
не увидит программные рейды
и большинство рейдов на несерверных матерях
только скорость дисков будет существенно ниже
Если разделитель полей в значении поля не экранирован, значит, CSV некорректен. И по-хорошему нужно корректировать то программное средство, которое выгружает данные.
В принципе согласен - разумнее обработать CSV, чем выкручиваться при импорте. Возможный вариант решения при импорте может быть такой: в запросе выполняем импорт всей строки данных в строковое поле, а в триггере BEFORE INSERT выполняем парсинг - откусываем в первое поле всё от начала до первого разделителя (его самого вообще удаляем), а в json-поле всё после первого разделителя и открывающей фигурной скобки (если строковое поле может содержать такой фрагмент - то от скобки, комплементарной закрывающей фигурной).