Дамп, как дамп :) Много баз данных, пользователей, таблицы всяких вьюх, триггеров и всего что можно было накопить на корпоративном хостинге в 250 человек. Мне там нужно найти свои таблицы и достать данные :)
Главный вопрос зачем? Если найти текст то можно и не открывать. Вы суть задачи опишите. А так можете вимом попробовать (главное без плагинов его запустите, быстрее будет)
Это понятно что в таком виде их импортировать не сможешь, но автору вроде как надо вытащить оттуда только определённые данные так что мой вариант катит. Если же цель ставится именно импортировать, то после разделения, придётся немного поработать ручками. Других вариантов я не вижу.
Ваш вариант мне не подходит, если делить файл хотя бы по 1гб который тоже с трудом будет открывается ничего не меняет, а на более мелкие я потом даже не представляю как в них искать :)
Вариант с grep отлично работает ищет и сохраняет что надо.
grep -i «text» dump.sql > result.txt
Ваш метод кстати мне очень пригодится в конце поиска и составления result.txt т.к. он уже вырос за 2гб, его я как раз поделю на части чтобы открыть в редакторе :)
grep и vim — это простые, но достаточные инструменты. Конечно, 140 ГБ даже они будут долго обрабатывать, но я вообще не представляю, как этот процесс можно еще ускорить.