Задать вопрос

Чем можно открыть в ubuntu sql дамп размером в 140гб

И вообще потянет ли железо: ноутбук средней производительности 2гб оперативы, 2 ядра. Свободного место предостаточно.

Вообще в идеале бы это импортировать бы в mysql, но боюсь этот процесс он не выдержит, поэтому хотя бы его открыть и найти в нём нужный текст :)
  • Вопрос задан
  • 7047 просмотров
Подписаться 4 Оценить 2 комментария
Решения вопроса 1
sl_bug
@sl_bug
Главный вопрос зачем? Если найти текст то можно и не открывать. Вы суть задачи опишите. А так можете вимом попробовать (главное без плагинов его запустите, быстрее будет)
Ответ написан
Пригласить эксперта
Ответы на вопрос 8
schastny
@schastny
Удалите Ubuntu. Поставьте Windows и откройте блокнотом, «главное без плагинов его запустите, быстрее будет» :D
Ответ написан
Комментировать
propovednik
@propovednik
Подымите SQL сервер, скормите дамп серверу, зайдите через пххмайадмин, удалите 100% ненужные базы, с оставшимися сделайте дамп.
Ответ написан
Комментировать
Screatch
@Screatch
Ruby On Rails front-end developer
140GB? Щ_щ, боюсь спросить что это за дамп такой.

Первое что приходит в голову это поделить дамп на 2-3 десятка более мелких частей, быстрое гугление выдало как это сделать в Linux:

split --bytes=1m /path/to/large/file /path/to/output/file/prefix

Где 1m, это размер каждого файла. Дальше думаю разберётесь.
Ответ написан
Sterhel
@Sterhel
Жесть.
Ответ написан
Комментировать
NikoB
@NikoB
Попробуйте Sypex Dumper, справлялся с дампами в 80 Гб. Больше не проверялось
Ответ написан
Комментировать
DanielWolf
@DanielWolf
открыть — nano, vi

импортить через source мускула

$ mysql -u user -ppass
> source /path/to/file

долго — да, но выдержит, и не такое импортили
Ответ написан
Комментировать
schastny
@schastny
Ааа демон! Скукожь его обратно! :)
140гб ох****! :)

«а на более мелкие я потом даже не представляю как в них искать :)»
cat /path/to/directory_with_many_small_files/* | grep «pattern»
Ответ написан
charon
@charon
grep и vim — это простые, но достаточные инструменты. Конечно, 140 ГБ даже они будут долго обрабатывать, но я вообще не представляю, как этот процесс можно еще ускорить.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы