Как вы решаете задачу с парралельными задачами в bash?
Достаточно часто встречается такая задача, когда
* Скачиваешь через curl/wget два-три файла.
* распаковываешь набор php файлов, затем выполняешь sql файлы для обновления базы.
* останавливаешь процесс, который долго тупит, затем скачиваешь новый бинарник ему на замену.
И очень хочется делать эти задачи парралельно, поэтому пишешь какие-то велосипеды..
Существует ли готовое решение для этого?
Хотелось бы что-то вроде такого - в скрипт пишешь:
megacmd "/srv/bin/script5" "prog2" "/srv/bin/prog3" "sleep 500"
и megacmd запустит их всех параллельно и проконтролирует, что все указанные команды будут завершены прежде чем перейти на следующий шаг. Понятно, что задача по сути очень простая, и устанавливать для подобных вещей целый комбайн с wifi и блютусом это оверинженеринг, но вдруг есть простой и штатный способ?