ОП спрашивал о параллельном архивировании, а не о параллельном сжатии.
Если исходный материал поступает из файловой системы, где разные каталоги / файлы могут находиться на разных дисках, или даже на одном быстром диске, который превышает скорость ввода инструмента (ов) сжатия, тогда действительно может быть полезно иметь несколько входных потоков вдаваясь в слои сжатия.
Напрашивается важный вопрос: как выглядит выход из параллельного архива? Это больше не просто дескриптор файла / stdout
, а дескриптор файла на поток.
Примером этого до сих пор является режим параллельного дампа Postgresql pg_dump
, в котором он создает дамп в каталог с потоками, работающими над набором таблиц для резервного копирования (рабочая очередь с несколькими потоками, потребляющими очередь).
Я не уверен ни в каких реальных параллельных архиваторах, которые являются господствующими. Был взломан Solaris Tar для использования на ZFS: http://www.maier-komor.de/mtwrite.html
Есть несколько специальных инструментов резервного копирования, которые успешно запускают несколько потоков, но гораздо больше, которые просто распределяют нагрузку по каталогам на высоком уровне.