Лучшее сжатие для ZFS send / recv


15

Я отправляю инкрементальные снимки ZFS по линии T1 точка-точка, и мы находимся в точке, где за один день снимки с трудом могут пройти по проводам до начала следующего резервного копирования. Наша команда send / recv:

zfs send -i tank/vm@2009-10-10 tank/vm@2009-10-12 | bzip2 -c | \
ssh offsite-backup "bzcat | zfs recv -F tank/vm"

У меня есть много процессорных циклов, чтобы сэкономить. Есть ли лучший алгоритм сжатия или альтернативный метод, который я могу использовать, чтобы передать меньше данных по линии?


1
Вы убедились, что это самая медленная часть ссылки? Может быть, это чтение / запись диска.
kbyrd

Да, я получаю 80-100 Мбит / с, подключаясь к коробке через NFS. Сетевое подключение составляет 1,5 Мбит / с
Sysadminicus

3
Вы пробовали использовать lzma --best?
Amok

1
Как отметил Амук, в настоящее время LZMA является лучшим широко распространенным алгоритмом сжатия общих данных.
Крис С

Например, статистика, которая показывает, что zfs receiveможет быть виновником:received 953MB stream in 36 seconds (26.5MB/sec)
poige

Ответы:


2

Похоже, вы попробовали все лучшие механизмы сжатия и все еще ограничены скоростью линии. Предполагая, что запуск более быстрой строки не может быть и речи, вы рассматривали вопрос о том, чтобы просто выполнять резервные копии реже, чтобы у них было больше времени для запуска?

Если не считать этого, есть ли какой-то способ снизить объем записываемых данных? Не зная вашего стека приложений, трудно сказать, как, но может помочь только выполнение таких действий, как проверка того, что приложения перезаписывают существующие файлы вместо создания новых. И убедитесь, что вы не сохраняете резервные копии файлов temp / cache, которые вам не нужны.


9

Вот чему я научился, делая то же самое, что и вы. Я предлагаю использовать mbuffer. При тестировании в моей среде это помогало только на приемном конце, без него отправка замедлялась бы, пока прием не догонял.

Некоторые примеры: http://everycity.co.uk/alasdair/2010/07/using-mbuffer-to-speed-up-slow-zfs-send-zfs-receive/

Домашняя страница с опциями и синтаксисом http://www.maier-komor.de/mbuffer.html

Команда send из моего сценария репликации:

zfs send -i tank/pool@oldsnap tank/pool@newsnap | ssh -c arcfour remotehostip "mbuffer -s 128k -m 1G | zfs receive -F tank/pool"

он запускает mbuffer на удаленном хосте в качестве буфера приема, поэтому отправка выполняется максимально быстро. Я запустил 20-мегабитную строку и обнаружил, что наличие mbuffer на отправляющей стороне также не помогло, также мой основной ящик zfs использует весь свой оперативный памяти в качестве кеша, поэтому предоставление даже 1g mbuffer потребовало бы от меня уменьшения некоторых размеров кеша.

Кроме того, и это не моя область знаний, я думаю, лучше просто позволить ssh выполнить сжатие. В вашем примере я думаю, что вы используете bzip, а затем используете ssh, который по умолчанию использует сжатие, поэтому SSH пытается сжать сжатый поток. В итоге я использовал arcfour в качестве шифра, так как он потребляет меньше ресурсов процессора, и это было важно для меня. Вы можете получить лучшие результаты с другим шифром, но я бы определенно предложил разрешить сжатие SSH (или отключить сжатие ssh, если вы действительно хотите использовать то, что он не поддерживает).

Что действительно интересно, так это то, что использование mbuffer при отправке и получении на локальном хосте также ускоряет процесс:

zfs send tank/pool@snapshot | mbuffer -s 128k -m 4G -o - | zfs receive -F tank2/pool

Я обнаружил, что 4g для передачи на локальном хосте, по-видимому, - самая лучшая точка для меня. Это просто говорит о том, что zfs send / receive на самом деле не нравится задержка или любые другие паузы в потоке для лучшей работы.

Просто мой опыт, надеюсь, это поможет. Мне потребовалось некоторое время, чтобы понять все это.


1
Большое спасибо за этот пост. Глядя на отправку zfs более внимательно, я очень быстро почувствовал, что у него плохое поведение (он же «дизайн») при отправке на цель с задержкой. После примерно дюжины результатов, говорящих о том, что zfs не может быть ни в чем виноват. Я очень благодарен, что вы нашли время, чтобы изучить его и опубликовали свои результаты.
Флориан Хейгл,

2

Это ответ на ваш конкретный вопрос:

Вы можете попробовать rzip , но он работает немного иначе, чем сжатый / bzip / gzip:

Ожидается, что rzip сможет читать весь файл, поэтому его нельзя запустить в конвейере. Это значительно повысит ваши требования к локальному хранилищу, и вы не сможете запускать резервное копирование и отправлять резервное копирование по каналу в одном канале. Тем не менее, в результате файлы, по крайней мере, в соответствии с этим тестом, немного меньше.

Если ваше ресурсное ограничение - это ваш канал, вы все равно будете выполнять резервное копирование 24x7, поэтому вам нужно будет просто постоянно копировать снимки и надеяться, что вы все равно продолжите.

Ваша новая команда будет:

remotedir=/big/filesystem/on/remote/machine/
while 
  snaploc=/some/big/filesystem/
  now=$(date +%s)
  snap=snapshot.$now.zfssnap
  test -f $snaploc/$snap
do
  sleep 1
done

zfs send -i tank/vm@2009-10-10 tank/vm@2009-10-12 > $snaploc/$snap &&
rzip $snaploc/$snap &&
ssh offsite-backup "
        cat > $remotedir/$snap.rzip && 
        rzip -d $remotedir/$snap.rzip && 
        zfs recv -F tank/vm < $remotedir/$snap &&
        rm $remotedir/$snap " < $snaploc/$snap &&
rm $snaploc/$snap

Вы захотите добавить лучшее исправление ошибок, и вы захотите использовать что-то вроде rsync для передачи сжатых файлов, чтобы в случае сбоя при передаче в середине вы могли выбрать, где остановились.


2

С тех пор, как был опубликован этот вопрос, все изменилось:

1: ZFS теперь поддерживает сжатую репликацию, просто добавьте флаг -c к команде отправки zfs, и блоки, сжатые на диске, останутся сжатыми, когда они пройдут по каналу на другой конец. Может быть еще больше сжатия, потому что сжатие по умолчанию в ZFS - lz4

2: лучший компрессор для использования в этом случае - zstd (ZStandard), теперь у него есть «адаптивный» режим, который будет изменять уровень сжатия (между поддерживаемыми 19+ уровнями, плюс новые более высокие скорости zstd-fast) на основе скорость соединения между zfs send и zfs recv. Он сжимает столько, сколько может, сохраняя очередь данных в ожидании выхода из канала до минимума. Если ваша ссылка быстрая, она больше не будет тратить время на сжатие данных, а если ваша ссылка медленная, она продолжит работать, чтобы еще больше сжать данные и сэкономить ваше время в итоге. Он также поддерживает многопоточное сжатие, поэтому я могу использовать преимущества нескольких ядер, которых нет у gzip и bzip, за исключением специальных версий, таких как pigzip.


1

Я предполагаю, что вы просто не можете увеличить пропускную способность вашего сайта ...

Вы можете увидеть выгоду от неиспользования сжатия на хосте.

Если вы используете что-то вроде оптимизатора wan, он сможет гораздо лучше оптимизировать передачу, если не сжимать файл перед отправкой, то есть вы делаете именно то, что делаете, но удаляете bzip2 из канала. После пары запусков вашей резервной копии оптимизатор wan кэширует очень большую часть содержимого, которое он видит при передаче, и вы увидите огромные улучшения в скорости передачи.

Если у вас ограниченный бюджет, вы можете увидеть подобное улучшение, используя rsync и rsyncing несжатый снимок, а именно:

zfs send -i tank/vm@2009-10-10 tank/vm@2009-10-12 > /path/to/snapshotdir/snapshotfile
rsync /path/to/snapshotdir/snapshotfile offsite-backup:/remote/path/to/snapshotfile
ssh offsite-backup 'zfs recv -F tank/vm < /remote/path/to/snapshotfile'

Это будет быстрее, потому что rsync будет передавать только разницу между вчерашним снимком и сегодняшним. В зависимости от того, как работает процесс создания моментальных снимков, между ними может сохраняться избыточность, даже если они на самом деле не являются одним и тем же файлом.

Оптимизатор wan является гораздо более вероятным способом решения этой проблемы (хорошо, Metro Ethernet является наиболее вероятным способом решения этой проблемы, но мы оставим это вне рассмотрения). Rsync - это просто дикий выстрел в темноте, который стоит протестировать (локально; rsync сообщит вам, сколько времени он сэкономил на прямой копии) на ваших локальных данных, прежде чем писать большую проверку на наличие оптоволокна или установку на русле.


1

Для чего это стоит. Я бы не стал делать прямую отправку | сжимать | распаковывать | получить это может привести к проблемам на принимающей стороне, если линия передачи оборвется и ваши пулы будут в автономном режиме в течение длительного времени во время приема. Мы отправляем в локальный файл, затем gzip снимок и передачи с помощью rsync (с руслом реки), затем мы получаем из файла. Русло реки не оптимизирует движение, НО, если есть проблема с передачей, и его необходимо перезапустить, русло реки ускоряет повторную передачу.

Мы рассмотрели, как не сжимать инкрементный снимок, использовать сжатие Rsync и не использовать никакое сжатие, кроме русла реки. Трудно сказать, какой из них лучше, но когда мы переносим архивные журналы из оракула со сжатием rsync, скорость передачи примерно в два раза выше, чем у простых файлов и русло (с RSync).

Если у вас есть русло, тогда используйте rsync, а не ssh, так как русло понимает rsync и попытается оптимизировать его и добавит данные в кеш (см. Выше, перезапуск пересылок).


1

Мой опыт zfs sendпоказывает, что он довольно бурный, хотя и намного быстрее (в среднем), чем следующий шаг сжатия. Моя резервная копия добавляет значительную буферизацию после zfs sendи больше после gzip:

zfs send $SNAP | mbuffer $QUIET -m 100M | gzip | mbuffer -q -m 20M | gpg ... > file

В моем случае устройство вывода подключено через USB (не по сети), но буферизация важна по той же причине: общее время резервного копирования сокращается, когда USB-накопитель занят на 100%. Вы не можете отправлять меньше байтов в целом (как вы просите), но вы все равно можете закончить раньше. Буферизация удерживает шаг сжатия, связанный с ЦП, от того, чтобы стать связанным с IO.


1

Я использую pbzip2 все время (параллельно bzip2) при отправке через WAN. Так как он является многопоточным, вы можете указать количество потоков для использования с опцией -p. Сначала установите pbzip2 на обоих отправляющих и получающих хостах, инструкции по установке находятся по адресу http://compression.ca/pbzip2/ .

zfs send -i tank/vm@2009-10-10 tank/vm@2009-10-12 | pbzip2 -c | \
ssh offsite-backup "pbzip2 -dc | zfs recv -F tank/vm"

Основной ключ заключается в создании снимков с частыми интервалами (~ 10 минут), чтобы уменьшить размер снимка, а затем отправлять каждый снимок. ssh не возобновит работу с поврежденного потока снимков, поэтому, если у вас есть огромный снимок для отправки, перенаправьте поток в pbzip2, затем разделите на куски управляемого размера, затем rsync разделите файлы на принимающий хост, затем передайте в zfs восстановленные объединенные файлы pbzip2.

zfs send -i tank/vm@2009-10-10 tank/vm@2009-10-12 | pbzip2 -c | \
split -b 500M - /somedir/snap-inc-10-to-12.pbzip2--

это создаст файлы с именами по 500 МБ:

/somedir/snap-inc-10-to-12.pbzip2--aa
/somedir/snap-inc-10-to-12.pbzip2--ab
/somedir/snap-inc-10-to-12.pbzip2--ac
...

rsync для получения хоста несколько раз (вы можете rsync даже до того, как отправка zfs завершится, или как только вы увидите полный блок размером 500 МБ), нажмите ctrl + c в любое время для отмены:

while [[ true ]]; do rsync -avP /somedir/snap-inc-10-to-12.pbzip2--* offsite-backup:/somedir ; sleep 1; done;

ZFS получают:

cat /somedir/snap-inc-10-to-12.pbzip2--* | pbzip2 -dc | zfs recv -Fv tank/vm

Пользователь freind упомянул: для чего это стоит. Я бы не стал делать прямую отправку | сжимать | распаковывать | получить это может привести к проблемам на принимающей стороне, если линия передачи оборвется и ваши пулы будут в автономном режиме в течение длительного времени во время приема. - Ранее я сталкивался с проблемами со старыми версиями zfs <28 на принимающем хосте, если текущая отправка / восстановление прерывается из-за сбоя сети, но не в той степени, в которой пулы отключены. Это интересно. Повторно отправляйте снимок, только если "zfs recv" вышел на принимающей стороне. Убейте "zfs recv" вручную, если это необходимо. zfs send / recv теперь значительно улучшен во FreeBSD или Linux.


0

Вы можете подобрать более быстрый шифр для ssh, возможно, blowfish-cbc, также попробуйте переключатели -123456789

-1 (or --fast) to -9 (or -best)

1
Со страницы руководства unix: псевдонимы --fast и --best предназначены в первую очередь для совместимости с GNU gzip. В частности, --fast не делает вещи значительно быстрее. И --best просто выбирает поведение по умолчанию.
Sysadminicus

1
так что это не имеет никакого эффекта в вашем случае. Как насчет шифра?
Иштван

Мне повезло со сжатием LZMA, но, возможно, ваша ссылка слишком медленная.
Amok

0

Вам нужно будет проверить с вашими данными. Просто отправьте его в файл и сожмите с каждым методом.

Для нас gzip имел огромное значение, и мы проработали все это, но не было даже 1% разницы между gzip и bzip или 7z.

Если вы находитесь на медленном T1, вам нужно будет сохранить его в файл и выполнить rsync.

Для тех (не для вас), которые ограничены чуть больше процессором, чем пропускной способностью, как, например, lstvan сказал, что другой шифр, как arcfour128, ускоряет процесс. Мы используем это внутренне при перемещении вещей.


0

Поэкспериментируйте с включением дедупликации для zfs send с -D. Экономия, конечно, зависит от того, сколько дубликатов в ваших данных.


Поскольку он использует -i«инкрементное» резервное копирование, надежды на это не так уж много -D.
Пой

@poige зависит от того, как выглядят их данные. Если они генерируют много данных, которые имеют дубликаты блоков, это большой выигрыш. Я не понимаю, как-я сделал бы более или менее вероятным наличие дублирующих блоков. Если вы обычно создаете данные с большим количеством дубликатов, вы, вероятно, будете создавать большое количество дубликатов внутри каждый день, так что -i это не поможет или не повредит.
Джеймс Мур

Что ж, если у вас много дубликатов, любое сжатие в любом случае позаботится об этом.
Пой

@poige Они должны сравнивать с их фактическими данными. Вы можете определенно иметь наборы данных, которые плохо сжимаются и действительно хорошо дедуплицируют. Например, несколько копий одного и того же сжатого видеофайла очень хорошо дедуплицируют, а сжатие на уровне файловой системы, вероятно, хуже, чем бесполезное.
Джеймс Мур

Ах, этот случай - да
Poige

-1

«Лучший» алгоритм сжатия зависит от того, какой тип данных у вас есть - если вы нажимаете на сжатие коллекции MP3, вероятно, замедлит процесс, в то время как текстовые / лог-файлы могут быть значительно сжаты gzip -9.

Сколько данных вы загружаете каждый день?


-1

Рассматривали ли вы настройку стека TCP / IP так, чтобы вы были буфером TCP и размеры окон были немного больше? для этого вы можете использовать nddинструмент Solaris или sysctlинструмент Linux / BSD / Mac OSX. В Solaris, вы ищете /dev/tcp tcp_max_bufи /dev/tcp tcp_cwnd_maxценность, а на Linux SYSCTL, что вы ищете net.ipv4.tcp_mem, net.ipv4.tcp_rmemи net.ipv4.tcp.wmemценность.

Кроме того, эти ссылки могут быть полезны:

Настройка производительности Solaris TCP

Внизу этой страницы есть набор ссылок, которые объяснят, как сделать то же самое для Linux / BSD / OSX.


1
1. Это 5-летний вопрос, который вы выкапываете. 2. Он не сказал, что ссылка использовалась недостаточно, и спросил о сжатии, на которое вы не ссылаетесь. 3. В наши дни большинство операционных систем автоматически настраивают размер окна. Информация, на которую вы ссылаетесь, была старой 3 года назад, когда ее опубликовал автор.
Крис С
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.