Когда вы спрашиваете у Gitlab о том, как сделать резервную копию объемом 3 ТБ на локальном Gitlab, они отвечают, используя наш инструмент, который создает tarball.
Это просто неправильно для меня на всех уровнях. Этот архив содержит дамп postgres, образы докеров, данные репо, GIT LFS и т. Д., Конфигурацию и так далее. Резервное копирование ТБ статических данных вместе с КБ очень динамических данных выглядит неправильно. И затем возникает вопрос, мы хотим делать резервные копии каждый час.
Вопрос
Мне бы очень хотелось узнать от других, как они это делают, чтобы получить последовательную резервную копию.
ZFS на Linux будет хорошо со мной, если это является частью решения.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
хотя я не могу говорить по опыту. Но, возможно, мне придется включить что-то вроде этого в ближайшее время ...