Я архивирую данные с одного сервера на другой. Изначально я начал rsync
работу. Потребовалось 2 недели для создания списка файлов только для 5 ТБ данных и еще одна неделя для передачи 1 ТБ данных.
Затем мне пришлось убить работу, так как нам нужно немного простоя на новом сервере.
Было решено, что мы доработаем это, так как нам, вероятно, больше не понадобится доступ к нему. Я думал разбить его на куски по 500 ГБ. После того, как я tar
это тогда, я собирался скопировать это через ssh
. Я использовал tar
и, pigz
но это все еще слишком медленно.
Есть ли лучший способ сделать это? Я думаю, что оба сервера на Redhat. Старый сервер Ext4, а новый XFS.
Размеры файлов варьируются от нескольких кб до нескольких мегабайт, а в 5 ТБ - 24 млн. JPEG. Так что я предполагаю около 60-80 миллионов за 15 ТБ.
редактировать: после игры с rsync, nc, tar, mbuffer и pigz в течение нескольких дней. Узким местом будет дисковый ввод-вывод. Поскольку данные распределяются на 500 дисках SAS и около 250 миллионов jpegs. Однако теперь я узнал обо всех этих замечательных инструментах, которые я смогу использовать в будущем.