Решения для резервного копирования облачных сайтов Rackspace?


10

Какие варианты у меня есть для резервного копирования контента с сайтов Rackspace Cloud, включая файлы и базы данных? Я знаю, что у них есть постоянная работа, но я не уверен, какие у меня есть варианты, когда дело доходит до этого.

Вот некоторые из вещей, которые поддерживают рабочие места cron .

Ответы:


3

Я использую два сценария для резервного копирования моего VPS (размещенного на Linode, но тот же должен работать на Rackspace).

Во-первых, для резервного копирования MySQL я использую скрипт automysqlbackup . Он заботится о сбрасывании ваших баз данных, сжатии их и поддержке нескольких ежедневных / еженедельных / ежемесячных копий файлов резервных копий. Он также может отправить вам сжатые дампы .sql по электронной почте.

Для общего резервного копирования файловой системы, я использую двуличие - это может использовать несколько различных движков хранения (FTP, SCP, Nfs и т.д.), но я выбираю использовать бэкенд Amazon S3. Duplicity будет делать полные или инкрементные резервные копии в зависимости от ваших потребностей. Он также будет обрабатывать сжатие ваших резервных файлов, а также шифрование, если вы того пожелаете.


1
С RackSpace у меня нет доступа к оболочке.
Дэниел А. Уайт

1

Rackspace не допускает SSH к своим облачным сайтам, поэтому я не думаю, что Duplicity сработает, если вы не сможете убедить их установить его.

Мы также искали решение, но в итоге создали систему резервного копирования, которая архивирует файлы и дампы SQL и передает их в Rackspace Cloud Files с именами и датами. Система выполняет очистку старых резервных копий (мы храним различные ежедневные / еженедельные / ежемесячные резервные копии) и работает как модуль для отдельной установки Drupal. Администратор дает отзыв о состоянии каждой резервной копии и заполняет таблицу Google, чтобы дать обзор. Он также может работать с любым сайтом за пределами Rackspace, поскольку он использует PHP-клиент для выполнения всей работы (загрузите один PHP-скрипт на сайты, которые вы хотите создать резервную копию, настройте его в пользовательском интерфейсе администратора, и главный сайт займет заботиться обо всем планировании / аутентификации / и т.д. ...) Мы используем его внутри, но можем выпустить его как модуль, если есть какой-либо интерес к нему, поэтому дайте мне знать.


1
duplicity поддерживает библиотеку python-cloudfiles, которая позволяет выполнять резервное копирование в облачное хранилище, используя duplicity, а также для любой цели openstack
Tom H

0

Единственный известный мне способ - создать задание cron для резервного копирования ваших данных и баз данных и использовать его как ftp или любой другой метод, который вы хотите использовать для передачи данных. Вот пример сценария.

#!/bin/sh
# System + MySQL backup script
# Full backup day - Sun (rest of the day do incremental backup)
# Copyright (c) 2005-2006 nixCraft 
# This script is licensed under GNU GPL version 2.0 or above
# Automatically generated by http://bash.cyberciti.biz/backup/wizard-ftp-script.php
# ---------------------------------------------------------------------
### System Setup ###
DIRS="/home /etc /var/www"
BACKUP=/tmp/backup.$$
NOW=$(date +"%d-%m-%Y")
INCFILE="/root/tar-inc-backup.dat"
DAY=$(date +"%a")
FULLBACKUP="Sun"
### MySQL Setup ###
MUSER="admin"
MPASS="mysqladminpassword"
MHOST="localhost"
MYSQL="$(which mysql)"
MYSQLDUMP="$(which mysqldump)"
GZIP="$(which gzip)"
### FTP server Setup ###
FTPD="/home/vivek/incremental"
FTPU="vivek"
FTPP="ftppassword"
FTPS="208.111.11.2"
NCFTP="$(which ncftpput)"
### Other stuff ###
EMAILID="admin@theos.in"
### Start Backup for file system ###
[ ! -d $BACKUP ] && mkdir -p $BACKUP || :
### See if we want to make a full backup ###
if [ "$DAY" == "$FULLBACKUP" ]; then
FTPD="/home/vivek/full"
FILE="fs-full-$NOW.tar.gz"
tar -zcvf $BACKUP/$FILE $DIRS
else
i=$(date +"%Hh%Mm%Ss")
FILE="fs-i-$NOW-$i.tar.gz"
tar -g $INCFILE -zcvf $BACKUP/$FILE $DIRS
fi
### Start MySQL Backup ###
# Get all databases name
DBS="$($MYSQL -u $MUSER -h $MHOST -p$MPASS -Bse 'show databases')"
for db in $DBS
do
FILE=$BACKUP/mysql-$db.$NOW-$(date +"%T").gz
$MYSQLDUMP -u $MUSER -h $MHOST -p$MPASS $db | $GZIP -9 > $FILE
done
### Dump backup using FTP ###
#Start FTP backup using ncftp
ncftp -u"$FTPU" -p"$FTPP" $FTPS<
mkdir $FTPD
mkdir $FTPD/$NOW
cd $FTPD/$NOW
lcd $BACKUP
mput *
quit
EOF
### Find out if ftp backup failed or not ###
if [ "$?" == "0" ]; then
rm -f $BACKUP/*
else
T=/tmp/backup.fail
echo "Date: $(date)">$T
echo "Hostname: $(hostname)" >>$T
echo "Backup failed" >>$T
mail -s "BACKUP FAILED" "$EMAILID" <$T
rm -f $T
fi

0

Задание Cron, запускающее скрипт, кажется мне более «солидным» решением. Я все еще нахожусь в процессе избавления от моей зависимости от GUI. D:

При этом я использую Cobian Backup для автоматического резервного копирования всех файлов сайта @ cloudsites через FTP на ночной основе. Это довольно удачное решение, которое не требует знаний сценариев или заданий Cron, просто периодически проверяйте восстановление.

Более подробно здесь: http://www.iainlbc.com/2010/04/how-to-backup-rackspace-cloudsites-automatics-incrementally-using-free-software/

MySQL Administrator (EOL) обрабатывает автоматическое резервное копирование нашего Amazon RDS



0

Я пытался http://www.zipitbackup.com/ . Это утилита резервного копирования из стойки. Это работает хорошо.

Документация говорит, как это работает:

-> Работает на основе сайта. Утилита резервного копирования Zipit должна быть установлена ​​для каждого сайта, для которого требуется создать резервную копию.

-> Утилита Zipit Backup выполняет резервное копирование всех файлов и баз данных облачных сайтов в вашу учетную запись облачных файлов.

-> Список всех доступных резервных копий. Доступными резервными копиями можно управлять через облачную панель управления.


Zipitbackup спам.
Охотник на оленей

@DeerHunter, Пожалуйста, предложите альтернативы, отличные от маркировки спама на ответы других, чтобы сообщество могло решить, какой ответ полезен или нет.
Дашрат
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.