サーバーにあるファイルのバックアップ

普通ホームページっていうのはローカルでファイルを作成してアップロードっていう流れなのでローカルとサーバにファイルが二つずつあるようになって一種のバックアップのようになっているのですが、Wikiとかmovable typeとかやっているとデータがサーバだけにたまっていくわけでサーバが壊れたりするとデータが復旧できなくなってしまいます。そんなわけなのでwikiとmovable typeのバックアップを自動で取得するようにしました。

wikiのバックアップ

#!/bin/sh
cd /virtual/makotokw/public_html/
tar -czf wiki.tar.gz wiki
rm /virtual/makotokw/wiki.tar.gz
mv wiki.tar.gz /virtual/makotokw

MySQLのバックアップ

#! /bin/sh
cd /virtual/makotokw
/usr/local/mysql/bin/mysqldump --all-databases > mysqldb.dump -u makotokw --password=******** --opt
tar -czf mysqldb.tar.gz mysqldb.dump
rm -r mysqldb.dump

てな、shellを書いて、XREAではcronが使えるのでこれをそれぞれ午前6時と午前7時に走らせています。

でもまだこれでできたtar.gzはサーバ上にあるわけでこれを家のマシンに持ってくることにします。

open s254.xrea.com
makotokw
(password)
bin
cd /
get wiki.tar.gz
get mysqldb.tar.gz
quit

てなftpのコマンドをget.txtというファイル名で保存

ftp -s:get.txt

というコマンドをget.batというファイルで保存。

普通にカレントディレクトリに保存されるのでget.txt,get.batは我が家のLAN HDDのバックアップフォルダにおいておきます。

あとはget.batをWindowsのタスクで毎週月曜日の朝8時に実行するようにして完了です。