普通ホームページっていうのはローカルでファイルを作成してアップロードっていう流れなのでローカルとサーバにファイルが二つずつあるようになって一種のバックアップのようになっているのですが、Wikiとかmovable typeとかやっているとデータがサーバだけにたまっていくわけでサーバが壊れたりするとデータが復旧できなくなってしまいます。そんなわけなのでwikiとmovable typeのバックアップを自動で取得するようにしました。
wikiのバックアップ
#!/bin/sh cd /virtual/makotokw/public_html/ tar -czf wiki.tar.gz wiki rm /virtual/makotokw/wiki.tar.gz mv wiki.tar.gz /virtual/makotokw
MySQLのバックアップ
#! /bin/sh cd /virtual/makotokw /usr/local/mysql/bin/mysqldump --all-databases > mysqldb.dump -u makotokw --password=******** --opt tar -czf mysqldb.tar.gz mysqldb.dump rm -r mysqldb.dump
てな、shellを書いて、XREAではcronが使えるのでこれをそれぞれ午前6時と午前7時に走らせています。
でもまだこれでできたtar.gzはサーバ上にあるわけでこれを家のマシンに持ってくることにします。
open s254.xrea.com makotokw (password) bin cd / get wiki.tar.gz get mysqldb.tar.gz quit
てなftpのコマンドをget.txtというファイル名で保存
ftp -s:get.txt
というコマンドをget.batというファイルで保存。
普通にカレントディレクトリに保存されるのでget.txt,get.batは我が家のLAN HDDのバックアップフォルダにおいておきます。
あとはget.batをWindowsのタスクで毎週月曜日の朝8時に実行するようにして完了です。