linux备份脚本(以web为例)
linux服务器中要定期对某一块东西自动备份很有必要,这时就要用到shell脚本来写啦。这里以备份Apache服务器为例,为了方便演练,这里用的Apache是用yun安装的,如果想对源码安装的Apache做自动备份,只需改动相应代码即可。
[root@localhost ~]# vi bak_web1.sh
#!/bin/bash
#name:bak_web.sh
#description:this is used to back up web script
mypath="/var/bak_web" ///将备份出来的东西放在指定目录下,这个目录可以是smb分享出来的,也可以是建立在lvm上的
mylog="/var/log/weblog.txt" ///将每次备份做一次记录,将每次记录都集中保存在这个指定的文件下(也就是日志),这里的日志目录以及备份目录都是自己根据实际指定的。
time=`date +%Y-%m-%d-%H:%M` ///定义每次执行备份要用到的时间变量
if [ ! -d "$mypath" ];then ///判断备份目录是否存在,如果不存在就创建这个目录
mkdir "$mypath"
fi
mkdir -p $mypath/$time/conf ///分别创建相应要备份的内容的目录,为的是便于管理
mkdir -p $mypath/$time/web
cd /etc/httpd/conf/
tar zcf $mypath/$time/conf/httpd.conf.tar.gz ./httpd.conf ///将Apache的配置文件打包压缩,取名为httpd.conf.tar.gz,放在$mypath/$time/conf目录下
ret=$?
if [ $ret -eq 0 ];then ///判断上面的打包压缩动作是否做成功了,如果做成功了,就追加写一条“成功”的记录,否则写一条“失败”的记录
echo "At $time tar htpd.conf.tar.gz successed" >> $mylog
else
echo "At $time tar httpd.conf.tar.gz failed" >> $mylog
fi
cd /var/www/
tar zcf $mypath/$time/web/html.tar.gz ./html ///将Apache的根目录下的各文件打包压缩,取名为html.tar.gz,放在$mypath/$time/web目录下,类似的还可以备份数据库db的
ret=$?
if [ $ret -eq 0 ];then ///判断上面的对Apache根目录打包压缩是否做成功了,如果做成功了就追加一条“成功”记录到$mylog,否则写一条“失败”记录
echo "At $time tar html.tar.gz successed" >> $mylog
else
echo "At $time tar html.tar.gz failed" >> $mylog
fi
脚本到这里完成,用bash bak_web1.sh执行以下,发现在/var/bak_web/下生成了新的内容,同时在/var/log/weblog.txt日志文件中会有新的记录。
将该脚本添加到crontab下,让其每隔一定时间自动执行一次。我这里设置的是每隔1分钟执行一次,脚本放在/root/目录下,脚本没执行一次,/var/bak_web/目录下以及/var/log/weblog.txt日志文件中都会有新的内容增加。
[root@localhost ~]# crontab -e
*/1 * * * * bash /root/bak_web1.sh
用tail -f /var/log/weblog.txt可以试试查看日志变化
结果表明此脚本可以按时健康有效的运行。
本文出自 “个人感受” 博客,谢绝转载!
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。