1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 |
前言 网上有很多用kill -URS1的方式来让nginx产生新的日志文件,也有很多人抱怨这种方式是否正确,在这里我要告诉大家,这种方式非常正确。我看了系统自带的logrotates来实现nginx的日志分割,查看其bash源码,发现也是发送USR1这个信号。 这里解释一下USR1这个用户自定义信号,经过和一淘我特别崇拜的一个牛人张洋确认后,发现ubuntu下大部分进程对这个信号的反应都是重新生成日志文件,并且不会对当前的进程产生任何其它的影响 思路 利用bash的数组和for简化日志备份代码 利用date函数做日志备份的后缀,达到按天分割的效果 利用USR1信号让nginx产生新的日志 bash脚本 www.2cto.com 我的服务器上需要备份的日志文件分布在不同的目录下,所以我的脚本做了适当的优化(仔细看代码,你会理解的) #!/bin/bash - #1.nginx日志存放路径 first_path="/var/log/nginx/first" path_array=($first_path) #2.日志标识前缀数组 first_prefix_sign="first" prefix_array=($first_prefix_sign) #3.日志成功错误标识后缀数组 bool_array=("access" "error") #4.nginx日志切割备份后缀 postfix=`date -d '+0 days' +%Y%m%d`".log" #5.备份当前的日志文件,重命名改为日期后缀 for path in ${path_array[*]} do for prefix in ${prefix_array[*]} do for bool in ${bool_array[*]} do file=$path/$prefix.$bool.log backfile=$path/$prefix.$bool.$postfix echo $file echo $backfile if [ -e $file ] then mv $file $backfile fi done done done #6.查找nginx进程号,让其产生新的日志文件 nginx_pid=`ps -aux |grep -E 'nginx: master process'|grep -v 'grep'|awk '{print $2}'` #USR1:Reopen log files,刷新nginx日志文件 kill -USR1 $nginx_pid 简单实现: [root@administrator sh]# vi nginx_access_log.sh #!/bin/bash log_path="/usr/local/nginx/logs/" mv ${log_path}access.log ${log_path}access_$(date -d "yesterday" +%Y%m%d).log nginx_pid=`ps aux |grep -E 'nginx: master process'|grep -v 'grep'|awk '{print $2}'` kill -USR1 $nginx_pid 然后在linux下的任务中添加每天执行一次的任务 命令:crontab -e 然后添加一句话 1 0 * * * sh /*/nginx_access_log.sh 执行保存即可 测试情况下可以直接执行 ./nginx_access_log.sh 如果每天要其自动执行的话需要先 service crond stop 然后再 service crond start 即可正常使用了 |