当前位置 主页 > 服务器问题 > nginx问题汇总 >

    nginx日志分割 for linux

    栏目:nginx问题汇总 时间:2018-11-22 16:00

    默认情况下,nginx是不分割访问日志的,久而久之,网站的日志文件将会越来越大,占用空间不说,如果有问题要查看网站的日志的话,庞大的文件也将很难打开,于是便有了下面的脚本

    使用方法,先将以下脚本保存为 cutlog.sh,放在/root 目录下,然后给予此脚本执行的权限

    复制代码 代码如下:
    chmod +x cutlog.sh

    然后使用crontab -e 将此脚本加入到计划任务中,

    复制代码 代码如下:
    00 00 * * * /bin/bash /root/cutlog.sh

    让此脚本每天凌晨0点0分执行。

    复制代码 代码如下:
    #!/bin/bash
    #function:cut nginx log files shell
    #设置您的网站访问日志保存的目录,我的统一放在了/home/wwwlogs目录下
    log_files_path="/home/wwwlogs/"
    log_files_dir=${log_files_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")
    #设置你想切割的nginx日志文件名称,比如设置的日志文件名是52listen.com.log 的话,那这里直接填写 52listen.com 即可
    log_files_name=(52listen.com access)
    #设置nginx执行文件的路径。
    nginx_sbin="/usr/local/nginx/sbin/nginx"
    #设置你想保存的日志天数,我这里设置的是保存30天之前的日志
    save_days=30
    ############################################
    #Please do not modify the following script #
    ############################################
    mkdir -p $log_files_dir
    log_files_num=${#log_files_name[@]}
    #cut nginx log files
    for((i=0;i<$log_files_num;i++));do
    mv ${log_files_path}${log_files_name[i]}.log ${log_files_dir}/${log_files_name[i]}_$(date -d "yesterday" +"%Y%m%d").log
    done
    #delete 30 days ago nginx log files
    find $log_files_path -mtime +$save_days -exec rm -rf {} \;
    $nginx_sbin -s reload