时间:2021-05-22
实现方法一
#!/bin/bashLogs_path="/data/Application/nginx/logs"Pid_path="/data/Application/nginx/nginx.pid"Month=`date +%Y-%m`Date=`date +%Y-%m-%d`Time=`date +%H`WaitTime=$((24*60*60))LogCut(){ cd $Logs_path mkdir -p $Month while true do mv $Logs_path/access.log $Logs_path/$Month/access_$Date.log kill -USR1 `cat ${Pid_path}` done sleep $WaitTime return 0}case $1 instart) LogCut >/dev/null & ;;stop) kill -9 `ps aux | grep LogCut | grep -v grep | awk '{print $2}'`>/dev/null ;;restart) kill -9 `ps aux | grep LogCut | grep -v grep | awk '{print $2}'`>/dev/null LogCut >/dev/null & ;;*) echo "Usage ERROR!Please use "start" or "stop" or "restart"!"esac实现方法二
试验环境:
# cat /etc/redhat-release Red Hat Enterprise Linux Server release 5.3 (Tikanga)# /opt/nginx/nginx -vnginx version: nginx/1.6.2代码:
#!/bin/bash# ==============================================================================# chmod u+x /opt/nginx/cut_nginx_log.sh# crontab -e# 0 0 * * * /opt/nginx/cut_nginx_log.sh > /opt/nginx/logs/cut_nginx_log.log 2>&1# ==============================================================================LOGS_PATH="/opt/nginx/logs"ARCHIVE_YEAR=$(date -d "yesterday" "+%Y")ARCHIVE_MONTH=$(date -d "yesterday" "+%m")ARCHIVE_DATE=$(date -d "yesterday" "+%Y%m%d_%H%M%S")if [ -r /opt/nginx/nginx.pid ]; then mkdir -p "${LOGS_PATH}/${ARCHIVE_YEAR}/${ARCHIVE_MONTH}" mv "${LOGS_PATH}/access.log" "${LOGS_PATH}/${ARCHIVE_YEAR}/${ARCHIVE_MONTH}/access_${ARCHIVE_DATE}.log" kill -USR1 $(cat "/opt/nginx/nginx.pid") sleep 1 gzip "${LOGS_PATH}/${ARCHIVE_YEAR}/${ARCHIVE_MONTH}/access_${ARCHIVE_DATE}.log"else echo "Nginx might be down"fi# ==============================================================================# Clean up log files older than 100 days# ==============================================================================# Change HOUSEKEEPING=1 to enable clean upHOUSEKEEPING=0KEEP_DAYS=100if [ $HOUSEKEEPING == 1 ]; then if [ -d "${LOGS_PATH}" ]; then find "${LOGS_PATH}" -type f -name "access_*.log.gz" -mtime +${KEEP_DAYS} -exec rm -f {} \; fifi参考:
http://wiki.nginx.org/LogRotation
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例讲述了python实现的分析并统计nginx日志数据功能。分享给大家供大家参考,具体如下:利用python脚本分析nginx日志内容,默认统计ip、访问
Linux下nginx生成日志自动切割的实现方法1、编辑切割日志的shell程序,目录自定#vi/data/nginx/cut_nginx_log.sh输入代码
一、脚本思路第一步就是重命名日志文件,不用担心重命名后nginx找不到日志文件而丢失日志。在你未重新打开原名字的日志文件前,nginx还是会向你重命名的文件写日
通过TimedRotatingFileHandler按时间切割日志线上跑了一个定时脚本,每天生成的日志文件都写在了一个文件中。但是日志信息不可能输出到单一的一个
shell版Nginx日志蜘蛛爬取查看脚本用之前改一下nginx日志的路径即可如果更多的蜘蛛自己在代码蜘蛛UA数组里加即可#!/bin/bashm="$(dat