shell脚本分析 nginx日志访问次数最多及最耗时的页面(慢查询)

本站所有内容来自互联网收集,仅供学习和交流,请勿用于商业用途。如有侵权、不妥之处,请第一时间联系我们删除!Q群:迪思分享

免费资源网 – https://freexyz.cn/

当服务器压力比较大,跑起来很费力时候。我们经常做站点页面优化,会去查找那些页面访问次数比较多,而且比较费时。 找到那些访问次数高,并且比较耗时的地址,就行相关优化,会取得立竿见影的效果的。 下面是我在做优化时候,经常用到的一段shell 脚本。 这个也可以算是,统计web页面的slowpage 慢访问页面,象mysql slowquery 。

以下是我的:nginx 配制

 复制代码

代码如下:

 log_format  main  $remote_addr – $remote_user [$time_local] $request

“$status” $body_bytes_sent “$http_referer”

                      “$http_user_agent” “$http_x_forwarded_for” $request_time;

access_log  /var/log/nginx/access.log  main buffer=32k;

 

从上面配置,可以看到:ip在 第一列,页面耗时是在最后一列,中间用空格分隔。 因此在awk 中,分别可以用:$1

$NF 读取到当前值。 其中NF是常量,代表整个列数。

下面是分析代码的shell文件,可以存为slow.sh 

复制代码

代码如下:

#!/bin/sh

export PATH=/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin;

export LANG=zh_CN.GB2312;

function usage()

{

   echo “$0 filelog  options”;

exit 1;

}

function slowlog()

{

#set -x;

field=$2;

files=$1;

end=2;

msg=””;

[[ $2 == 1 ]] && field=1&&end=2&&msg=”总访问次数统计”;

[[ $2 == 2 ]] && field=3&&end=4&&msg=”平均访问时间统计”;

echo -e “rnrn”;

echo -n “$msg”;

seq -s # 30 | sed -e s/[0-9]*//g;

awk {split($7,bbb,”?”);arr[bbb[1]]=arr[bbb[1]]+$NF; arr2[bbb[1]]=arr2[bbb[1]]+1; } END{for ( i in arr ) { print i”:”arr2[i]”:”arr[i]”:”arr[i]/arr2[i]}} $1 | sort  -t: +$field -$end -rn |grep “pages” |head -30 | sed s/:/t/g

}

[[ $# < 2 ]] && usage;

slowlog $1 $2;

只需要执行:slow.sh 日志文件  1或者2

1:三十条访问最平凡的页面

2:三十条访问最耗时的页面

执行结果如下:

chmod +x ./slow.sh

chmod +x slow.sh

./slow.sh /var/log/nginx/

./slow.sh /var/log/nginx/access.log 2

平均访问时间统计#############################

/pages/########1.php        4       120.456 30.114

/pages/########2.php 1       16.161  16.161

/pages/########3.php 212     1122.49 5.29475

/pages/########4.php     6       28.645  4.77417

………………

希望以上脚本对大家会有一定帮助。

免费资源网 – https://freexyz.cn/


© 版权声明
THE END
★喜欢这篇文章吗?喜欢的话,麻烦动动手指支持一下!★
点赞14 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容