在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
当服务器压力比较大,跑起来很费力时候。我们经常做站点页面优化,会去查找那些页面访问次数比较多,而且比较费时。 找到那些访问次数高,并且比较耗时的地址,就行相关优化,会取得立竿见影的效果的。 下面是我在做优化时候,经常用到的一段shell 脚本。 这个也可以算是,统计web页面的slowpage 慢访问页面,象mysql slowquery 。 以下是我的:nginx 配制
复制代码 代码如下: log_format main '$remote_addr - $remote_user [$time_local] $request ' '"$status" $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for" $request_time'; access_log /var/log/nginx/access.log main buffer=32k; 从上面配置,可以看到:ip在 第一列,页面耗时是在最后一列,中间用空格分隔。 因此在awk 中,分别可以用:$1 下面是分析代码的shell文件,可以存为slow.sh 复制代码 代码如下: #!/bin/sh export PATH=/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin; function usage() function slowlog() [[ $2 == '1' ]] && field=1&&end=2&&msg="总访问次数统计"; echo -e "\r\n\r\n"; awk '{split($7,bbb,"?");arr[bbb[1]]=arr[bbb[1]]+$NF; arr2[bbb[1]]=arr2[bbb[1]]+1; } END{for ( i in arr ) { print i":"arr2[i]":"arr[i]":"arr[i]/arr2[i]}}' $1 | sort -t: +$field -$end -rn |grep "pages" |head -30 | sed 's/:/\t/g' [[ $# < 2 ]] && usage; slowlog $1 $2; 只需要执行:slow.sh 日志文件 1或者2 执行结果如下: chmod +x ./slow.sh chmod +x slow.sh
..................
|
请发表评论