linux awk,sort,uniq,head 分析apache日志文件

sort 排序

uniq 忽略文件重复行

head

grep " 404 " access.log | cut -d ' ' -f 7 | sort | uniq -c | sort -nr
#404报错页面

awk '{print $9}' access.log | sort | uniq -c | sort
各个状态点击次数

cat access.log | awk '{ print $1 ; }' | sort | uniq -c | sort -n -r | head -n 10
前十个ip

cat access.log  | awk ' { total[$9] += $10 } END {  for (x in total) { printf "Status code %3d : %9.2f Kbn", x, total[x]/1024 } } '
各个状态的数据传输量 kb

cat access.log | awk '{ print $1 $7 }' | sort | uniq -c | sort -rn | head -n 25
查看访问最多的页面和ip

All posts

Other pages

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注