linux awk,sort,uniq,head 分析apache日志文件
sort 排序
- -n 以数值排序
- -u 去除重复行
- -r 降序
- -o 将结果输出到文件
- -t 设定间隔符
- -k 按第几列排序
uniq 忽略文件重复行
- -c 在旁边显示重复出现行数
- -d 仅显示重复出现的行列
- -u 仅显示一次的行列
- -w 指定要比较的字符
head
grep " 404 " access.log | cut -d ' ' -f 7 | sort | uniq -c | sort -nr
#404报错页面
awk '{print $9}' access.log | sort | uniq -c | sort
各个状态点击次数
cat access.log | awk '{ print $1 ; }' | sort | uniq -c | sort -n -r | head -n 10
前十个ip
cat access.log | awk ' { total[$9] += $10 } END { for (x in total) { printf "Status code %3d : %9.2f Kbn", x, total[x]/1024 } } '
各个状态的数据传输量 kb
cat access.log | awk '{ print $1 $7 }' | sort | uniq -c | sort -rn | head -n 25
查看访问最多的页面和ip
All posts
Other pages