日志处理中一些shell命令技巧
日志处理中一些shell命令技巧
阴差阳错的做的日志分析,前途未卜的这段日子,唯一还有点意思的可能就是手动的处理大量日志。总结一下。
日志文件的输入是动则几个G的文本。从N个这样的文件中得到一个列表,一个数字,一个比例。在什么工具都没有情况下,用shell命令不仅是验证系统数据的准确性的方法,也是一个很好的学习过程。
使用cut命令切割日志行
下面的一行典型的apache访问日志:
120.51.133.125 - - [26/Apr/2013:12:20:06 +0800] "GET /skins/skin_homepage.php?display=wvga&lang=ja_JP&pixel=720X1280&density=2.0&version=5.7&key=5146f54950f09f71750005ef&uid=1 HTTP/1.1" 200 4847 "http://t.co/rww3WDuhS5" "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; YTB730)" 0
如果需要得到IP地址可以使用cut
命令
cat log | cut -d ‘ ‘ -f1
-d ‘ ‘
表示按照空格将行切开,-f1
取第一个字段,这样得到的结果就是IP列表
有时候拿到的文件是\t
分隔,也可以使用cut切开,只不过需要多写一个$
[l]$ cat log | cut -d ‘\t‘ -f1 cut: the delimiter must be a single character #-d ‘\t‘会报错的 cut -f2 -d$‘\t‘ infile #work
使用tr命令去掉字符,替换字符
-c:complement,用SET2替换SET1中没有包含的字符
-d:delete,删除SET1中所有的字符,不转换
-s: squeeze-repeats,压缩SET1中重复的字符
-t: truncate-set1,将SET1用SET2转换,一般缺省为-t
如果拿到分割的文件
cat log | tr -s ‘ ‘ ‘,‘
zzx@zzx103:~/dhcptest$ echo "aaacccddd ss " | tr -s [a-c] # -s
acddd ss
zzx@zzx103:~/dhcptest$ echo "aaacccddd ss " | tr -s " " "," #d和s之间有2个空格,替换后压缩重复
aaacccddd,ss,
zzx@zzx103:~/dhcptest$ echo "aaacccddd ss " | tr -t " " ","
aaacccddd,,ss,
zzx@zzx103:~/dhcptest$ echo "aaacccddd ss " | tr -s "a" "b" #替换后压缩重复
bcccddd ss
将空格替换成,文件变成csv
cat log | tr -d ‘ ‘
上面的命令直接删除空格
日志处理后经常会出现空行,tr命令去掉空行的原理就是将连续两个换行替换成一个换行
cat log | tr -s ‘\n\n‘ ‘\n‘
使用uniq命令去重
试想得到IP列表,欲得到独立访问的IP列表。
[l]$ cat log | cut -d ‘ ‘ -f1 | uniq -u
如果不仅仅是去重,还想统计每个IP访问次数,可以加一个参数c
[l]$ cat log | cut -d ‘ ‘ -f1 | uniq -uc
得到的格式形如:
1 126.193.38.128 5 49.98.156.154
前面的数字就是出现的次数
使用awk/seed来处理日志
awk/seed是处理日志的最终的万金油。确实是什么都可以做。awk/seed是一门很大的学问。这里取我碰到的一个日志,日志格式形如:
display=wvga|||lang=ja_JP|||isActive=1|||pixel=720X1280|||density=2.0|||version=5.7|||key=5146f54950f09f71750005ef|||out=abc‘3|||uid=1
如果我需要得到isActive=1的日志行,取到out=中‘前一段,如上面的abc。
cat l | grep "isActive=1|" | awk ‘match($0,/out=[^\x27]+/){print substr($0,RSTART+4,RLENGTH-4)}‘
grep的功能是筛选isActive=1
的行。awk 后面跟‘‘的是awk语言。$0
总是代表当前匹配的字段值,match substr是awk可以用的函数,当match时后面{}中的代码才会执行。当match,$0就是正则匹配的部分。RSTART,RLENGTH是awk可以使用的常量,分别表示开始匹配的开始下标,RLENGTH是匹配的长度。
在‘‘中需要再使用‘光转义是不行的,得用16进制的代码\x27。转16进制可以使用python代码 "‘".encode("hex")
得到
//惊讶awk就这么简单的解释了,可这连入门都算不上。
集合操作
试想我想得到两个列表的交际,并集,差集,统计中经常会碰到,比如我想获得昨天今天都在访问的IP,其实就是今天的IP列表和昨天IP列表的交集。
先定义两个简单的文件:
[ l]$ cat a.txt 1 2 3 4 5 [ l]$ cat b.txt 4 5 6 7 8 9
如果想得到ab的交集4 5 ,可以使用下面的命令:
sort -m a.txt b.txt | uniq -d 4 5
如果要得到并集1-9,可以:
sort -m a.txt b.txt | uniq 1 2 3 4 5 6 7 8 9
如果想得到ab的差集,即a去掉ab的交集1 2 3
comm -23 a.txt b.txt 1 2 3
同理:ba的差集:
comm -13 a.txt b.txt comm -23 b.txt a.txt
上述两个命令等价
comm命令就是compare功能,如果什么参数都不带呢得到的什么呢?
comm a.txt b.txt 1 2 3 4 5 6 7 8 9
diff命令以前经常看代码改了哪些:
diff a.txt b.txt 1,3d0 < 1 < 2 < 3 5a3,6 > 6 > 7 > 8 > 9
总结&&参考资料
窃以为能玩转上面这些命令,处理个日志问题不大了。
一篇介绍shell中集合操作的博文:
http://wordaligned.org/articles/shell-script-sets
一直放在收藏夹的shell方面的博客:
Linux Shell高级技巧 awk部分写的独好
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。