python使用正则表达式编写网页小爬虫

"""

文本处理是当下计算机处理的主要任务,从文本中找到某些有用的信息,

挖掘出某些信息是现在计算机程序大部分所做的工作。而python这中轻量型、小巧的语言包含了很多处理的函数库,

这些库的跨平台性能很好,可移植性能很强。

在Python中re模块提供了很多高级文本模式匹配的功能,以及相应的搜索替换对应字符串的功能。

"""


"""

正则表达式符号和特殊字符

re1|re2 -----> 匹配正则表达式的re1或者re2

. -----> 可以匹配任何字符,但是除了换行符之外

^ -----> 匹配字符创的开始 ^Dear

$ -----> 匹配字符串的结尾 /bin/*sh$

* -----> 匹配前面出现的正则表达式零次或者多次 [A-Za-z0-9]*

+ -----> 匹配前面出现的正则表达式一次或者多次 [A-Za-z0-9]+ [a-z]+\.com

? -----> 匹配前面出现的正则表达式零次或者一次 goo?

{N} -----> 匹配前面出现的正则表达式N次 [0-9]{N}

{M,N} -----> 匹配重复出现M次到N次的正则表达式 [0-9]{3,5}

[...] -----> 匹配字符组中出现的任意一个字符 [aeiou]

[...x-y...]-----> 匹配从字符x到y中的任意一个字符 [0-9],[A-Za-z]

[^...] -----> 不匹配此字符集中出现的任何一个字符,包括某个范围的字符 [^A-Za-z0-9_]

(*|+|?|{})? -----> 用于上面出现的任何"非贪婪版本"重复匹配的次数符号 .*?[a-z]

(...) -----> 匹配封闭括号中正则表达式(RE),并保存为字数组 ([0-9]{3})?,f(oo|u)bar

"""


import re
p=re.compile('ab*');
print p;
r1=r'\d{3,4}-?\d{8}';
print re.findall(r1,'010-12345678');
print re.findall(r1,'010-00000000');
r2=re.compile(r'[Cc][Ss][Vv][Tt]');
r3=re.compile(r'csvt',re.I);
print r3.findall('cSvT');
test_r=r'(abc/[0-9]{8,8}$)';
print re.findall(test_r,'abc/12345678');

"""

使用正则表达式进行一个网页爬虫

"""


headers={
    'Connection': 'Keep-Alive',
    'Accept': 'text/html, application/xhtml+xml, */*',
    'Accept-Language': 'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3',
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko'
};

import urllib2

url='http://blog.csdn.net/berguiliu';

req=urllib2.Request(url);
req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko');
Browser=urllib2.urlopen(req);
data = Browser.read();

re_blog_list=re.compile(r'href="(/berguiliu/article/details/[0-9]{8,8})">');
url_list=re.findall(re_blog_list,data);

import cookielib

def makeMyOpener(head):
    cj=cookielib.CookieJar();
    opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj));    
    header=[]
    for key, value in head.items():
        elem=(key, value)
        header.append(elem)
    opener.addheaders=header;
    return opener
  
oper = makeMyOpener(headers);
uop = oper.open('http://www.baidu.com/', timeout = 1000);
data = uop.read();
print data;

import time;
for subUrl in url_list:
    new_Url='http://blog.csdn.net'+subUrl;
    print new_Url;
    oper = makeMyOpener(headers);
    uop = oper.open(new_Url, timeout = 1000);
    data = uop.read();
    time.sleep(3)

这个程序主要是通过抓取网页,分析一下网页信息,找到自己感兴趣的部分, 就可以找到其对应的信息,进行相应的操作!



郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。