urllib.urlretrieve远程下载

下面我们再来看看 urllib 模块提供的 urlretrieve() 函数。urlretrieve() 方法直接将远程数据下载到本地。

>>> help(urllib.urlretrieve)
Help on function urlretrieve in module urllib:

urlretrieve(url, filename=None, reporthook=None, data=None)
  • 参数 finename 指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)
  • 参数 reporthook 是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。
  • 参数 data 指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。

下面通过例子来演示一下这个方法的使用,这个例子将 google 的 html 抓取到本地,保存在 D:/google.html 文件中,同时显示下载的进度。

 

 1 import urllib
 2 def cbk(a, b, c):  
 3     ‘‘‘回调函数 
 4     @a: 已经下载的数据块 
 5     @b: 数据块的大小 
 6     @c: 远程文件的大小 
 7     ‘‘‘  
 8     per = 100.0 * a * b / c  
 9     if per > 100:  
10         per = 100  
11     print %.2f%% % per
12   
13 url = http://www.google.com
14 local = d://google.html
15 urllib.urlretrieve(url, local, cbk)

下面是 urlretrieve() 下载文件实例,可以显示下载进度。

 1 #!/usr/bin/python
 2 #encoding:utf-8
 3 import urllib
 4 import os
 5 def Schedule(a,b,c):
 6     ‘‘‘‘‘
 7     a:已经下载的数据块
 8     b:数据块的大小
 9     c:远程文件的大小
10    ‘‘‘
11     per = 100.0 * a * b / c
12     if per > 100 :
13         per = 100
14     print %.2f%% % per
15 url = http://www.python.org/ftp/python/2.7.5/Python-2.7.5.tar.bz2
16 #local = url.split(‘/‘)[-1]
17 local = os.path.join(/data/software,Python-2.7.5.tar.bz2)
18 urllib.urlretrieve(url,local,Schedule)
19 ######output######
20 #0.00%
21 #0.07%
22 #0.13%
23 #0.20%
24 #....
25 #99.94%
26 #100.00%

  通过上面的练习可以知道,urlopen() 可以轻松获取远端 html 页面信息,然后通过 python 正则对所需要的数据进行分析,匹配出想要用的数据,在利用urlretrieve() 将数据下载到本地。对于访问受限或者对连接数有限制的远程 url 地址可以采用 proxies(代理的方式)连接,如果远程数据量过大,单线程下载太慢的话可以采用多线程下载,这个就是传说中的爬虫。

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。