php远程抓取网站图片并保存

 以前看到网上别人说写程序抓取网页图片的,感觉挺神奇,心想什么时候我自己也写一个抓取图片的方法!

刚好这两天没什么事,就参考了网上一个php抓取图片代码,重点借鉴了 匹配img标签和其src属性正则的写法,
封装了一个php远程抓取图片的类,测试了一下,速度还凑合, 两分钟从 开源中国 抓取了 110多张图片

代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
<?php
 
/**
 * 一个用于抓取图片的类
 *
 * @package default
 * @author  WuJunwei
 */
class download_image
{
     
    public $save_path;                  //抓取图片的保存地址
 
    //抓取图片的大小限制(单位:字节) 只抓比size比这个限制大的图片
    public $img_size=0;
 
    //定义一个静态数组,用于记录曾经抓取过的的超链接地址,避免重复抓取      
    public static $a_url_arr=array();  
     
    /**
     * @param String $save_path    抓取图片的保存地址
     * @param Int    $img_size     抓取图片的保存地址
     */
    public function __construct($save_path,$img_size)
    {
        $this->save_path=$save_path;
        $this->img_size=$img_size;
    }
     
     
    /**
     * 递归下载抓取首页及其子页面图片的方法  ( recursive 递归)
     *
     * @param   String  $capture_url  用于抓取图片的网址
     *
     */
    public function recursive_download_images($capture_url)
    {
        if (!in_array($capture_url,self::$a_url_arr))   //没抓取过
        {                        
            self::$a_url_arr[]=$capture_url;   //计入静态数组
        } else   //抓取过,直接退出函数
        {
            return;
        }       
         
        $this->download_current_page_images($capture_url);  //下载当前页面的所有图片
         
        //用@屏蔽掉因为抓取地址无法读取导致的warning错误
        $content=@file_get_contents($capture_url);
         
        //匹配a标签href属性中?之前部分的正则
        $a_pattern = "|<a[^>]+href=[‘\" ]?([^ ‘\"?]+)[‘\" >]|U";  
        preg_match_all($a_pattern, $content, $a_out, PREG_SET_ORDER);
         
        $tmp_arr=array();  //定义一个数组,用于存放当前循环下抓取图片的超链接地址
        foreach ($a_out as $k => $v)
        {
            /**
             * 去除超链接中的 空‘‘,‘#‘,‘/‘和重复值 
             * 1: 超链接地址的值 不能等于当前抓取页面的url, 否则会陷入死循环
             * 2: 超链接为‘‘或‘#‘,‘/‘也是本页面,这样也会陷入死循环, 
             * 3: 有时一个超连接地址在一个网页中会重复出现多次,如果不去除,会对一个子页面进行重复下载)
             */
            if ( $v[1] && !in_array($v[1],self::$a_url_arr) &&!in_array($v[1],array(‘#‘,‘/‘,$capture_url) ) )
            {
                $tmp_arr[]=$v[1];
            }
        }
   
        foreach ($tmp_arr as $k => $v)
        {           
            //超链接路径地址
            if ( strpos($v, http://)!==false ) //如果url包含http://,可以直接访问
            {
                $a_url = $v;
            }else   //否则证明是相对地址, 需要重新拼凑超链接的访问地址
            {
                $domain_url = substr($capture_url, 0,strpos($capture_url, ‘/‘,8)+1);
                $a_url=$domain_url.$v;
            }
 
            $this->recursive_download_images($a_url);
 
        }
         
    
     
       
    /**
     * 下载当前网页下的所有图片
     *
     * @param   String  $capture_url  用于抓取图片的网页地址
     * @return  Array   当前网页上所有图片img标签url地址的一个数组
     */
    public function download_current_page_images($capture_url)
    {
        $content=@file_get_contents($capture_url);   //屏蔽warning错误
 
        //匹配img标签src属性中?之前部分的正则
        $img_pattern = "|<img[^>]+src=[‘\" ]?([^ ‘\"?]+)[‘\" >]|U";  
        preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER);
 
        $photo_num = count($img_out);
        //匹配到的图片数量
        echo ‘<h1>‘.$capture_url . "共找到 " . $photo_num . " 张图片</h1>";
        foreach ($img_out as $k => $v)
        {
            $this->save_one_img($capture_url,$v[1]);
        }
    }
 
 
    /**
     * 保存单个图片的方法
     *
     * @param String $capture_url   用于抓取图片的网页地址
     * @param String $img_url       需要保存的图片的url
     *
     */
    public function save_one_img($capture_url,$img_url)
    {       
        //图片路径地址
        if ( strpos($img_url, http://)!==false )
        {
            // $img_url = $img_url;
        }else  
        {
            $domain_url = substr($capture_url, 0,strpos($capture_url, ‘/‘,8)+1);
            $img_url=$domain_url.$img_url;
        }          
        $pathinfo = pathinfo($img_url);    //获取图片路径信息       
        $pic_name=$pathinfo[‘basename‘];   //获取图片的名字
        if (file_exists($this->save_path.$pic_name))  //如果图片存在,证明已经被抓取过,退出函数
        {
            echo $img_url . ‘<span style="color:red;margin-left:80px">该图片已经抓取过!</span><br/>‘;
            return;
        }               
        //将图片内容读入一个字符串
        $img_data = @file_get_contents($img_url);   //屏蔽掉因为图片地址无法读取导致的warning错误
        if ( strlen($img_data) > $this->img_size )   //下载size比限制大的图片
        {
            $img_size = file_put_contents($this->save_path . $pic_name, $img_data);
            if ($img_size)
            {
                echo $img_url . ‘<span style="color:green;margin-left:80px">图片保存成功!</span><br/>‘;
            } else
            {
                echo $img_url . ‘<span style="color:red;margin-left:80px">图片保存失败!</span><br/>‘;
            }
        } else
        {
            echo $img_url . ‘<span style="color:red;margin-left:80px">图片读取失败!</span><br/>‘;
        }
    }
} // END
 
set_time_limit(120);     //设置脚本的最大执行时间  根据情况设置
$download_img=new download_image(‘E:/images/‘,0);   //实例化下载图片对象
$download_img->recursive_download_images(http://www.oschina.net/);      //递归抓取图片方法
//$download_img->download_current_page_images($_POST[‘capture_url‘]);     //只抓取当前页面图片方法
 
?>

php远程抓取网站图片并保存,古老的榕树,5-wow.com

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。