正则表达式:网页爬虫

这是对正则表达式的一个小应用,爬取指定网页的指定内容。这里用的是一个博客网页,抓取邮箱到集合里。

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.URL;
import java.util.ArrayList;
import java.util.List;
import java.util.regex.Matcher;
import java.util.regex.Pattern;

public class RegexDemo2 {

    /**
     * @param args
     * @throws IOException
     */

    /*
     * 网页爬虫:其实就一个程序用于在互联网中获取符合指定规则的数据。 爬取邮箱地址。
     */
    public static void main(String[] args) throws IOException {
        List<String> list = getMailsByWeb();
        for (String mail : list) {
            System.out.println(mail);
        }
    }

    public static List<String> getMailsByWeb() throws IOException {

        URL url = new URL("http://blog.sina.com.cn/s/blog_515617e60101e151.html");
        BufferedReader bufIn = new BufferedReader(new InputStreamReader(
                url.openStream()));
        // 对读取的数据进行规则的匹配。从中获取符合规则的数据.
        String mail_regex = "\\w+@\\w+(\\.\\w+)+";

        List<String> list = new ArrayList<String>();
        Pattern p = Pattern.compile(mail_regex);

        String line = null;

        while ((line = bufIn.readLine()) != null) {

            Matcher m = p.matcher(line);
            while (m.find()) {
                // 3,将符合规则的数据存储到集合中。
                list.add(m.group());
            }

        }

        return list;
    }

}

正则表达式:网页爬虫,古老的榕树,5-wow.com

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。