网页爬虫
/* 网页爬虫 */ import java.io.*; import java.net.*; import java.util.regex.*; class RegexTest2 { public static void main(String[] args) throws Exception { getMails(); } public static void getMails() throws Exception { URL url = new URL("http://www.douban.com/group/topic/16778555/"); URLConnection conn = url.openConnection(); BufferedReader bufr = new BufferedReader(new InputStreamReader(conn.getInputStream())); String line = null; String mailReg = "\\w+@\\w+(\\.\\w+)+"; Pattern p = Pattern.compile(mailReg); while((line = bufr.readLine()) != null){ Matcher m = p.matcher(line); while(m.find()){ System.out.println(m.group()); } } } }
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。