R语言网络爬虫学习 基于rvest包
R语言网络爬虫学习 基于rvest包
龙君蛋君;2015年3月26日
1.背景介绍:
前几天看到有人写了一篇用R爬虫的文章,感兴趣,于是自己学习了。好吧,其实我和那篇文章R语言爬虫初尝试-基于RVEST包学习 的主人认识~
2.知识引用与学习:
3.rvest + CSS Selector 网页数据抓取的最佳选择
3.正文:
第一个爬虫是爬取了戴申大牛在科学网博客的一些基本信息,戴申大牛看到这篇文章不要打我啊~我只是爬取了博文的几个字段,求饶恕~
library(rvest) library(sqldf) library(gsubfn) library(proto) #creat a function extrafun <- function(i,non_pn_url){ url <- paste0(non_pn_url,i) web <- html(url) papername<- web %>% html_nodes("dl.bbda dt.xs2 a") %>% html_text()%>% .[c(seq(2,20,2))] %>% as.character() paperlink<-gsub("\\?source\\=search","",web %>% html_nodes("dl.bbda dt.xs2 a") %>% html_attr("href"))%>% .[c(seq(2,20,2))] paperlink <- paste0("http://blog.sciencenet.cn/",paperlink) %>% as.character() posttime <- web %>% html_nodes("dl.bbda dd span.xg1") %>% html_text() %>% as.Date()#这里取每篇文章的发布时间 count_of_read <- web %>% html_nodes("dl.bbda dd.xg1 a") %>% html_text() count_of_read <- as.data.frame(count_of_read) count_of_read <- sqldf("select * from count_of_read where count_of_read like ‘%次阅读‘") data.frame(papername,posttime,count_of_read,paperlink) } #crawl data final <- data.frame() url <- ‘http://blog.sciencenet.cn/home.php?mod=space&uid=556556&do=blog&view=me&page=‘ for(i in 1:40){ extrafun(i,url) final <- rbind(final,extrafun(i,url)) } > dim(final) [1] 400 4 > head(final) papername 1 此均值非彼均值 2 [转载]孔丘、孔子、孔老二,它究竟是一只什么鸟? 3 大数据分析之——k-means聚类中的坑 4 大数据分析之——足彩数据趴取 5 [转载]老王这次要摊事了,当年他主管的部门是事被重新抖出来。 6 [转载]党卫军是这样抓人的。 posttime count_of_read 1 2015-03-08 216 次阅读 2 2015-02-10 190 次阅读 3 2015-01-18 380 次阅读 4 2015-01-10 437 次阅读 5 2015-01-05 480 次阅读 6 2015-01-05 398 次阅读 paperlink 1 http://blog.sciencenet.cn/blog-556556-872813.html 2 http://blog.sciencenet.cn/blog-556556-866932.html 3 http://blog.sciencenet.cn/blog-556556-860647.html 4 http://blog.sciencenet.cn/blog-556556-858171.html 5 http://blog.sciencenet.cn/blog-556556-856705.html 6 http://blog.sciencenet.cn/blog-556556-856640.html
抓取的数据不能直接用作分析,于是导出到Excel,对数据做了一些处理,然后绘制了一张图。
write.table(final,"final.csv",fileEncoding="GB2312") #抓取的数据需要在Excel进一步加工,加工后读取进来,进一步做分析 a <- read.table("dai_shen_blog_0326.csv",header=TRUE,sep=";",fileEncoding="GB2312")#Mac OS 环境下,要sep=";" a$posttime <- as.Date(a$posttime) a$paperlink <- as.character(a$paperlink) a$papername <- as.character(a$papername) a$count_of_read_NO. <- as.numeric(a$count_of_read_NO.) library(ggplot2) qplot(posttime,count_of_read_NO.,data=a,geom="point",colour=repost,size=6)
这张图说明了什么呢??
a).戴大牛在2012年上半年没写文章也没有转载文章(不知道发生了什么,难道是忘记博客登录密码了,哈哈~有可能),但下半年原创文章数量是最多的,数量占life time约1/3;
b).在2013年一整年,文章数量上半年明显多余下半年,全年文章总数量占life time约2/5,且原创和转载各半;
c).在2014年中,上半年文章数量明显少于下半年,转载和原创各半。
第二个爬虫是爬取了NBA2014-2015常规赛技术统计排行 - 得分榜
#Crawl NBA player statistics from sina #web http://nba.sports.sina.com.cn/playerstats.php?s=0&e=49&key=1&t=1 library(rvest) library(stringr) library(sqldf) rm(NBAdata) start <- seq(0,250,50) end <- seq(49,299,50) getdata <- function(i){ url <- paste0(‘http://nba.sports.sina.com.cn/playerstats.php?s=‘,start[i],‘&e=‘,end[i],‘&key=1&t=1‘) rank <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(1)") %>% html_text()%>%.[-1]%>%as.numeric() player <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(2)") %>% html_text()%>%.[-1]%>%str_sub(9,100)%>%as.character() team <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(3)") %>% html_text()%>%.[-1]%>%str_sub(9,100)%>%as.character() avg_score <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(4)") %>% html_text()%>%.[-1] total_score <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(5)") %>% html_text()%>%.[-1] total_shoot <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(6)") %>% html_text()%>%.[-1] three_point <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(7)") %>% html_text()%>%.[-1] punish_point <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(8)") %>% html_text()%>%.[-1] avg_time <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(9)") %>% html_text()%>%.[-1] total_involve <- url %>% html_session() %>% html_nodes("table") %>% .[[2]] %>% html_nodes("td:nth-child(10)") %>% html_text()%>%.[-1] data.frame(rank,player,team,avg_score,total_score,total_shoot,three_point,punish_point,avg_time,total_involve) } NBAdata <- data.frame() for(i in 1:6){ NBAdata <- rbind(NBAdata,getdata(i)) } NBAdata <- sqldf("select distinct * from NBAdata") write.table(NBAdata,"NBAdata.csv",sep=",",fileEncoding="GB2312")
> head(NBAdata) rank player team avg_score total_score 1 1 拉塞尔-威斯布鲁克 雷霆 27.3 1556 2 2 詹姆斯-哈登 火箭 27.1 1900 3 3 勒布朗-詹姆斯 骑士 25.8 1600 4 4 安东尼-戴维斯 鹈鹕 24.6 1403 5 5 德马库斯-考辛斯 国王 23.8 1308 6 6 斯蒂芬-库里 勇士 23.4 1618 total_shoot three_point punish_point avg_time 1 42.7% 30.1% 84.6% 33.8 2 44% 36.8% 86.6% 36.8 3 49.2% 35.4% 71.9% 36.2 4 54.5% 10% 81.4% 36.2 5 46.5% 28.6% 80.2% 33.7 6 47.9% 42.2% 91.4% 32.9 total_involve 1 57 2 70 3 62 4 57 5 55 6 69
发现NBA2014-2015常规赛技术统计排行 - 得分榜 有两个错误。
a).排名第50的NBA球星缺失。
b).数据有大量重复,初次爬取,有510条记录,最后发现原来这个数据统计本身就有很多重复,于是用SQL去重,得到270条记录。
4.总结:
a).SelectorGadget 真的很好用,但是貌似这个插件要FQ才能安装成功。SelectorGadget结合Google Chrome 使用,查找html_nodes 非常方便。
b).下次爬,要学尾巴同学,爬一些招聘网站的数据,给自己以后找工作做个参考嘛。
以上。
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。