• 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    公众号

拓端tecdat|r语言代写电商网站爬虫

原作者: [db:作者] 来自: [db:来源] 收藏 邀请

由于电商网站的数据的实时性要求,数据分析时一般直接从网页爬取。因此使用爬虫的方法显得十分重要。R作为数据分析的软件,可以直接对爬取的数据进行后续处理,加上上手快的特点,是电商网站数据爬取和分析的好工具。

下面以?http://cn.shopbop.com/为例 简单分享下使用Rcurl对网站进行数据爬取的过程。

 

首先需要在Rgui里安装需要的软件包

require("RCurl")

require("rjson")

require(stringr)

require(XML)

#得到网页地址,并将其转换成html源码

url = "http://cn.shopbop.com/"

doc = getURL(url) 

txt = htmlParse(doc, asText = TRUE)

print(txt)

#由于获取网页中商品数据需要对html源码结构进行分析,因此可以直接在浏览器中查看后,再到R中进行编辑

 

 

在源码中很容易找到网站导航中子网站的网址

 

#因此可以通过xmlPath语言找到相应子网站的节点

a <- getNodeSet(txt, path = "//a[@class = \'parent topnav-logged-in \']")#找到子网页的xml路径?

 

 

如果得到的中文有乱码,则需要对编码进行转换

b <- sapply(a,xmlValue)

c <- iconv(b,"utf-8","gbk")

c

否则 可以通过xmlGetAttr函数 得到所需的attributes

?d <- sapply(a,xmlGetAttr , "href")#获取子网页

 

??由于得到的只是子网页的路径,要获取子网页的数据 需要用paste链接网站根目录地址

d1=paste(url,d[1],sep="" )
?#对于批量爬取商品的信息还需要获取商品展示子网页的页数

?每页显示40个商品,一共有1200个商品。 

???通过网址,我们很容易了解商品展示页的地址规则。

#因此,可以通过一个简单的循环来获取所有网页的地址,从而获取每个网页的所有商品信息。???

a <- getNodeSet(txt, path = "//span[@class = \'page-number\']")#找到子网页的xml路径?(部分代码省略)

d <- sapply(a,xmlGetAttr , "data-number-link")#获取子网页中的目录

pagenum=strsplit(d,"=")

maxpagenum=0;

for(i in 1:length(pagenum)){

  maxpagenum[i]= pagenum[[i]][3]

  

  

}

maxpagenum=max(as.numeric(maxpagenum))

#[1] 1200

 

#在获得所有网页后,获取所有商品的信息就变得简单了,只要循环对每个网页的信息进行xml关键字的爬取

#名称信息?

 

?图片信息

?价格信息

?通过文本处理和输出,就可以将其进行保存和后续的数据分析。

  

 

如果您有任何疑问,请在下面发表评论。

 

鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

专题导读
上一篇:
豆瓣电影R语言爬虫和数据分析.发布时间:2022-07-18
下一篇:
叶梓老师开讲人工智能入门-R语言数据分析与数据挖掘27发布时间:2022-07-18
热门推荐
热门话题
阅读排行榜

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

139-2527-9053

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:深圳市南山区西丽大学城创智工业园
电邮:jeky_zhao#qq.com
移动电话:139-2527-9053

Powered by 互联科技 X3.4© 2001-2213 极客世界.|Sitemap