请选择 进入手机版 | 继续访问电脑版
  • 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    公众号

car_forum: spider for ask.bitauto.com

原作者: [db:作者] 来自: 网络 收藏 邀请

开源软件名称:

car_forum

开源软件地址:

https://gitee.com/albert_chen/car_forum

开源软件介绍:

##car_forum本爬虫爬去 易车网的信息。

数据库使用, 请查看

https://github.com/scalingexcellence/scrapybook/tree/master/ch09/properties

配置数据库

在setting.py 中, 找到 MYSQL_PIPELINE_URL 参数填入自己的数据库

MYSQL_PIPELINE_URL='mysql://root:123456@127.0.0.1:3306/cars'

###创建表格

CREATE TABLE `bitauto` (  `id` int(11) unsigned NOT NULL AUTO_INCREMENT,  `url` varchar(255) DEFAULT NULL,  `datetime` datetime DEFAULT NULL,  `brand` varchar(255) DEFAULT NULL,  `car_type` varchar(255) DEFAULT NULL,  `type` varchar(255) DEFAULT NULL,  `sub_type` varchar(255) DEFAULT NULL,  `title` varchar(255) DEFAULT NULL,  `question` text,  `question_img` varchar(20) DEFAULT NULL,  `replay` text,  `replay_img` varchar(20) DEFAULT NULL,  `replay_to` varchar(255) DEFAULT NULL,  PRIMARY KEY (`id`),  KEY `url` (`url`)) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;

##运行爬虫

安装必要的工具

本爬虫是基于scrapy 框架进行书写使用mysql 进行数据存储, 所以需要安装scrapy 和 mysql-connector-python

$ pip install scrapy$ pip install mysql-connector-python

如何使用

切换当前路径进入car_forum ,然后运行下面这个命令产生 csv

$ scrapy crawl bitauto -o out.csv

生成mqsql

$ scrapy crawl bitauto -o 

鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

专题导读
热门推荐
热门话题
阅读排行榜

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

139-2527-9053

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:深圳市南山区西丽大学城创智工业园
电邮:jeky_zhao#qq.com
移动电话:139-2527-9053

Powered by 互联科技 X3.4© 2001-2213 极客世界.|Sitemap