首页 > 其他 > 详细

crawlscrapy简单使用方法

时间:2019-09-30 18:57:56      阅读:87      评论:0      收藏:0      [点我收藏+]

crawlscrapy简单使用方法

1.创建项目:
scrapy startproject 项目名
例如:
scrapy startproject wxapp

windows下,cmd进入项目路径例如
d:\pythonCode\spiderProject>scrapy startproject wxapp
将创建项目名为 wxapp

2.使用命令创建一个爬虫:
scrapy genspider 爬虫名称 需要爬取的网址
scrapy genspider -t crawl wxapp_spider "wxapp-union.com"

注意:爬虫名称不能和项目名相同
进入项目目录
d:\pythonCode\spiderProject>cd wxapp
创建爬虫
d:\pythonCode\spiderProject\wxapp>scrapy genspider -t crawl wxapp_spider "wxapp-union.com"

命令执行后将在d:\pythonCode\spiderProject\wxapp\wxapp\spiders\下,生成wxapp_spider.py


3.修改wxapp_spider.py文件

crawlscrapy简单使用方法

原文:https://www.cnblogs.com/WebLinuxStudy/p/11613788.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!