SCRAPY-REDIS做了分布式爬虫爬虫的调度问题
来源:9-6 scrapy的暂停与重启
丶一夕夏
2017-06-02
爬虫在继承分布式之后,还能用SCRAPY的重启和暂停这些功能吗?
写回答
1回答
-
bobby
2017-06-04
没有必要用scrapy 重启和暂停了, 因为所有的中间状态都保存在redis中了, 爬虫可以一直启动着不需要重启, 定时向redis中push url就行了
00
相似问题
SCRAPY-REDIS做了分布式爬虫爬虫的调度问题
来源:9-6 scrapy的暂停与重启
丶一夕夏
2017-06-02
爬虫在继承分布式之后,还能用SCRAPY的重启和暂停这些功能吗?
1回答
bobby
2017-06-04
没有必要用scrapy 重启和暂停了, 因为所有的中间状态都保存在redis中了, 爬虫可以一直启动着不需要重启, 定时向redis中push url就行了
相似问题