如何暂停scrapyd的爬虫(scrapy_redis)?
来源:16-1 scrapyd部署scrapy项目
慕丝8011162
2018-03-01
请问通过使用scrapy_redis的爬虫部署到scrapyd上,如何设置像在本地一样,让爬虫暂停及恢复呢?因为是保存在redis上的,所以设置JOBDIR是不行的。
写回答
1回答
-
bobby
2018-03-05
scrapy_redis没有暂停这个功能 你需要修改源码去实现,比如向redis中放入一个指定的数据 读到这个数据就暂停一段时间
00
相似问题