scrapyd部署scrapy后无法关闭爬虫

来源:16-1 scrapyd部署scrapy项目

lixing_0001

2017-08-28

curl http://localhost:6800/cancel.json -d project=TaoBaoSpider -d job=xxx,老师您好,我通过scrapyd部署并运行了scrapy项目,但是通过以上命令却无法取消当前爬虫,scrapyd服务器后台仍显示正在爬去

写回答

1回答

bobby

2017-08-29

亲 你部署的是scrapy-redis的爬虫 还是直接就是scrapy的爬虫?

0
2
bobby
回复
lixing_0001
scrapy-redis不能停止,因为scrapy-redis是从redis队列中不停的读取数据, 没有处理中断信号, 如果需要停止scrapy-redis的话 需要自己去修改一下源码
2017-08-31
共2条回复

Scrapy打造搜索引擎 畅销4年的Python分布式爬虫课

带你彻底掌握Scrapy,用Django+Elasticsearch搭建搜索引擎

5795 学习 · 6290 问题

查看课程