running 'scrapy crawl' with more than one spider is no longer supported

来源:9-6 scrapy的暂停与重启

ak918xp

2020-04-05

我按照老师开头的写法 scrapy crawl spider lagou -s JOBDIR=job_info/001
运行后报错,说我不能一次启动多个spider,我仔细看了看,发现我多打了一个spider。但是我想问问,如果要一次启动多个spider需要修改什么呢。
图片描述

写回答

1回答

bobby

2020-04-06

scrapy crawl spider lagou -s JOBDIR=job_info/001 这里没有spider这个参数啊  课程中没有讲解有这个参数啊 只有爬虫的名称

0
1
ak918xp
非常感谢!
2020-04-06
共1条回复

Scrapy打造搜索引擎 畅销4年的Python分布式爬虫课

带你彻底掌握Scrapy,用Django+Elasticsearch搭建搜索引擎

5795 学习 · 6290 问题

查看课程