使用scrapy-crawlera做爬虫代理,但是运行爬虫出错,打印信息显示407状态码,要怎么解决?
来源:9-6 scrapy的暂停与重启
dengwenjieyear
2017-06-30
写回答
2回答
-
dengwenjieyear
提问者
2017-07-01
找到原因了,那个crawlera服务要钱的,我在自己的scrapinghub上未开通crawlera服务
112017-07-03 -
志明0
2017-06-30
以4开头的错误一般都是服务器问题,你找到原因了吗?
012017-06-30
相似问题