用scrapy写了很多个爬虫,怎么一个一个运行,判断一个爬虫运行完,自动下一个爬虫启动?

来源:1-4 【讨论题】:爬虫工程师该何去何从?

慕慕7513118

2022-07-01

用scrapy写了很多个爬虫,怎么一个一个运行,判断一个爬虫运行完,自动下一个爬虫启动?

写回答

1回答

小布_老师

2022-07-13

部署scrapyd吧,再套个管理界面,就可以了。

默认可以同时启动的爬虫是4或者8个

0
0

Python高级爬虫实战-系统掌握破解反爬技能 挑战高薪

加密破解、逆向重构、分布式框架及海量存储方案

494 学习 · 105 问题

查看课程