两个或两个以上的网站爬取算是分布式爬虫吗? 我这样写可以启动无数个爬虫程序吧?为啥启动完第一个就直接结束了呢?

来源:10-1 分布式爬虫要点

慕容3089938

2021-10-12

图片描述

问题一:两个或两个以上的网站爬取算是分布式爬虫吗?
问题二:我这样写可以启动无数个爬虫程序吧?
问题三:为啥启动完第一个就直接结束了呢?
问题四:那有没有办法解决呀,或是要怎么样代码才能实现同时爬取10个,20个网站呢?

写回答

1回答

bobby

2021-10-13

  1. 分布式这个概念其实严格意义上来说,启动多个爬虫不算分布式,分布式严格的意义来说应该是,比如我要爬取一个网站这个网站内容很多,容易被反爬比如淘宝。这个时候我可以将这一个爬虫分布式部署到100台服务器上,这一百个进程间可以通信,你爬一部分我爬一部分,不要我爬取过的你再爬取,后面讲解的scrapy-redis就能达到这个效果

  2. 运行多个爬虫不用这样直接在main.py直接运行并且直接运行这个文件,课程中写这个文件的目的是为了方便调试用的,实际部署你直接在cmd命令窗口中 直接scrapy crawl jobbole,这样一个命令就启动了jobbole的爬虫了,你如果想要再运行一个知乎的爬虫,再开启一个cmd窗口 直接运行 scrapy crawl zhihu,这样多个爬虫多个命令启动就行了

0
2
bobby
回复
慕容3089938
你这只能叫10个或者100个爬虫,这些爬虫之间没有协作完成同一件事
2021-10-14
共2条回复

Scrapy打造搜索引擎 畅销4年的Python分布式爬虫课

带你彻底掌握Scrapy,用Django+Elasticsearch搭建搜索引擎

5795 学习 · 6290 问题

查看课程