亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術(shù)文章
文章詳情頁

分布式爬蟲 - scrapy-redis 分布式系統(tǒng)?

瀏覽:114日期:2024-07-11 09:26:03

問題描述

現(xiàn)在可以從網(wǎng)上下載這些代碼,怎么進(jìn)行部署和運(yùn)行代碼從github上下載了關(guān)于分布式的代碼,不知道怎么用,求各位大神指點(diǎn)下。。。下面是網(wǎng)址https://github.com/rolando/scrapy-redis環(huán)境已經(jīng)按照上面的配置好了,但不知道如何實(shí)現(xiàn)分布式。分布式我是這樣理解的,有一個(gè)redis服務(wù)器,從一個(gè)網(wǎng)頁上獲取url種子,并將url種子放到redis服務(wù)器了,然后將這些url種子分配給其他機(jī)器。中間存在調(diào)度方面的問題,以及服務(wù)器和機(jī)器間的通信。

謝謝。。。

問題解答

回答1:

感覺這個(gè)不是一兩句話可以描述清楚 的。

我之前參考的這篇博文,希望對(duì)你有幫助。

說說我個(gè)人的理解吧。

scrapy使用改良之后的python自帶的collection.deque來存放待爬取的request,該怎么讓兩個(gè)以上的Spider共用這個(gè)deque呢?

待爬隊(duì)列都不能共享,分布式就是無稽之談。scrapy-redis提供了一個(gè)解決方法,把collection.deque換成redis數(shù)據(jù)庫,多個(gè)爬蟲從同一個(gè)redis服務(wù)器存放要爬取的request,這樣就能讓多個(gè)spider去同一個(gè)數(shù)據(jù)庫里讀取,這樣分布式的主要問題就解決了.

注意:并不是換了redis來存放request,scrapy就能直接分布式了!

scrapy中跟待爬隊(duì)列直接相關(guān)的就是調(diào)度器Scheduler。

參考scrapy的結(jié)構(gòu)分布式爬蟲 - scrapy-redis 分布式系統(tǒng)?

它負(fù)責(zé)對(duì)新的request進(jìn)行入列操作,取出下一個(gè)要爬取的request等操作。所以,換了redis之后,其他組件都要改動(dòng)。

所以,我個(gè)人的理解就是,在多個(gè)機(jī)器上部署相同的爬蟲,分布式部署redis,參考地址我的博客,比較簡單。而這些工作,包括url去重,就是已經(jīng)寫好的scrapy-redis框架的功能。

參考地址在這里,你可以去下載example看看具體的實(shí)現(xiàn)。我最近也在搞這個(gè)scrapy-redis,等我部署好了在更新的這個(gè)答案。

你有新的進(jìn)展可以分享出來交流。

回答2:

@韋軒 您好,我看這段評(píng)論在15.10.11,請(qǐng)問您現(xiàn)在是否有結(jié)果了?能否推薦一些您的博客,謝謝您~可以聯(lián)系我chenjian158978@gmail.com

相關(guān)文章:
主站蜘蛛池模板: 成人久久精品一区二区三区 | 青娱乐黄色| 国产一区二区三区在线视频 | 999www成人 | 日韩在线 | 中文 | 337d欧美人体大胆瓣开下面 | 嫩草视频在线观看www视频 | 亚洲精品国产精品乱码不卞 | 羞羞答答免费人成黄页在线观看国产 | 国产亚洲视频在线 | 最新三级网站 | 国产剧情福利 | 在线观看色视频 | 欧美日韩不卡视频 | 久久久久久网站 | 久久无码精品一区二区三区 | 美女在线国产 | 草草视频在线 | 成人性生交大片免费看4 | 国产91久久久久久久免费 | 国产成人av在线 | 一级女性黄 色生活片 | aiai视频在线观看 | 香蕉高清免费永久在线视频 | 亚洲一级黄色片 | 久久久久日韩精品免费观看网 | 久久亚洲欧美 | 国产成人lu在线视频 | 欧美三级不卡 | 国产在线91区精品 | 国产精品亚洲一区在线播放 | 91视频久久 | 国产精品国产午夜免费福利看 | 青草视频在线观看免费 | 香蕉视频在线免费看 | 精品一区二区三区高清免费不卡 | 女女互添下身免费视频 | xvideos国产在线视频 | 51精品资源视频在线播放 | 亚洲在线影院 | 全部免费a级毛片 |