亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - scrapy url去重

瀏覽:100日期:2022-08-24 16:35:16

問題描述

請問scrapy是url自動去重的嗎?比如下面這段代碼,為什么運行時start_urls里面的重復url會重復爬取了?

class TestSpider(scrapy.Spider): name = 'test' allowed_domains = ['baidu.com'] start_urls = [’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’,] def parse(self, response):for sel in response.xpath(’//p[@class='grid-list grid-list-spot']/ul/li’): item = TestspiderItem() item[’title’] = sel.xpath(’p[@class='list']/a/text()’)[0].extract() item[’link’] = sel.xpath(’p[@class='list']/a/@href’)[0].extract() yield item

問題解答

回答1:

建一個Url管理器,就不會重復抓取了

回答2:

知道了,改成這樣就可以了。

def start_requests(self):

yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 动漫男女交性动漫网站 | 国产精品亚洲专区在线播放 | 国产精品a在线观看香蕉 | 91在线|亚洲 | 91精品日韩 | 免费中日高清无专码有限公司 | 日韩在线操| 国产剧情一区二区三区 | 婷婷快播 | 成人黄色三级 | 久久久精品国产免费观看同学 | 很黄很色的小视频在线网站 | 狠狠干婷婷 | 国产免费全部免费观看 | 俄罗斯美女bbbbxx | 关婷哪一级毛片高清免费看 | 清纯唯美亚洲综合激情 | 成年人黄色片视频 | 成人小视频在线免费观看 | 妞干网欧美 | 麻豆精品久久精品色综合 | 麻豆果冻精品一区二区 | 久久成人免费大片 | a级午夜毛片免费一区二区 a级午夜理论免费毛片 | 亚洲精品日韩在线一区 | 午夜精品久久久久久久99 | 国产成人精品免费大全 | 成人黄18免费网站 | 国产成人精品美女在线 | 免费国产高清精品一区在线 | 美女一级大黄录像一片 | 国产小视频福利 | a视频免费 | 97精品国产综合久久 | 91精品国产福利尤物 | 1024人成网站色 | 免费在线观看黄色的网站 | 亚州免费一级毛片 | 一区二区三区久久精品 | 一级特黄aaa大片29 | 国产精品视频牛仔裤一区 |