亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - scrapy url去重

瀏覽:117日期:2022-08-24 16:35:16

問題描述

請問scrapy是url自動去重的嗎?比如下面這段代碼,為什么運行時start_urls里面的重復url會重復爬取了?

class TestSpider(scrapy.Spider): name = 'test' allowed_domains = ['baidu.com'] start_urls = [’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’,] def parse(self, response):for sel in response.xpath(’//p[@class='grid-list grid-list-spot']/ul/li’): item = TestspiderItem() item[’title’] = sel.xpath(’p[@class='list']/a/text()’)[0].extract() item[’link’] = sel.xpath(’p[@class='list']/a/@href’)[0].extract() yield item

問題解答

回答1:

建一個Url管理器,就不會重復抓取了

回答2:

知道了,改成這樣就可以了。

def start_requests(self):

yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 鲁一鲁中文字幕久久 | 最新孕交videosgratis | 一级毛片在线全部免费播放 | 国内黄色一级片 | 亚洲精品国产第一区二区小说 | 亚洲精品亚洲人成在线播放 | 黄色免费在线观看 | 久久精品国产99久久3d动漫 | 大片免费观看入口 | 麻豆传媒免费网站 | 中文字幕一区二区视频 | 国产黄色视屏 | 免费一级特黄 欧美大片 | 制服丝袜中文字幕在线观看 | 中文免费观看视频网站 | 国产一区二区三区免费看 | 国产网站免费在线观看 | 看黄色一级片子 | 一本大道香蕉中文日本不卡高清二区 | 国产综合视频在线 | 午夜国产精品理论片久久影院 | www.香蕉.com| 亚洲精品视频在线 | 中文字幕在线看片成人 | 亚洲欧美日韩特级毛片 | 亚洲精品久久精品h成人 | 毛片一级片 | 99在线国内精品自产拍 | 成人网在线观看 | 久久精品亚洲牛牛影视 | 欧美伊人久久久久久久久影院 | 国产高清在线精品免费 | 久久亚洲国产 | 91久久精品日日躁夜夜躁欧美 | 精品一区二区日本高清 | 日韩啪啪片 | 女人被躁的视频在线观看 | 色图综合网 | 黄色变态网站 | 日本高清不卡二区 | 永久精品免费影院在线观看网站 |