亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

Python Scrapy多頁數據爬取實現過程解析

瀏覽:138日期:2022-07-21 14:49:48

1.先指定通用模板

url = ’https://www.qiushibaike.com/text/page/%d/’#通用的url模板pageNum = 1

2.對parse方法遞歸處理

parse第一次調用表示的是用來解析第一頁對應頁面中的數據

對后面的頁碼的數據要進行手動發送

if self.pageNum <= 5: self.pageNum += 1 new_url = format(self.url%self.pageNum) #手動請求(get)的發送 yield scrapy.Request(new_url,callback=self.parse)

完整示例

class QiubaiSpider(scrapy.Spider): name = ’qiubai’ # allowed_domains = [’www.xxx.com’] start_urls = [’https://www.qiushibaike.com/text/’] url = ’https://www.qiushibaike.com/text/page/%d/’#通用的url模板 pageNum = 1 #parse第一次調用表示的是用來解析第一頁對應頁面中的段子內容和作者 def parse(self, response): div_list = response.xpath(’//*[@id='content-left']/div’) all_data = [] for div in div_list: author = div.xpath(’./div[1]/a[2]/h2/text()’).extract_first() content = div.xpath(’./a[1]/div/span//text()’).extract() content = ’’.join(content) # 將解析的數據存儲到item對象 item = QiubaiproItem() item[’author’] = author item[’content’] = content # 將item提交給管道 yield item # item一定是提交給了優先級最高的管道類 if self.pageNum <= 5: self.pageNum += 1 new_url = format(self.url%self.pageNum) #手動請求(get)的發送 yield scrapy.Request(new_url,callback=self.parse)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 成人看片又黄又爽 | 欧美国产日韩911在线观看 | 亚洲黄色免费 | 免费精品美女久久久久久久久 | 一级一级毛片 | 国产色视频网站免费观看 | 国产在线观看网址在线视频 | 日本特级全黄一级毛片 | 亚洲成年人影院 | 国产精品黄网站 | 欧美成人r级在线播放 | 69视频最新在线观看 | 美国黄色网 | 一级女性黄 色生活片 | 一级看片男女性高爱潮 | 日本黄大片影院一区二区 | 伊人网综合在线视频 | 久久精品国产欧美成人 | 久久久国产精品免费视频 | 性欧美视频a毛片在线播放 性欧美视频在线观看 | 黄色片在线免费观看视频 | 黄色一级大片儿 | 杨幂国产精品福利在线观看 | 亚洲精品久久久久影 | 91自产国偷拍在线 | 欧美一区二区三区久久久人妖 | 亚洲精品一区久久狠狠欧美 | 国产香蕉久久 | 国产免费人人看大香伊 | 性刺激欧美三级在线观看 | 不卡一区二区在线观看 | 一级特黄aa大片欧美网站 | 国产激爽大片高清在线观看 | 女人被男人狂躁的视频免费 | 国产精品人人爱一区二区白浆 | 毛片激情 | 欧洲最暴性xxxⅹ | 久久综合丁香激情久久 | 一区二区视频 | 生活毛片| 国产美女一区二区三区 |