亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術(shù)文章
文章詳情頁

Python scrapy爬取小說代碼案例詳解

瀏覽:51日期:2022-07-18 09:56:43

scrapy是目前python使用的最廣泛的爬蟲框架

架構(gòu)圖如下

Python scrapy爬取小說代碼案例詳解

解釋:

Scrapy Engine(引擎): 負(fù)責(zé)Spider、ItemPipeline、Downloader、Scheduler中間的通訊,信號、數(shù)據(jù)傳遞等。 Scheduler(調(diào)度器): 它負(fù)責(zé)接受引擎發(fā)送過來的Request請求,并按照一定的方式進(jìn)行整理排列,入隊(duì),當(dāng)引擎需要時,交還給引擎。 Downloader(下載器):負(fù)責(zé)下載Scrapy Engine(引擎)發(fā)送的所有Requests請求,并將其獲取到的Responses交還給Scrapy Engine(引擎),由引擎交給Spider來處理, Spider(爬蟲):它負(fù)責(zé)處理所有Responses,從中分析提取數(shù)據(jù),獲取Item字段需要的數(shù)據(jù),并將需要跟進(jìn)的URL提交給引擎,再次進(jìn)入Scheduler(調(diào)度器), Item Pipeline(管道):它負(fù)責(zé)處理Spider中獲取到的Item,并進(jìn)行進(jìn)行后期處理(詳細(xì)分析、過濾、存儲等)的地方. DownloaderMiddlewares(下載中間件):你可以當(dāng)作是一個可以自定義擴(kuò)展下載功能的組件。Spider Middlewares(Spider中間件):你可以理解為是一個可以自定擴(kuò)展和操作引擎和Spider中間通信的功能組件(比如進(jìn)入Spider的Responses;和從Spider出去的Requests

一。安裝

pip install Twisted.whl

pip install Scrapy

Twisted的版本要與安裝的python對應(yīng),https://jingyan.baidu.com/article/1709ad8027be404634c4f0e8.html

二。代碼

本實(shí)例采用xpaths解析頁面數(shù)據(jù)

按住shift-右鍵-在此處打開命令窗口

輸入scrapy startproject qiushibaike 創(chuàng)建項(xiàng)目

輸入scrapy genspiderqiushibaike 創(chuàng)建爬蟲

1>結(jié)構(gòu)

Python scrapy爬取小說代碼案例詳解

2>qiushibaike.py爬蟲文件

import scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders.crawl import Rule, CrawlSpiderclass BaiduSpider(CrawlSpider): name = ’qiushibaike’ allowed_domains = [’qiushibaike.com’] start_urls = [’https://www.qiushibaike.com/text/’]#啟始頁面# rules= ( Rule(LinkExtractor(restrict_xpaths=r’//a[@class='contentHerf']’),callback=’parse_item’,follow=True), Rule(LinkExtractor(restrict_xpaths=r’//ul[@class='pagination']/li/a’),follow=True) ) def parse_item(self, response): title=response.xpath(’//h1[@class='article-title']/text()’).extract_first().strip() #標(biāo)題 time=response.xpath(’ //span[@class='stats-time']/text()’).extract_first().strip() #發(fā)布時間 content=response.xpath(’//div[@class='content']/text()’).extract_first().replace(’’,’n’) #內(nèi)容 score=response.xpath(’//i[@class='number']/text()’).extract_first().strip() #好笑數(shù) yield({'title':title,'content':content,'time':time,'score':score});

3>pipelines.py 數(shù)據(jù)管道[code]class QiushibaikePipeline:

class QiushibaikePipeline: def open_spider(self,spider):#啟動爬蟲中調(diào)用 self.f=open('xiaoshuo.txt','w',encoding=’utf-8’) def process_item(self, item, spider): info=item.get('title')+'n'+ item.get('time')+' 好笑數(shù)'+item.get('score')+'n'+ item.get('content')+’n’ self.f.write(info+'n') self.f.flush() def close_spider(self,spider):#關(guān)閉爬蟲中調(diào)用 self.f.close()

4>settings.py

開啟ZhonghengPipeline

ITEM_PIPELINES = { ’qiushibaike.pipelines.QiushibaikePipeline’: 300,}

5>0main.py運(yùn)行

from scrapy.cmdline import executeexecute(’scrapy crawl qiushibaike’.split())

6>結(jié)果:

生成xiaohua.txt,里面有下載的笑話文字

Python scrapy爬取小說代碼案例詳解

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持好吧啦網(wǎng)。

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 九九爱精品 | 欧美国产综合日韩一区二区 | 亚洲欧美另类在线观看 | 欧美特黄录像播放 | 狠狠亚洲婷婷综合色香五 | 欧美日韩一区二区三区在线视频 | 8x永久免费观看成人影院 | 国产日韩一区二区 | 草草影院ccyy国产日本欧美 | 国产网站麻豆精品视频 | 999久久精品国产 | 免费国产高清精品一区在线 | 免费特黄一级欧美大片 | 全免费毛片在线播放 | 精品成人一区二区 | 亚洲精品第一区二区三区 | 日韩一级视频 | 亚洲午夜久久久 | 99视频精品全国免费 | 国产精品网红女主播久久久 | 午夜在线观看视频免费 成人 | 日韩久久精品一区二区三区 | 6080yy 久久 亚洲 日本 | 婷婷色在线观看 | 久热精品视频在线观看99小说 | 日韩网站免费 | 国产在线观看一区精品 | 2022国产成人精彩在线视频 | 亚洲高清在线观看播放 | 亚洲视频在线免费 | 欧美第五页| 尤物视频在线 | 5月婷婷6月丁香 | 久久久久亚洲精品影视 | 欧美一级视频在线观看欧美 | 男女一级做片a性视频 | 国产成人18黄网站麻豆 | 亚洲爽视频 | 免费看黄色的视频 | 亚洲精品中文字幕区 | 成人免费毛片一区二区三区 |