亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

瀏覽:107日期:2022-06-24 13:40:11
1. 新建項(xiàng)目

在命令行窗口下輸入scrapy startproject scrapytest, 如下

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

然后就自動(dòng)創(chuàng)建了相應(yīng)的文件,如下

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

2. 修改itmes.py文件

打開(kāi)scrapy框架自動(dòng)創(chuàng)建的items.py文件,如下

# Define here the models for your scraped items## See documentation in:# https://docs.scrapy.org/en/latest/topics/items.htmlimport scrapyclass ScrapytestItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() pass

編寫里面的代碼,確定我要獲取的信息,比如新聞標(biāo)題,url,時(shí)間,來(lái)源,來(lái)源的url,新聞的內(nèi)容等

class ScrapytestItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() title = scrapy.Field() timestamp = scrapy.Field() category = scrapy.Field() content = scrapy.Field() url = scrapy.Field() pass3. 定義spider,創(chuàng)建一個(gè)爬蟲(chóng)模板3.1 創(chuàng)建crawl爬蟲(chóng)模板

在命令行窗口下面 創(chuàng)建一個(gè)crawl爬蟲(chóng)模板(注意在文件的根目錄下面,指令檢查別輸入錯(cuò)誤,-t 表示使用后面的crawl模板),會(huì)在spider文件夾生成一個(gè)news163.py文件

scrapy genspider -t crawl codingce news.163.com

然后看一下這個(gè)‘crawl’模板和一般的模板有什么區(qū)別,多了鏈接提取器還有一些爬蟲(chóng)規(guī)則,這樣就有利于我們做一些深度信息的爬取

import scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import CrawlSpider, Ruleclass CodingceSpider(CrawlSpider): name = ’codingce’ allowed_domains = [’163.com’] start_urls = [’http://news.163.com/’] rules = ( Rule(LinkExtractor(allow=r’Items/’), callback=’parse_item’, follow=True), ) def parse_item(self, response): item = {} #item[’domain_id’] = response.xpath(’//input[@id='sid']/@value’).get() #item[’name’] = response.xpath(’//div[@id='name']’).get() #item[’description’] = response.xpath(’//div[@id='description']’).get() return item3.2 補(bǔ)充知識(shí):selectors選擇器

支持xpath和css,xpath語(yǔ)法如下

/html/head/title/html/head/title/text()//td (深度提取的話就是兩個(gè)/)//div[@class=‘mine’]3.3. 分析網(wǎng)頁(yè)內(nèi)容

在谷歌chrome瀏覽器下,打在網(wǎng)頁(yè)新聞的網(wǎng)站,選擇查看源代碼,確認(rèn)我們可以獲取到itmes.py文件的內(nèi)容(其實(shí)那里面的要獲取的就是查看了網(wǎng)頁(yè)源代碼之后確定可以獲取的)

確認(rèn)標(biāo)題、時(shí)間、url、來(lái)源url和內(nèi)容可以通過(guò)檢查和標(biāo)簽對(duì)應(yīng)上,比如正文部分

主體

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

標(biāo)題

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

時(shí)間

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

分類

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

4. 修改spider下創(chuàng)建的爬蟲(chóng)文件4.1 導(dǎo)入包

打開(kāi)創(chuàng)建的爬蟲(chóng)模板,進(jìn)行代碼的編寫,除了導(dǎo)入系統(tǒng)自動(dòng)創(chuàng)建的三個(gè)庫(kù),我們還需要導(dǎo)入news.items(這里就涉及到了包的概念了,最開(kāi)始說(shuō)的?init?.py文件存在說(shuō)明這個(gè)文件夾就是一個(gè)包可以直接導(dǎo)入,不需要安裝)

注意:使用的類ExampleSpider一定要繼承自CrawlSpider,因?yàn)樽铋_(kāi)始我們創(chuàng)建的就是一個(gè)‘crawl’的爬蟲(chóng)模板,對(duì)應(yīng)上

import scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import CrawlSpider, Rulefrom scrapytest.items import ScrapytestItemclass CodingceSpider(CrawlSpider): name = ’codingce’ allowed_domains = [’163.com’] start_urls = [’http://news.163.com/’] rules = ( Rule(LinkExtractor(allow=r’.*.163.com/d{2}/d{4}/d{2}/.*.html’), callback=’parse’, follow=True), ) def parse(self, response): item = {} content = ’<br>’.join(response.css(’.post_content p::text’).getall()) if len(content) < 100: return return item

Rule(LinkExtractor(allow=r’..163.com/d{2}/d{4}/d{2}/..html’), callback=‘parse’, follow=True), 其中第一個(gè)allow里面是書(shū)寫正則表達(dá)式的(也是我們核心要輸入的內(nèi)容),第二個(gè)是回調(diào)函數(shù),第三個(gè)表示是否允許深入

最終代碼

from datetime import datetimeimport reimport scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders import CrawlSpider, Rulefrom scrapytest.items import ScrapytestItemclass CodingceSpider(CrawlSpider): name = ’codingce’ allowed_domains = [’163.com’] start_urls = [’http://news.163.com/’] rules = ( Rule(LinkExtractor(allow=r’.*.163.com/d{2}/d{4}/d{2}/.*.html’), callback=’parse’, follow=True), ) def parse(self, response): item = {} content = ’<br>’.join(response.css(’.post_content p::text’).getall()) if len(content) < 100: return title = response.css(’h1::text’).get() category = response.css(’.post_crumb a::text’).getall()[-1] print(category, '=======category') time_text = response.css(’.post_info::text’).get() timestamp_text = re.search(r’d{4}-d{2}-d{2} d{2}:d{2}:d{2}’, time_text).group() timestamp = datetime.fromisoformat(timestamp_text) print(title, '=========title') print(content, '===============content') print(timestamp, '==============timestamp') print(response.url) return item

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

到此這篇關(guān)于python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞的文章就介紹到這了,更多相關(guān)python Scrapy爬取網(wǎng)易新聞內(nèi)容請(qǐng)搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 日本特黄特色aa大片免费 | 91高清视频在线观看 | 一级成人毛片免费观看欧美 | 青草青在线免费视频 | 激情五月婷婷 | 国产欧美二区三区 | 韩国一级特黄清高免费大片 | 国产美女精品视频免费观看 | 50岁老女人毛片一级亚洲 | 久久久www成人免费精品 | 久久一区二区三区免费 | 亚洲欧美久久婷婷爱综合一区天堂 | 玖玖这里只有精品 | 亚洲欧美黄 | 成年女人毛片免费观看不卡 | 黄色三级在线视频 | 香蕉视频网站免费观视频 | 国产国产精品人在线观看 | 中国大陆一级毛片 免费 | 亚洲视频黄色 | 青青久在线视频免费观看 | 色涩亚洲| 国产精品伊人 | 99re最新地址精品视频 | 中文字幕乱码二三区免费 | 国产亚洲精品美女 | 微拍秒拍99福利精品小视频 | 亚洲国产成人久久99精品 | 日韩第1页 | 香蕉草草久在视频在线播放 | 国产精品极品美女免费观看 | 1024cao社区榴地址一地址二 | 免费一级黄色大片 | japanesefree高清日本乱 | 日本另类xxxx | 欧美一级a俄罗斯毛片 | 久久国产在线视频 | 国产视频一区二区在线播放 | 欧美三级a做爰在线观看 | 午夜视频网站在线观看 | 看日本黄色大片 |