亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

瀏覽:125日期:2022-09-17 10:49:15

問題描述

用scrapy爬了圖書館書籍的書名和評論,用Chrome的檢查拔下來的Xpath,但是運行爬蟲返回的是空元素,請問各位哪里出了問題,謝謝大家。截圖:

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

附上我的Scrapy源碼,請大家多指教,謝謝!

from scrapy import Spiderfrom scrapy.selector import Selectorfrom CommentCrawl.items import CommentcrawlItemclass commentcrawl(Spider): name = 'commentcrawl' allowed_domains = ['http://opac.lib.bnu.edu.cn:8080'] start_urls = ['http://opac.lib.bnu.edu.cn:8080/F/S9Q2QIQV5D9R9HBHPI2KNN8JH11TRIRSIEPKYQLTAQQ17LA6B6-16834?func=full-set-set&set_number=010408&set_entry=000001&format=999', ] def parse(self,response):item = CommentcrawlItem()item[’name’] = Selector(response).xpath(’//*[@id='details2']/table/tbody/tr[1]/td[2]/a/text()’).extract()item[’comment’] = Selector(response).xpath(’//*[@id='localreview']/text()’).extract()yield item

問題解答

回答1:

頁面需要登錄才能訪問,缺少登錄操作。

回答2:

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

頁面被登錄攔截了。

回答3:

你把你實際獲得的內容打印或者保存完了,看看是什么內容。估計是返回的內容跟你的 Xpath 匹配不上,該登錄的登錄啊。

標簽: Python 編程
主站蜘蛛池模板: 尤物在线播放 | 日韩精品视频网站 | 碰超在线 | 国产又色又爽又黄又刺激18 | 丁香综合| 皮皮在线精品亚洲 | 欧美特级毛片 | 国产精品jizz在线观看软件 | 国产专区一区 | 99www综合久久爱com | 亚洲精品高清国产一线久久97 | 爱福利一区二区 | 日操夜操天天操 | 黄色录像一级 | 午夜一级毛片看看 | 黄色网日本 | 国产无遮挡又黄又爽在线视频 | 久久久久亚洲 | 国产精品视频分类一区 | 国产精品人人爱一区二区白浆 | 国产成人一区二区三区在线视频 | 国产第一页无线好源 | 国产aⅴ自拍 | 欧美一级做一a做片性视频 欧美一级做一级爱a做片性 | 亚洲尹人香蕉网在线视颅 | 美女被啪全免视频软件 | 欧美综合偷拍在线另类卡通小说 | 涩色网站| 99爱在线精品视频免费观看9 | 草草在线观看视频 | 免费看黄色网页 | 国内真实愉拍系列情侣自拍 | 老年人一级特黄aa大片 | 在线香蕉| 国产h版大片在线播放 | 免费观看日本人成影片 | 婷婷777| 成人免费一区二区三区 | 精品一区二区三区影片 | 男女交性粗大视频播放 | 亚洲精品午夜久久久伊人 |