亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - 我寫的Xpath 為什么爬取不到內容

瀏覽:51日期:2022-08-13 13:30:26

問題描述

-- coding:utf-8 --

import lxml,requests,sysfrom bs4 import BeautifulSoupfrom lxml import etree

reload(sys)sys.setdefaultencoding('utf-8')

def main():

url = ’https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%E6%9A%B4%E8%B5%B0%E6%BC%AB%E7%94%BB&pn=0’req = requests.get(url).content

# soup = BeautifulSoup(req.content,’lxml’) # imgs = soup.find_all(’img’)

content = etree.HTML(req)paths = content.xpath(’//*[@id='imgid']/ul/li[1]/a/img/text()’)# for img in imgs:## print img

# for img in imgs :

print paths

main()

問題解答

回答1:

在寫爬蟲的時候,使用xpath一定要確認一下網頁的源代碼中是否有數據,如果沒有,說明是異步加載的

1. 瀏覽器輸入這個連接即可看源代碼,ctrl+f 查找imgid所在的位置

view-source:https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%E6%9A%B4%E8%B5%B0%E6%BC%AB%E7%94%BB&pn=02. 發現

并沒有找到下面的圖片列表,我們可以判定圖片是js加載的

3. 尋找

F12看network(刷新才能看到),并沒有發現異步請求加載的圖片信息,于是我猜測數據應該就在html里,不過是放在js里,在加載圖片的時候處理了

同樣是上面的查看源代碼的方式,查找objURL這個參數發現了真實的url

//很多,集中在html下半部分http://img3.duitang.com/uploads/item/201608/06/20160806110540_MAcru.jpeg解決

剩下的就交給你啦~去想辦法解析出下面部分的真實url吧!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 思思久久q6热在精品国产 | 最新日韩中文字幕 | 亚洲精品国产精品乱码不97 | 精品国产97在线观看 | 国产无套普通话对白 | 国产精品乱码一区二区三区 | 一本一道久久a久久精品综合 | yy9299| 亚洲 中文 欧美 日韩 在线 | 亚洲一区无码中文字幕 | 日韩一区二区视频在线观看 | 国产欧美精品一区二区三区 | 久久国产精品99精品国产 | 国内精自视频品线六区免费 | 一本久道久久综合 | 日本aaa级片| 国产精品玖玖玖在线观看 | 亚洲精品ai换脸一区二区三区 | a级毛片观看 | 伊人一区| 日韩无套| 国产女主播在线播放 | 98香蕉草草视频在线精品看 | 免费一级毛片女人图片 | 看黄色一级毛片 | 欧美日韩免费 | 免费国产成人手机在线观看 | 伊人色综合久久天天网蜜月 | 成人午夜毛片 | 一级毛片在线看 | 在线视频久 | 日韩一区二区三区不卡视频 | 国产欧美成人免费观看视频 | 国产精品成人免费视频不卡 | 日日摸夜夜搂人人要 | 青青草在线视频免费观看 | 2021久久精品国产99国产精品 | 色婷婷网| 日本久久草 | 免费爱爱视频 | 污污网站免费入口链接 |