亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python爬蟲之bs4數據解析

瀏覽:84日期:2022-06-21 10:09:07
一、實現數據解析

因為正則表達式本身有難度,所以在這里為大家介紹一下 bs4 實現數據解析。除此之外還有 xpath 解析。因為 xpath 不僅可以在 python 中使用,所以 bs4 和 正則解析一樣,僅僅是簡單地寫兩個案例(爬取可翻頁的圖片,以及爬取三國演義)。以后的重點會在 xpath 上。

二、安裝庫

閑話少說,我們先來安裝 bs4 相關的外來庫。比較簡單。

1.首先打開 cmd 命令面板,依次安裝bs4 和 lxml。

2. 命令分別是 pip install bs4 和 pip install lxml 。

3. 安裝完成后我們可以試著調用他們,看看會不會報錯。

因為本人水平有限,所以如果出現報錯,兄弟們還是百度一下好啦。(總不至于 cmd 命令打錯了吧 ~~)

三、bs4 的用法

閑話少說,先簡單介紹一下 bs4 的用法。

python爬蟲之bs4數據解析python爬蟲之bs4數據解析

四、爬取圖片

import requestsfrom bs4 import BeautifulSoupimport osif __name__ == '__main__': # 創建文件夾 if not os.path.exists('./糗圖(bs4)'):os.mkdir('./糗圖(bs4)') # UA偽裝 header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.72 Safari/537.36'} # 指定 url for i in range(1, 3): # 翻兩頁url = 'https://www.qiushibaike.com/imgrank/page/%s/' % str(i)# 獲取源碼數據page = requests.get(url = url, headers = header).text# 數據解析soup = BeautifulSoup(page, 'lxml')data_list = soup.select('.thumb > a')for data in data_list: url = data.img['src'] title = url.split('/')[-1] new_url = 'https:' + url photo = requests.get(url = new_url, headers = header).content # 存儲 with open('./糗圖(bs4)/' + title, 'wb') as fp:fp.write(photo) print(title, '下載完成!!!') print('over!!!')五、爬取三國演義

import requestsfrom bs4 import BeautifulSoupif __name__ == '__main__': # UA 偽裝 header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36'} # URL url = 'http://sanguo.5000yan.com/' # 請求命令 page_text = requests.get(url = url, headers = header) page_text.encoding = 'utf-8' page_text = page_text.text soup = BeautifulSoup(page_text, 'lxml')# bs4 解析 li_list = soup.select('.sidamingzhu-list-mulu > ul > li')for li in li_list:print(li)new_url = li.a['href']title = li.a.text# 新的請求命令response = requests.get(url = new_url, headers = header)response.encoding = 'utf-8'new_page_text = response.textnew_soup = BeautifulSoup(new_page_text, 'lxml')page = new_soup.find('div', class_ = 'grap').textwith open('./三國演義.txt', 'a', encoding = 'utf-8') as fp: fp.write('n' + title + ':' + 'n' + 'n' + page)print(title + '下載完成!!!')

到此這篇關于python爬蟲之bs4數據解析的文章就介紹到這了,更多相關python bs4數據解析內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产精品一区在线麻豆 | 国产剧情一区二区三区 | 成人性生免费视频 | 国产一级网站 | 中文字幕午夜乱理片11111 | 中文字幕国产综合 | 欧美日韩国产免费一区二区三区 | 亚洲国产日韩无在线播放 | 国产一区曰韩二区欧美三区 | 欧美精品人爱c欧美精品 | 九九小视频| 久久久亚洲国产精品主播 | 特级淫片aaaa毛片aa视频 | 日韩欧美综合在线二区三区 | 夜色成人免费观看 | 新香蕉视频| 亚洲精品中文字幕乱码影院 | 91精品国产薄丝高跟在线看 | 永久在线观看www免费视频 | 国产在视频线精品视频二代 | 91短视频社区在线观看 | 欧美夜恋影院夜恋秀场 | 欧美久操 | 公又粗又长又大又深好爽日本 | 中国一级特黄aa毛片大片 | 全免费午夜真人毛片视频 | 日本高清免费一本视频在线观看 | 一区二区免费视频 | 免费看黄视频 | 日韩欧美不卡一区二区三区 | 亚洲国产成人最新精品资源 | 亚洲综合综合在线 | 日韩欧美亚洲一区二区综合 | 米奇精品一区二区三区 | 黄色在线视频观看 | 成人社区网站 | 成年人免费网站视频 | 亚洲黄色在线观看 | 青青青久在线视频免费观看 | 国产一区二区三区美女图片 | 国产在线拍小情侣国产拍拍偷 |