亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術(shù)文章
文章詳情頁

python爬數(shù)據(jù),得到一個列表,但怎樣去掉里面的span標簽?zāi)兀?/h1>
瀏覽:93日期:2022-07-11 09:18:11

問題描述

用p6ython3.6爬下了部分數(shù)據(jù),但是最后顯示的是含span標簽的列表,當(dāng)我用get_text、contents等方法,就會報錯。這是為什么呢?最開始返回的結(jié)果如下:

[<span>2017.5.2</span>][<span>2017.4.26</span>][<span>2017.4.24</span>][<span>2017.4.19</span>][<span>2017.3.23</span>][<span>2017.3.17</span>][<span>2017.2.14</span>][<span>2017.2.9</span>][<span>2017.2.6</span>][<span>2017.2.6</span>]

我的代碼如下:

import requestsfrom bs4 import BeautifulSoupimport re# def url_list():# for number in range(1,21):# url_links=[]# url='X'.format(i=number)# url_links.append(url)h={'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.81 Safari/537.36'}r=requests.get('url',headers=h)soup=BeautifulSoup(r.text,’lxml’)for data in soup.find('p',{'class':'list-main-eventset-finan'}).find_all('li'): content=data.find('i',{'class':'cell date'}).find_all('span') print(time)

問題解答

回答1:

bs的API記得不是很清楚了,應(yīng)該是有可以直接獲取文本的函數(shù)的,應(yīng)該是get_text()這個函數(shù)吧。由于你用的是find_all(),那么需要再在返回的結(jié)果下做一次遍歷,就是這樣

rs = list()for data in soup.find('p',{'class':'list-main-eventset-finan'}).find_all('li'): contents=data.find('i',{'class':'cell date'}).find_all('span') for content in contents:rs.append(content.get_text())

此外,也可以使用正則表達式來匹配,直接匹配<span>(.*?)<這個pattern。但是也得像上面那樣遍歷這個contens列表才行。

回答2:

題主可以試試 text_content() 方法

回答3:

正則表達式或者split+SUBSTRING也可以,靈活著用

標簽: Python 編程

主站蜘蛛池模板: 久久久成人啪啪免费网站 | 国产精品免费大片一区二区 | 色婷婷狠狠五月综合天色拍 | 欧美日韩亚洲综合在线一区二区 | 国产精品观看在线亚洲人成网 | 91短视频在线免费观看 | 久草新免费 | 丁香四月婷婷 | 99久久精品国产一区二区 | 麻豆视频一区二区 | 中文字幕 国产 | 亚洲国产精品久久综合 | 中文字幕2021| 国产私拍写真福利视频 | 亚洲国产最新在线一区二区 | 国产夫妇精品自在线 | 国产成人免费午夜性视频 | 东京一区二区三区高清视频 | 国产精品情侣久久婷婷文字 | 免费中文字幕 | 成人亚洲网站 | 伊人一区二区三区 | 日韩免费观看的一级毛片 | 日韩中文字幕精品久久 | 国产亚洲精品激情一区二区三区 | 亚州a | 久草狼人| 一级中文字幕 | 请以你的名字呼唤我免费观看 | 国产一区二区视频在线 | 日韩黄色一级视频 | 999久久久免费精品国产牛牛 | 日韩免费高清一级毛片在线 | 国产精品黄色片 | 国产或人精品日本亚洲77美色 | 亚洲欧美高清视频 | 国产亚洲欧美在线观看的 | 自拍视频网站 | 亚洲精品中文字幕午夜 | 中文字幕欧美视频 | 日韩 亚洲 欧美 中文 高清 |