亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - beautifulsoup獲取網頁內容的問題

瀏覽:119日期:2022-06-30 08:43:35

問題描述

我要的是這個里面的內容<p class='talk-article__body talk-transcript__body'>

PYTHON代碼:

neirong=soup.find(’p’,{’class’:’talk-article__body talk-transcript__body’})

但是返回的結果是空。這個選擇器是不是寫錯了?

問題解答

回答1:

neirong=soup.find_all(’p’,class_=’talk-article__body talk-transcript__body’)

https://www.crummy.com/softwa...

回答2:

參照:https://www.crummy.com/softwa...中給出的說明,正確的使用方式是:neirong=soup.find(’p’,class_=’talk-article__body talk-transcript__body’)

為了獲取p包含的內容,進一步調用neirong.contents即可

回答3:

neirong = soup.select(’.talk-article__body.talk-transcript__body’)回答4:

你從瀏覽器看到的內容有js動態生成的,用bs匹配不到,我發現看到的比較奇怪的class名基本都是js生成的

回答5:

使用find_all吧,find不能用于class

回答6:

個人覺得用BeautifulSoup來解析網頁的時候,如果樓主打算通過css特性來進行元素的定位的話,最好還是使用soup.select(),這個方法可以用class的value當參數也可以用標簽的的attribute當參數,很方便,用于搜索單一標簽最好用,同時參數支持css選擇器字符串,比如:soup.select('#id > .class a.title').

soup.find()方法目前好像用的不多,不知道是不是BeautifulSoup4棄用了。現在一般只要出現find,就是find_all()等方法。以上詳細參考“超級湯”的中文文檔:http://beautifulsoup.readthed...

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产精品福利社 | 国产美腿丝袜福利视频在线观看 | 一级aaa级毛片午夜在线播放 | 亚洲 日本 欧美 中文幕 | 麻豆视频在线免费看 | 麻豆视频在线观看免费 | 欧洲成人全免费视频网站 | 黄视频免费在线观看 | 美女免费视频一区二区 | 四虎hk网址| 日韩欧美一区二区三区在线播放 | 亚洲国产一区二区三区四区 | 爱色视频| 免费中文字幕不卡视频 | 国产在线观看精品 | 色综合久久久久久久久五月性色 | 国产又粗又黄又湿又大 | 特级www| 免费在线不卡视频 | 久久精品九九 | 免费网址你懂的 | 香蕉看片 | 亚洲黄色高清视频 | 欧美毛片日韩一级在线 | 美女全黄网站免费观看 | 国产精品lululu在线观看 | 1024 在线播放 | 日韩大尺度无遮挡理论片 | 婷婷色综合久久五月亚洲 | 亚洲精品久久 | 黄色一级生活片 | 91视频大全 | 黄色成人影院 | 亚洲国产成人久久笫一页 | 丁香六月婷婷精品免费观看 | 一级特黄特黄毛片欧美的 | 久久精品国产99久久香蕉 | 国产午夜亚洲精品久久999 | 日本黄色性生活片 | 久久久国产高清 | 日本精品一区 |