亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

關于python list 寫進txt中的問題

瀏覽:86日期:2022-09-01 18:50:29

問題描述

各位大神好,我爬取騰訊新聞的新聞標題加入到一個列表當中,在用file.write()寫進 新聞.txt的時候,為啥老是寫入列表的最后一個呢??

from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)for n in news_titles: title = n.get_text() link = n.get('href') file = open(’/Users/sufan/Desktop/新聞.txt’, ’w’) b = [] b.append(title + ’鏈接’ + link) file.write(str(b))

關于python list 寫進txt中的問題這個是我爬取出來的東西(print(b)的結果)

關于python list 寫進txt中的問題這個是寫入txt中的內容

問題解答

回答1:

文件操作放循環里了?這樣每次操作每次打開文件每次寫入覆蓋…

# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding(’utf-8’)from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)file = open(’新聞.txt’, ’a’)for n in news_titles: title = n.get_text() link = n.get('href') b = str(title) + ’ 鏈接: ’ + link +'n' file.write(str(b))file.close()回答2:

for n in news_titles: title = n.get_text() link = n.get('href') b = [] b.append(title + ’鏈接’ + link) with open(’/Users/sufan/Desktop/新聞.txt’, ’w’) as file: file.write(str(b))回答3:

寫的動作放錯地方了

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 免费又色又爽的视频国产 | 亚洲欧美国产精品 | 久久线看观看精品香蕉国产 | 91精品国产福利尤物 | 欧美高清免费精品国产自 | 99精品免费在线 | 久热精品视频在线观看99小说 | 欧美日韩国产免费一区二区三区 | 欧美国产成人精品一区二区三区 | 毛片免费视频 | 日韩欧美国产中文字幕 | 日韩制服在线 | 一级片黄色的 | 免费成人黄色网址 | 大学生一级特黄的免费大片视频 | 98精品视频 | 亚洲wuma| 免费观看黄色视屏 | 麻豆视频免费观看入口 | 亚洲欧美精品成人久久91 | 香蕉亚洲精品一区二区 | 国产xxxxx片免费观看 | 在线免费观看国产精品 | 亚洲国产日韩在线一区 | 国产成人mv免费视频 | 毛片一区| 2048国产精品原创综合在线 | xxx视频在线观看 | 欧美日韩在线视频不卡一区二区三区 | 久久久久国产精品美女毛片 | 超级碰碰碰在线观看 | 性一级视频 | 97超级碰碰碰久久久观看 | 成年午夜一级毛片视频 | 亚洲国产精品成人综合久久久 | 国产精品欧美亚洲 | 国产成人精品亚洲一区 | 国产精品毛片无码 | 久久精品中文字幕有码日本 | 成人午夜国产福到在线 | 青青草国产精品久久久久 |