亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - 爬蟲獲取所有數據的思路是什么

瀏覽:120日期:2022-09-20 09:30:05

問題描述

比如一個網站有下一頁,我要怎么能把所有下一頁爬完呢,用遞歸嗎,遞歸深度不會有限制嗎,初學,希望得到指點

問題解答

回答1:

遞歸,消息隊列,儲存已經爬取的頁面(redis, 數據庫)

回答2:

如果你指的所有數據是一個小域名下的所有數據,并且你并不想細究原理,那就去學scrapy。

如果你指的所有數據是全網數據,并且想搞明白爬取時是廣度優先還是深度優先等等原理,那首先你得有10000+服務器。

回答3:

如果是同一個網站,用遞歸爬去呀,同一個網站怎么會爬不完

回答4:

如果網站的結構是簡單重復的,可以先分析頁碼url的規律,然后直接從第一頁拿到總頁數,然后手動構造出其他頁的url。

回答5:

首先大致說下爬取的思路,如果頁面鏈接很簡單,類似 www.xxx.com/post/1.html這種有規律可循的頁面,可以寫遞歸或者循環去爬取

如果頁面鏈接是未知的,可以獲取爬取的頁面去解析標簽的鏈接,然后繼續爬取,在這一過程中,你需要將已經爬取過的鏈接存下來,爬新鏈接的時候去尋找一下是否之前爬取過,然后也是通過遞歸去爬取

爬取思路 通過url爬取->解析爬取內容中新的url->通過url爬取->....->當爬取到一定數量或者很長一段時間沒有新鏈接的時候跳出遞歸

最后在python界有一個很厲害的爬蟲框架scrapy,基本上把爬蟲常用套路全部都封裝好了,稍微學習下就會了傳送門

回答6:

import java.io.File;import java.io.IOException;import java.io.InputStream;import java.net.URL;import java.net.URLConnection;import org.apache.commons.io.FileUtils;public class SpiderDemo { public static void main(String[] args) throws IOException {//URL url = new URL('http://www.zhongguoxinyongheimingdan.com');//URLConnection connection = url.openConnection();//InputStream in = connection.getInputStream();//File file = new File('F://a.txt');//FileUtils.copyInputStreamToFile(in, file);File srcDir = new File('F://a.txt');String str = FileUtils.readFileToString(srcDir, 'UTF-8');String[] str1 = str.split('href='http://www.aoyou183.cn/wenda/);for (int i = 3; i < str1.length-1; i++) { URL url = new URL('http://www.zhongguoxinyongheimingdan.com'+str1[i].substring(1, 27)); File f = new File('F://abc//'+str1[i].substring(2, 22)); if(!f.exists()){ f.mkdir();File desc1 = new File(f,str1[i].substring(1, 22)+'.txt'); URLConnection connection = url.openConnection(); InputStream in = connection.getInputStream(); FileUtils.copyInputStreamToFile(in, desc1); String str2 = FileUtils.readFileToString(desc1, 'UTF-8'); String[] str3 = str2.split('' src='http://www.aoyou183.cn/wenda/10676.html'); for(int j = 1;j<str3.length-2;j++){URL url1 = new URL(str3[j].substring(0, 81));URLConnection connection1 = url1.openConnection();connection1.setDoInput(true);InputStream in1 = connection1.getInputStream();File desc2 = new File(f,str3[j].substring(44,76)+'.jpg');FileUtils.copyInputStreamToFile(in1, desc2); } } }} }

簡單的代碼 把中國信用黑名單網站的所有照片保存到 本地 網站本身簡單!不過當場這個網站奔潰了 也是醉了!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 精新精新国产自在现拍欣赏网 | 亚洲xx视频 | 在线观看免费网址大全 | 国产精品久久久久一区二区三区 | 一级级黄 | 91大学生视频 | 中文字幕在线观看一区 | 国产剧情一区二区 | 亚洲欧美成人永久第一网站 | 国产色视频在线观看免费 | 日韩国产综合 | 高清毛片在线看高清 | 一本久道久久综合狠狠爱 | 91国内在线国内在线播放 | 免费又色又爽1000禁片 | 永久福利盒子日韩日韩免费看 | 亚洲综合资源 | 黄网在线观看免费 | 国产高清在线a视频大全凹凸 | 免费亚洲成人 | 精品一区二区久久久久久久网站 | 亚洲最大黄色网址 | 国产精品一区在线免费观看 | 草草免费视频 | 免费播放欧美毛片欧美a | 边吃奶边弄进去男女视频 | 麻豆网站入口 | 美女一级牲交毛片视频 | 欧洲三级| 久久久久毛片成人精品 | 中文字幕一区二区三区在线播放 | 国内自拍视频在线观看 | 欧美日韩中出 | 国产精品入口麻豆高清 | 免费a视频在线观看 | 香蕉视频在线观看国产 | 成人网mm视频在线观看 | 日韩精品一区二区三区高清 | 国产真实偷乱视频在线观看 | 国产丝袜护土调教在线视频 | 古代的一a一片一级一片 |