亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - mongodb 去重

瀏覽:100日期:2022-08-05 17:07:12

問題描述

爬取了一個用戶的論壇數據,但是這個數據庫中有重復的數據,于是我想把重復的數據項給去掉。數據庫的結構如下python - mongodb 去重

里邊的forundata是這個帖子的每個樓層的發(fā)言情況。但是因為帖子爬取的時候有可能重復爬取了,我現在想根據里邊的urlId來去掉重復的帖子,但是在去除的時候我想保留帖子的forumdata(是list類型)字段中列表長度最長的那個。用mongodb的distinct方法只能返回重復了的帖子urlId,都不返回重復帖子的其他信息,我沒法定位。。。假如重復50000個,那么我還要根據這些返回的urlId去數據庫中find之后再在mongodb外邊代碼修改嗎?可是即使這樣,我發(fā)現運行的時候速度特別慢。之后我用了group函數,但是在reduce函數中,因為我要比較forumdata函數的大小,然后決定保留哪一個forumdata,所以我要傳入forumdata,但是有些forumdata大小超過了16M,導致報錯,然后這樣有什么解決辦法嗎?或者用第三種方法,用Map_reduce,但是我在map-reduce中的reduce傳入的forumdata大小限制竟然是8M,還是報錯。。。

代碼如下group的代碼:

reducefunc=Code( ’function(doc,prev){’ ’if (prev==null){’ ’prev=doc’ ’}’ ’if(prev!=null){’ ’if (doc.forumdata.lenth>prev.forumdata.lenth){’ ’prev=doc’ ’}’ ’}’ ’}’)

map_reduce的代碼:

reducefunc=Code( ’function(urlId,forumdata){’ ’if(forumdata.lenth=1){’ ’return forumdata[0];’ ’}’ ’else if(forumdata[0].lenth>forumdata[1].lenth){’ ’return forumdata[0];’ ’}’ ’else{’ ’return forumdata[1]}’ ’}’)mapfunc=Code( ’function(){’ ’emit(this.urlId,this.forumdata)’ ’}’)

望各位高手幫我看看這個問題該怎么解決,三個方案中隨便各一個就好,或者重新幫我分析一個思路,感激不盡。鄙人新人,問題有描述不到位的地方請?zhí)岢鰜恚視⒓囱a充完善。

問題解答

回答1:

如果這個問題還沒有解決,不妨參考下面的想法:

1、MongoDB中推薦使用aggregation,而不推薦使用map-reduce;

2、您的需求中,很重要的一點是獲取Forumdata的長度:數組的長度,從而找到數組長度最長的document。您原文說Forumdata是列表(在MongoDB中應該是數組);MongoDB提供了$size運算符號取得數組的大小。

請參考下面的栗子:

> db.data.aggregate([ {$project : { '_id' : 1, 'name' : 1, 'num' : 1, 'length' : { $size : '$num'}}}]){ '_id' : ObjectId('58e631a5f21e5d618900ec20'), 'name' : 'a', 'num' : [ 12, 123, 22, 34, 1 ], 'length' : 5 }{ '_id' : ObjectId('58e631a5f21e5d618900ec21'), 'name' : 'b', 'num' : [ 42, 22 ], 'length' : 2 }{ '_id' : ObjectId('58e631a7f21e5d618900ec22'), 'name' : 'c', 'num' : [ 49 ], 'length' : 1 }

3、有了上面的數據后,然后可以利用aggregation中的$sort,$group等找到滿足您的需求的Document的objectId,具體做法可以參考下面的帖子:

https://segmentfault.com/q/10...

4、最后批量刪除相關的ObjectId

類似于:var dupls = [] 保存要刪除的objectIddb.collectionName.remove({_id:{$in:dupls}})

供參考。

Love MongoDB! Have Fun!

戳我<--請戳左邊,就在四月!MongoDB中文社區(qū)深圳用戶大會開始報名啦!大神云集!

回答2:

數據量的規(guī)模不是很大的話可以考慮重新爬取一次,每次存的時候查詢一下,只存數據最多的一組數據。優(yōu)秀的爬蟲策略>>優(yōu)秀的數據清洗策略

回答3:

感謝各位網友,在qq群中,有人給出了思路,是在map的是先以urlId對forumdata進行處理,返回urlId和forumdatad.length,之后再在reduce中處理,保留forumdata.length最大的那個和對應的urlId,最后保存成一個數據庫,之后通過這個數據庫中的urlId來從原數據庫中將所有數據讀取出來。我試過了,雖然效率不是我期望的那種,不過速度還是比以前用python處理快了不少。附上map和reduce的代碼:’’’javaScriptmapfunc=Code(

’function(){’’data=new Array();’’data={lenth:this.forumdata.length,’’id:this._id};’# ’data=this._id;’’emit({'id':this.urlId},data);’’}’)

reducefunc=Code(

’function(tieziID,dataset){’’reduceid=null;’’reducelenth=0;’’’’’’redecenum1=0;’’redecenum2=0;’’’’dataset.forEach(function(val){’’if(reducelenth<=val['lenth']){’’reducelenth=val['lenth'];’’reduceid=val['id'];’’redecenum1+=1;’’}’’redecenum2+=1;’’});’’return {'lenth':reducelenth,'id':reduceid};’’}’ )

上邊是先導出一個新的數據庫的代碼,下邊是處理這個數據庫的代碼:

mapfunc=Code(

’function(){’# ’data=new Array();’’lenth=this.forumdata.length;’’’’emit(this.urlId,lenth);’’}’

)

reducefunc=Code(

’function(key,value){’’return value;’’}’

)

之后添加到相應的map_reduce中就行了。感覺Bgou回答的不錯,所以就選他的答案了,還沒有去實踐。上邊是我的做法,就當以后給遇到同樣問題的人有一個參考。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产青草视频在线观看 | 亚洲高清国产拍精品影院 | 亚洲欧美一区二区视频 | 成人国产在线观看 | 在线免费看a爱片 | 久久免费精品国产视频 | 五月天六月丁香 | 国产精品久久不卡日韩美女 | 麻豆射区| 久久线看观看精品香蕉国产 | 国产五区 | 免费一级特黄 欧美大片 | 免费看的黄视频 | 欧美日韩在线免费观看 | 一级片在线观看视频 | 亚欧成人毛片一区二区三区四区 | 六月丁香婷婷天天在线 | 日韩在线视频一区二区三区 | a国产视频 | 黄色片免费网址 | 午夜精品久久久久久99热 | 久久久综合九色合综国产 | 高清性色生活片a | 国产一国产一级毛片视频 | 国产无内制服肉丝精品视频 | 欧美黑人巨大白妞出浆 | 日韩欧美精品一区二区 | 奇米狠狠色 | 中国女人野外做爰视频在线看 | 免费观看一级成人毛片 | 国内精品一区视频在线播放 | 亚洲国产精品综合久久20 | 中国免费一级毛片 | 一区二区三区免费视频观看 | 干出白浆视频 | 亚洲最大网址 | 一级片a| 免费高清国产 | 国产最新自拍视频 | 欧美激情精品久久久久久大尺度 | 亚洲欧美综合国产精品一区 |