Python集成學(xué)習(xí)之Blending算法詳解
普通機(jī)器學(xué)習(xí):從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)一個假設(shè)。
集成方法:試圖構(gòu)建一組假設(shè)并將它們組合起來,集成學(xué)習(xí)是一種機(jī)器學(xué)習(xí)范式,多個學(xué)習(xí)器被訓(xùn)練來解決同一個問題。
集成方法分類為:
Bagging(并行訓(xùn)練):隨機(jī)森林
Boosting(串行訓(xùn)練):Adaboost; GBDT; XgBoost
Stacking:
Blending:
或者分類為串行集成方法和并行集成方法
1.串行模型:通過基礎(chǔ)模型之間的依賴,給錯誤分類樣本一個較大的權(quán)重來提升模型的性能。
2.并行模型的原理:利用基礎(chǔ)模型的獨(dú)立性,然后通過平均能夠較大地降低誤差
二、Blending介紹訓(xùn)練數(shù)據(jù)劃分為訓(xùn)練和驗(yàn)證集+新的訓(xùn)練數(shù)據(jù)集和新的測試集
將訓(xùn)練數(shù)據(jù)進(jìn)行劃分,劃分之后的訓(xùn)練數(shù)據(jù)一部分訓(xùn)練基模型,一部分經(jīng)模型預(yù)測后作為新的特征訓(xùn)練元模型。測試數(shù)據(jù)同樣經(jīng)過基模型預(yù)測,形成新的測試數(shù)據(jù)。最后,元模型對新的測試數(shù)據(jù)進(jìn)行預(yù)測。Blending框架圖如下所示:注意:其是在stacking的基礎(chǔ)上加了劃分?jǐn)?shù)據(jù)
三、Blending流程圖相關(guān)工具包加載
import numpy as npimport pandas as pd import matplotlib.pyplot as pltplt.style.use('ggplot')%matplotlib inlineimport seaborn as sns
創(chuàng)建數(shù)據(jù)
from sklearn import datasets from sklearn.datasets import make_blobsfrom sklearn.model_selection import train_test_splitdata, target = make_blobs(n_samples=10000, centers=2, random_state=1, cluster_std=1.0 )## 創(chuàng)建訓(xùn)練集和測試集X_train1,X_test,y_train1,y_test = train_test_split(data, target, test_size=0.2, random_state=1)## 創(chuàng)建訓(xùn)練集和驗(yàn)證集X_train,X_val,y_train,y_val = train_test_split(X_train1, y_train1, test_size=0.3, random_state=1)print('The shape of training X:',X_train.shape)print('The shape of training y:',y_train.shape)print('The shape of test X:',X_test.shape)print('The shape of test y:',y_test.shape)print('The shape of validation X:',X_val.shape)print('The shape of validation y:',y_val.shape)
設(shè)置第一層分類器
from sklearn.svm import SVCfrom sklearn.ensemble import RandomForestClassifierfrom sklearn.neighbors import KNeighborsClassifier
clfs = [SVC(probability=True),RandomForestClassifier(n_estimators=5,n_jobs=-1,criterion=’gini’),KNeighborsClassifier()]
設(shè)置第二層分類器
from sklearn.linear_model import LinearRegressionlr = LinearRegression()
第一層
val_features = np.zeros((X_val.shape[0],len(clfs)))test_features = np.zeros((X_test.shape[0],len(clfs)))
for i,clf in enumerate(clfs): clf.fit(X_train,y_train) val_feature = clf.predict_proba(X_val)[:,1] test_feature = clf.predict_proba(X_test)[:,1] val_features[:,i] = val_feature test_features[:,i] = test_feature
第二層
lr.fit(val_features,y_val)
輸出預(yù)測的結(jié)果
lr.fit(val_features,y_val)from sklearn.model_selection import cross_val_scorecross_val_score(lr,test_features,y_test,cv=5)
到此這篇關(guān)于Python集成學(xué)習(xí)之Blending算法詳解的文章就介紹到這了,更多相關(guān)Python Blending算法內(nèi)容請搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!
相關(guān)文章:
1. ASP基礎(chǔ)知識Command對象講解2. ASP中格式化時間短日期補(bǔ)0變兩位長日期的方法3. CSS Hack大全-教你如何區(qū)分出IE6-IE10、FireFox、Chrome、Opera4. ASP腳本組件實(shí)現(xiàn)服務(wù)器重啟5. XML入門精解之結(jié)構(gòu)與語法6. 秒殺場景的緩存、隊(duì)列、鎖使用Redis優(yōu)化設(shè)計(jì)方案7. JSP的Cookie在登錄中的使用8. 輕松學(xué)習(xí)XML教程9. jsp+servlet實(shí)現(xiàn)猜數(shù)字游戲10. jsp文件下載功能實(shí)現(xiàn)代碼
