在介紹嶺回歸算法與Lasso回歸算法之前,先要回顧一下線性回歸算法。根據(jù)線性回歸模型的參數(shù)估計公式可知可知,得到的前提是矩陣可逆。換句話說就是樣本各個特征(自變量)之間線性無關(guān)。然而在實際問題中,常常會出現(xiàn)特征之間出現(xiàn)多重共線性的情況,使得行列式的值接近于0,最終造成回歸系數(shù)無解或者無意義。
?為了解決這個問題,嶺回歸算法的方法是在線性回歸模型的目標函數(shù)之上添加一個l2的正則項,進而使得模型的回歸系數(shù)有解。具體的嶺回歸目標函數(shù)可表示為如下:
?
在Python中,嶺回歸算法的實現(xiàn)方法如下。
?在Python中sklearn算法包已經(jīng)實現(xiàn)了所有基本機器學(xué)習(xí)的算法。直接
from sklearn.linear_model import Ridge,RidgeCV
就可以調(diào)用該算法。
?Iris數(shù)據(jù)集的加載與預(yù)處理已在前文中介紹過,此處不再累述。定義嶺回歸算法的方法為如下:
rigdeCV = RidgeCV(alphas=Lambdas,normalize=True,scoring= ' neg_mean_squared_error ' ,cv=15)
其中alphas用于指定多個λ值的元組或數(shù)組對象,默認該參數(shù)包含0.1、1和10三個值。normalize指是否對數(shù)據(jù)集進行歸一化處理。scoring指的是用于評估模型的度量方法,此處為RMSE均分誤差。cv指交叉驗證的重數(shù)。
此處我使用的是15重交叉驗證法確定的λ值。上面Lambdas為logspace方法生成的數(shù)組。
Lambdas = np.logspace(-5,2,200)
最后訓(xùn)練,測試:
rigdeCV.fit(X_train,Y_train)
predictedResult
= rigdeCV.predict(X_test)
注意此處predictedResult為Series不是List。
此時嶺回歸算法分類正確率為0.8。
?
嶺回歸算法固然解決了線性回歸模型中矩陣不可逆的問題。但嶺回歸算法無論如何會保留建模時所有的變量,無法降低模型的復(fù)雜度。為了克服嶺回歸算法的缺點,Lasso回歸算法被提了出來。
?與嶺回歸算法類似,Lasso回歸算法同樣屬于縮減性估計。而且在回歸系數(shù)的縮減過程中,可以將一些不重要的回歸系數(shù)縮減為0,以打到變量篩選的目的。Lasso回歸算法的目標函數(shù)為如下:
具體在Python上實現(xiàn)的方式與嶺回歸算法類似,先導(dǎo)入liner_model中的LassoCV類,然后就可以使用:
lasso_cv = LassoCV(alphas=Lambdas,normalize=True,cv=10,max_iter=10000)
這里max_iter指的是模型最大迭代次數(shù)。其它參數(shù)與嶺回歸類似。
此時Lasso回歸算法的準確率為0.8。
?
由于嶺回歸算法和Lasso回歸算法的相似性,在本次實驗中,二者的分類結(jié)果完全相同,分類準確率同為0.8。考慮到線性回歸并不是特別適合分類問題,所以這種結(jié)果也可以接受。下一步的學(xué)習(xí)方向是GBDT以及多種算法的綜合模型。
更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯(lián)系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
