欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

8種用Python實現(xiàn)線性回歸的方法對比詳解

系統(tǒng) 1751 0

前言

說到如何用Python執(zhí)行線性回歸,大部分人會立刻想到用sklearn的linear_model,但事實是,Python至少有8種執(zhí)行線性回歸的方法,sklearn并不是最高效的。

今天,讓我們來談?wù)劸€性回歸。沒錯,作為數(shù)據(jù)科學(xué)界元老級的模型,線性回歸幾乎是所有數(shù)據(jù)科學(xué)家的入門必修課。拋開涉及大量數(shù)統(tǒng)的模型分析和檢驗不說,你真的就能熟練應(yīng)用線性回歸了么?未必!

在這篇文章中,文摘菌將介紹8種用Python實現(xiàn)線性回歸的方法。了解了這8種方法,就能夠根據(jù)不同需求,靈活選取最為高效的方法實現(xiàn)線性回歸。

“寶刀不老”的線性回歸

時至今日,深度學(xué)習(xí)早已成為數(shù)據(jù)科學(xué)的新寵。即便往前推10年,SVM、boosting等算法也能在準(zhǔn)確率上完爆線性回歸。

為什么我們還需要線性回歸呢?

一方面,線性回歸所能夠模擬的關(guān)系其實遠(yuǎn)不止線性關(guān)系。線性回歸中的“線性”指的是系數(shù)的線性,而通過對特征的非線性變換,以及廣義線性模型的推廣,輸出和特征之間的函數(shù)關(guān)系可以是高度非線性的。另一方面,也是更為重要的一點,線性模型的易解釋性使得它在物理學(xué)、經(jīng)濟(jì)學(xué)、商學(xué)等領(lǐng)域中占據(jù)了難以取代的地位。

那么,如何用Python來實現(xiàn)線性回歸呢?

由于機(jī)器學(xué)習(xí)庫scikit-learn的廣泛流行,常用的方法是從該庫中調(diào)用linear_model來擬合數(shù)據(jù)。雖然這可以提供機(jī)器學(xué)習(xí)的其他流水線特征(例如:數(shù)據(jù)歸一化,模型系數(shù)正則化,將線性模型傳遞到另一個下游模型)的其他優(yōu)點,但是當(dāng)一個數(shù)據(jù)分析師需要快速而簡便地確定回歸系數(shù)(和一些基本相關(guān)統(tǒng)計量)時,這通常不是最快速簡便的方法。

下面,我將介紹一些更快更簡潔的方法,但是它們所提供信息量和建模的靈活性不盡相同。

各種線性回歸方法的完整源碼都可以在文末的GitHub鏈接中找到。他們大多數(shù)都依賴于SciPy包。

SciPy是基于Python的Numpy擴(kuò)展構(gòu)建的數(shù)學(xué)算法和函數(shù)的集合。通過為用戶提供便于操作和可視化數(shù)據(jù)的高級命令和類,為交互式Python會話增加了強(qiáng)大的功能。

8種方法實現(xiàn)線性回歸

方法一:Scipy.polyfit( ) or numpy.polyfit( )

8種用Python實現(xiàn)線性回歸的方法對比詳解_第1張圖片

這是一個最基本的最小二乘多項式擬合函數(shù)(least squares polynomial fit function),接受數(shù)據(jù)集和任何維度的多項式函數(shù)(由用戶指定),并返回一組使平方誤差最小的系數(shù)。這里給出函數(shù)的詳細(xì)描述。對于簡單的線性回歸來說,可以選擇1維函數(shù)。但是如果你想擬合更高維的模型,則可以從線性特征數(shù)據(jù)中構(gòu)建多項式特征并擬合模型。

方法二:Stats.linregress( )

8種用Python實現(xiàn)線性回歸的方法對比詳解_第2張圖片

這是一個高度專業(yè)化的線性回歸函數(shù),可以在SciPy的統(tǒng)計模塊中找到。然而因為它僅被用來優(yōu)化計算兩組測量數(shù)據(jù)的最小二乘回歸,所以其靈活性相當(dāng)受限。因此,不能使用它進(jìn)行廣義線性模型和多元回歸擬合。但是,由于其特殊性,它是簡單線性回歸中最快速的方法之一。除了擬合的系數(shù)和截距項之外,它還返回基本統(tǒng)計量,如R2系數(shù)和標(biāo)準(zhǔn)差。

方法三:Optimize.curve_fit( )

8種用Python實現(xiàn)線性回歸的方法對比詳解_第3張圖片

這與Polyfit方法是一致的,但本質(zhì)上更具一般性。這個強(qiáng)大的函數(shù)來自scipy.optimize模塊,可以通過最小二乘最小化將任意的用戶自定義函數(shù)擬合到數(shù)據(jù)集上。

對于簡單的線性回歸來說,可以只寫一個線性的mx + c函數(shù)并調(diào)用這個估計函數(shù)。不言而喻,它也適用于多元回歸,并返回最小二乘度量最小的函數(shù)參數(shù)數(shù)組以及協(xié)方差矩陣。

方法四:numpy.linalg.lstsq

8種用Python實現(xiàn)線性回歸的方法對比詳解_第4張圖片

這是通過矩陣分解計算線性方程組的最小二乘解的基本方法。來自numpy包的簡便線性代數(shù)模塊。在該方法中,通過計算歐幾里德2-范數(shù)||b-ax||2最小化的向量x來求解等式ax = b。

該方程可能有無數(shù)解、唯一解或無解。如果a是方陣且滿秩,則x(四舍五入)是方程的“精確”解。

你可以使用這個方法做一元或多元線性回歸來得到計算的系數(shù)和殘差。一個小訣竅是,在調(diào)用函數(shù)之前必須在x數(shù)據(jù)后加一列1來計算截距項。這被證明是更快速地解決線性回歸問題的方法之一。

方法五:Statsmodels.OLS ( )

Statsmodels是一個小型的Python包,它為許多不同的統(tǒng)計模型估計提供了類和函數(shù),還提供了用于統(tǒng)計測試和統(tǒng)計數(shù)據(jù)探索的類和函數(shù)。每個估計對應(yīng)一個泛結(jié)果列表??筛鶕?jù)現(xiàn)有的統(tǒng)計包進(jìn)行測試,從而確保統(tǒng)計結(jié)果的正確性。

對于線性回歸,可以使用該包中的OLS或一般最小二乘函數(shù)來獲得估計過程中的完整的統(tǒng)計信息。

一個需要牢記的小技巧是,必須手動給數(shù)據(jù)x添加一個常數(shù)來計算截距,否則默認(rèn)情況下只會得到系數(shù)。以下是OLS模型的完整匯總結(jié)果的截圖。結(jié)果中與R或Julia等統(tǒng)計語言一樣具有豐富的內(nèi)容。

8種用Python實現(xiàn)線性回歸的方法對比詳解_第5張圖片

方法六和七:使用矩陣的逆求解析解

對于條件良好的線性回歸問題(其中,至少滿足數(shù)據(jù)點個數(shù)>特征數(shù)量),系數(shù)求解等價于存在一個簡單的閉式矩陣解,使得最小二乘最小化。由下式給出:

這里有兩個選擇:

(a)使用簡單的乘法求矩陣的逆

(b)首先計算x的Moore-Penrose廣義偽逆矩陣,然后與y取點積。由于第二個過程涉及奇異值分解(SVD),所以它比較慢,但是它可以很好地適用于沒有良好條件的數(shù)據(jù)集。

方法八:sklearn.linear_model.LinearRegression( )

這是大多數(shù)機(jī)器學(xué)習(xí)工程師和數(shù)據(jù)科學(xué)家使用的典型方法。當(dāng)然,對于現(xiàn)實世界中的問題,它可能被交叉驗證和正則化的算法如Lasso回歸和Ridge回歸所取代,而不被過多使用,但是這些高級函數(shù)的核心正是這個模型本身。

八種方法效率比拼

作為一名數(shù)據(jù)科學(xué)家,應(yīng)該一直尋找準(zhǔn)確且快速的方法或函數(shù)來完成數(shù)據(jù)建模工作。如果模型本來就很慢,那么會對大數(shù)據(jù)集造成執(zhí)行瓶頸。

一個可以用來確定可擴(kuò)展性的好辦法是不斷增加數(shù)據(jù)集的大小,執(zhí)行模型并取所有的運(yùn)行時間繪制成趨勢圖。

下面是源代碼及其運(yùn)行結(jié)果

(https://github.com/tirthajyoti/PythonMachineLearning/blob/master/Linear_Regression_Methods.ipynb)。

由于其簡單,即使多達(dá)1000萬個數(shù)據(jù)點,stats.linregress和簡單的矩陣求逆還是最快速的方法。

8種用Python實現(xiàn)線性回歸的方法,究竟哪個方法最高效?

簡單矩陣逆求解的方案更快

作為數(shù)據(jù)科學(xué)家,我們必須一直探索多種解決方案來對相同的任務(wù)進(jìn)行分析和建模,并為特定問題選擇最佳方案。

在本文中,我們討論了8種簡單線性回歸的方法。大多數(shù)都可以擴(kuò)展到更一般化的多元和多項式回歸建模中。

本文的目標(biāo)主要是討論這些方法的相對運(yùn)行速度和計算復(fù)雜度。我們在一個數(shù)據(jù)量持續(xù)增加的合成數(shù)據(jù)集(最多達(dá)1000萬個樣本)上進(jìn)行測試,并給出每種方法的運(yùn)算時間。

令人驚訝的是,與廣泛被使用的scikit-learnlinear_model相比,簡單矩陣的逆求解的方案反而更加快速。

我們還收集了項目代碼,大家可以到這里下載代碼并直接運(yùn)行文中提到的8種方法喔:

https://github.com/tirthajyoti/PythonMachineLearning/blob/master/Linear_Regression_Methods.ipynb

英文原文地址:https://medium.freecodecamp.org/data-science-with-python-8-ways-to-do-linear-regression-and-measure-their-speed-b5577d75f8b

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機(jī)微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦?。?!

發(fā)表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 精品伊人久久大线蕉地址 | 欧美成人做性视频在线播放 | 久久日韩在线 | 久久婷婷激情 | avbobo官网| 我不卡在线观看 | 国产在线观看91一区二区三区 | 久久99精品视频 | 成人免费视频网址 | 成人自拍偷拍视频 | 精品久久久av| 欧美另类亚洲 | 欧美精品一区二 | 人人人人人爽 | 久久99精品久久久久久噜噜 | 九热视频在线观看 | www.久久色 | 日韩中文在线 | 午夜网页| 亚洲国产午夜 | 555夜色666夜色精品站 | 久久综合九色综合欧美狠狠 | 日本久久精品视频 | 九九精品九九 | 黄色福利 | 久久精品视在线观看2 | 国产精品久久久久久久久久久久 | 一级视频免费观看 | 亚洲精品国产第一综合99久久 | 国产在线观 | 色综合天天综合网国产成人网 | 日日摸夜夜添免费毛片小说 | 毛片无码免费无码播放 | 奇米影视888狠狠狠777不卡 | 四虎影视永久免费观看网址 | 久久精品国产线看观看亚洲 | 日韩电影免费在线观看中文字幕 | 久久精品视频在线观看 | 26uuu在线 | 亚洲国产精品视频 | 国产91久久最新观看地址 |