首先感謝這位博主整理的Andrew Ng的deeplearning.ai的相關(guān)作業(yè):https://blog.csdn.net/u013733326/article/details/79827273
開(kāi)一個(gè)我的github傳送門,可以看到代碼。
https://github.com/VVV-LHY/deeplearning.ai/tree/master/improveNeuralNetwork/InitializeRegularize
L2正則化
待分類的數(shù)據(jù)點(diǎn)集;
未使用L2正則化的模型迭代過(guò)程和accuracy:
使用L2正則化的模型迭代過(guò)程和accuracy:
未使用L2正則化的訓(xùn)練集分類效果:
使用L2正則化的訓(xùn)練集分類效果:
明顯可以看出,未使用L2正則化的模型在訓(xùn)練集上過(guò)擬合了數(shù)據(jù),使用L2正則化可以有效避免過(guò)擬合問(wèn)題。
所謂L2正則化就是減小了訓(xùn)練集的過(guò)擬合程度,lambd參數(shù)可以讓決策邊界更加平滑,當(dāng)然如果參數(shù)過(guò)大會(huì)導(dǎo)致過(guò)度平滑從而加大偏差。
L2正則化依賴于假設(shè)”較小權(quán)重的模型比較大權(quán)重的模型更簡(jiǎn)單“,因此通過(guò)削減成本函數(shù)中權(quán)重的平方值,即乘lambd(lambd < 1)來(lái)將權(quán)重逐漸變小。
L2正則化的影響:
1.成本計(jì)算花費(fèi)更多
2.反向傳播的花費(fèi)更多
3.權(quán)重衰減,權(quán)重被逐漸改變的較小的范圍
?dropout正則化:
所謂dropout正則化就是隨機(jī)刪除隱含層單元節(jié)點(diǎn)的方法,可以對(duì)一個(gè)網(wǎng)絡(luò)中的不同隱含層設(shè)置隨機(jī)刪除節(jié)點(diǎn)的百分比,這樣在每一次迭代中部分節(jié)點(diǎn)會(huì)隨機(jī)失效。
其作用是,讓每一個(gè)節(jié)點(diǎn)相對(duì)于其他所有節(jié)點(diǎn)的敏感性下降,因?yàn)槊看蔚惺У墓?jié)點(diǎn)都是隨機(jī)的,其他節(jié)點(diǎn)在任意時(shí)間都有可能失活。
使用dropout正則化的模型迭代過(guò)程和accuracy:
使用dropout正則化的訓(xùn)練集分類效果:
隨機(jī)刪除節(jié)點(diǎn)的正則化方法會(huì)降低訓(xùn)練集的準(zhǔn)確率,但會(huì)提升測(cè)試集的準(zhǔn)確率,所以適當(dāng)?shù)氖褂谜齽t化方法不失為一種降低過(guò)擬合,提升準(zhǔn)確率的選擇。
更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主
微信掃碼或搜索:z360901061
微信掃一掃加我為好友
QQ號(hào)聯(lián)系: 360901061
您的支持是博主寫作最大的動(dòng)力,如果您喜歡我的文章,感覺(jué)我的文章對(duì)您有幫助,請(qǐng)用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長(zhǎng)非常感激您!手機(jī)微信長(zhǎng)按不能支付解決辦法:請(qǐng)將微信支付二維碼保存到相冊(cè),切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對(duì)您有幫助就好】元

