精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業(yè)資訊

什么是機器學習中的正則化?

1.引言

在機器學習領域中,相關模型可能會在訓練過程中變得過擬合和欠擬合。為了防止這種情況的發(fā)生,我們在機器學習中使用正則化操作來適當地讓模型擬合在我們的測試集上。一般來說,正則化操作通過降低過擬合和欠擬合的可能性來幫助大家獲得最佳模型。

在本文中,我們將了解什么是正則化,正則化的類型。此外,我們將討論偏差、方差、欠擬合和過擬合等相關概念。

閑話少說,我們直接開始吧!

2.偏差和方差

Bias和Variance分別從兩個方面來描述我們學習到的模型與真實模型之間的差距。

二者的定義如下:

Bias是用所有可能的訓練數據集訓練出的所有模型的輸出的平均值與真實模型的輸出值之間的差異。

Variance是不同的訓練數據集訓練出的模型輸出值之間的差異。

什么是機器學習中的正則化?

Bias(偏差)降低了模型對單個數據點的敏感性,并增加了數據的泛化性,模型對孤立數據點的敏感度降低;由于所需的功能不那么復雜,因此還可以減少訓練時間。高偏差表示假定目標函數更可靠。有時,這會導致模型擬合不足。

Variance(方差)是機器學習中由于模型對數據集中微小變化的敏感性而發(fā)生的一種錯誤。由于存在顯著變化,算法將對訓練集中的噪聲和異常值進行建模。過擬合是最常用于描述這一點的術語。在新數據集上進行評估時,在這種情況下,模型無法提供準確的預測,因為它本質上學習了每個數據點。

一個相對平衡的模型將具有低偏差和低方差,而高偏差和高方差將導致欠擬合和過擬合。

3.欠擬合

當模型由于沒有正確學習訓練數據中的模式而無法正確地泛化到新數據時,就會發(fā)生欠擬合。在訓練數據上,欠擬合模型表現(xiàn)不佳,并做出錯誤的預測。當存在高偏差和低方差時,就會發(fā)生欠擬合。

什么是機器學習中的正則化?

4.過擬合

當一個模型在訓練數據上表現(xiàn)得非常好,但在測試數據上表現(xiàn)不佳時,它被稱為過擬合(新數據)。在這種情況下,機器學習模型因為擬合到訓練數據中的噪聲,這會對模型在測試數據上的表現(xiàn)產生負面影響。低偏差和高方差可能導致過擬合。

什么是機器學習中的正則化?

5.正則化概念

術語“正則化”描述了校準機器學習模型的方法,以減少調整后的損失函數并避免過擬合或欠擬合。

什么是機器學習中的正則化?

我們可以使用正則化將機器學習模型正確地擬合到特定的測試集上,從而降低測試集中的錯誤。

6.L1正則化

相比于嶺回歸,L1正則化主要通過在損失函數中增加一項懲罰項來實現(xiàn),懲罰項等于所有系數的絕對值之和。如下所示:

什么是機器學習中的正則化?

在Lasso回歸模型中,以類似于嶺回歸的方式通過增加回歸系數的絕對值這一懲罰項來實現(xiàn)。此外,L1正則化在提高線性回歸模型的精度方面有著良好的表現(xiàn)。同時,由于L1正則化對所有參數的懲罰力度都一樣,可以讓一部分權重變?yōu)榱悖虼水a生稀疏模型,能夠去除某些特征(權重為0則等效于去除)。

7.L2正則化

L2正則化也是通過在損失函數中增加一項懲罰項來實現(xiàn),懲罰項等于所有系數的平方和。如下所示:

什么是機器學習中的正則化?

一般而言,當數據表現(xiàn)出多重共線性(自變量高度相關)時,它被認為是一種采用的方法。盡管多重共線性中的最小二乘估計值 (OLS) 是無偏的,但它們的巨大方差會導致觀測值與實際值相差很大。L2通過在一定程度上降低了回歸估計值的誤差。它通常使用收縮參數來解決多重共線性問題。L2正則化減少了權重的固定比例,使權重平滑。

8.總結

經過上述分析,對本文中相關正則化的知識進行總結如下:

L1正則化可以產生稀疏權值矩陣,即產生一個稀疏模型,可以用于特征選擇;

L2正則化可以防止模型過擬合,在一定程度上,L1也可以防止過擬合,提升模型的泛化能力;

L1(拉格朗日)正則假設參數的先驗分布是Laplace分布,可以保證模型的稀疏性,也就是某些參數等于0;

L2(嶺回歸)正則假設參數的先驗分布是Gaussian分布,可以保證模型的穩(wěn)定性,也就是參數的值不會太大或太小。

在實際使用中,如果特征是高維稀疏的,則使用L1正則;如果特征是低維稠密的,則使用L2正則。

猜你喜歡