自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

線性回歸中,為什么使用均方誤差損失函數(shù)?

發(fā)布于 2024-11-4 16:32
瀏覽
0收藏

在線性回歸中,通常使用均方誤差作為損失函數(shù)。

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

但你知道為什么用它嗎?

要知道,很多函數(shù)都能衡量預(yù)測值和真實值之間的不同,在所有候選者中,均方誤差有什么特殊之處嗎?

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

據(jù)我所知,很多人都會回答:

1.均方誤差是可微的,所以才作為損失函數(shù)。->錯

2.與絕對誤差相比,均方誤差對大的誤差懲罰更多 ->錯

很遺憾,上述回答都是錯的。

也許從概率視角出發(fā),可以幫助我們更好理解,為什么均方誤差更合適。

在線性回歸中,通過輸入X預(yù)測目標(biāo)變量y。

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

作為誤差項,捕獲數(shù)據(jù)點i的隨機噪聲。

根據(jù)中心極限定理,假設(shè)噪聲服從均值為0的高斯分布。

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

誤差項的概率密度函數(shù)可以寫成如下形式:

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

帶入線性回歸公式中的誤差項:

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

上述公式表明,在某個參數(shù)下,觀察到數(shù)據(jù)點i的似然。

接下來,我們可以定義似然函數(shù):

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

這意味著通過改變??,我們可以擬合一個分布到觀測數(shù)據(jù)并量化觀察到它的可能性。

我們進一步將其寫成各個數(shù)據(jù)點的乘積,因為我們假設(shè)所有觀測是獨立的。

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

因此,得到:

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

由于對數(shù)函數(shù)是單調(diào)的,我們使用對數(shù)似然并對其進行最大化。這被稱為最大似然估計(MLE)。

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

簡化后,得到:

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

重申一下,目標(biāo)是找到能夠最大化上述表達式的??。但是,第一個項與??無關(guān)。

因此,最大化上述表達式等價于最小化第二個項。

線性回歸中,為什么使用均方誤差損失函數(shù)?-AI.x社區(qū)

如果你仔細觀察,這正是平方誤差。

因此,你可以通過最小化平方誤差來最大化對數(shù)似然。這就是在線性回歸中使用最小二乘法的起源。

可以看到,在線性回歸中使用平方誤差作為損失函數(shù)是有明確的證明和推理的。機器學(xué)習(xí)中的一切都不是憑空產(chǎn)生的。


本文轉(zhuǎn)載自公眾號人工智能大講堂 

原文鏈接:??https://mp.weixin.qq.com/s/0-hO-91C_gVIYlnEjt-A6A??


收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦