每個數(shù)據(jù)分析師都應(yīng)該了解的六個預(yù)測模型
當(dāng)你想開啟數(shù)據(jù)科學(xué)家的職業(yè)生涯時,應(yīng)該學(xué)習(xí)哪些模型呢?本文中我們介紹了6個在業(yè)界廣泛使用的模型。
目前很多輿論對機(jī)器學(xué)習(xí)和人工智過度追捧,當(dāng)你想建立預(yù)測模型時,這會讓給你不禁思考,是不是只有很高階的技術(shù)才能解決問題。
但當(dāng)你自己試著編程后才會發(fā)現(xiàn),事實實際并非如此。作為一名數(shù)據(jù)工作者,你面臨的很多問題都需要將幾個模型組合起來解決,而且其中大部分模型已經(jīng)出現(xiàn)了很長時間。
而且,即使你要使用先進(jìn)的模型來解決問題,學(xué)習(xí)基本原理會讓你在大多數(shù)情況中占得先機(jī)。與此同時,了解這些基礎(chǔ)模型的優(yōu)缺點(diǎn)將幫助你在數(shù)據(jù)分析項目取得成功。
下面我們就來具體看看6個數(shù)據(jù)分析師都應(yīng)該掌握的預(yù)測模型吧。
1.線性回歸
線性回歸比較經(jīng)典的模型之一,英國科學(xué)家Francis Galton在19世紀(jì)就使用了 "回歸 "一詞,并且仍然是使用數(shù)據(jù)表示線性關(guān)系最有效的模型之一。
線性回歸是世界范圍內(nèi),許多計量經(jīng)濟(jì)學(xué)課程的主要內(nèi)容。學(xué)習(xí)該線性模型將讓你在解決回歸問題有方向,并了解如何用數(shù)學(xué)知識來預(yù)測現(xiàn)象。
學(xué)習(xí)線性回歸還有其他好處,尤其是當(dāng)你學(xué)習(xí)了兩種可以獲得最佳性能的方法時:
- 閉式解 一個神奇的公式,能通過一個簡單的代數(shù)方程給出變量的權(quán)重。
- 梯度下降法 面向最佳權(quán)重值的優(yōu)化方法,用于優(yōu)化其他類型的算法。
此外,我們可以用簡單的二維圖在實踐中直觀地看到線性回歸,這也使該模型成為理解算法的良好開始。
2.邏輯回歸
雖然名為回歸,但邏輯回歸是掌握分類問題的最佳模型。
學(xué)習(xí)邏輯回歸有以下幾點(diǎn)優(yōu)勢:
- 初步了解分類和多分類問題,這是機(jī)器學(xué)習(xí)任務(wù)的重要部分
- 理解函數(shù)轉(zhuǎn)換,如Sigmoid函數(shù)的轉(zhuǎn)換
- 了解梯度下降的其他函數(shù)的用法,以及如何對函數(shù)進(jìn)行優(yōu)化。
- 初步了解Log-Loss函數(shù)
學(xué)習(xí)完邏輯回歸后,有什么用?你將能夠理解分類問題背后的機(jī)制,以及你如何使用機(jī)器學(xué)習(xí)來分離類別。
屬于這方面的問題如下:
- 了解交易是否欺詐
- 了解客戶是否會流失
- 根據(jù)違約概率對貸款進(jìn)行分類
就像線性回歸一樣,邏輯回歸也是一種線性算法。在研究了這兩種算法之后,你將了解線性算法背后的主要局限性,同時認(rèn)識到它們無法代表許多現(xiàn)實世界的復(fù)雜性。
3.決策樹
首先要研究的非線性算法應(yīng)該是決策樹。決策樹是一種基于if-else規(guī)則的,相對簡單且可解釋的算法,它將讓你很好地掌握非線性算法及其優(yōu)缺點(diǎn)。
決策樹是所有基于樹模型的基礎(chǔ),通過學(xué)習(xí)決策樹,你還將準(zhǔn)備學(xué)習(xí)其他技術(shù),如XGBoost或LightGBM。
而且,決策樹同時適用于回歸和分類問題,兩者之間的差異最小,選擇影響結(jié)果的最佳變量的基本原理大致相同,你只是換了一個標(biāo)準(zhǔn)來做。
雖然你了解了回歸中超參數(shù)的概念,如正則化參數(shù),但在決策樹中這是極其重要的,能夠幫你明確區(qū)分模型的好壞。
同時,超參數(shù)在學(xué)習(xí)機(jī)器學(xué)習(xí)的過程中也至關(guān)重要,決策樹能很好地對其進(jìn)行測試。
4.隨機(jī)森林
由于決策樹對超參數(shù)和簡單假設(shè)的敏感性,決策樹的結(jié)果相當(dāng)有限。當(dāng)你深入了解后,你會明白決策樹很容易過度擬合,從而得出的模型對未來缺乏概括性。
隨機(jī)森林的概念非常簡單。有助于在不同的決策樹之間實現(xiàn)多樣化,從而提高算法的穩(wěn)健性。
就像決策樹一樣,你可以配置大量的超參數(shù),以增強(qiáng)這種集成模型的性能。集成(bagging)是在機(jī)器學(xué)習(xí)中一個非常重要的概念,能為不同的模型帶來了穩(wěn)定性,即用平均數(shù)或投票機(jī)制將不同模型的結(jié)果轉(zhuǎn)化為一個單一的方法。
在實踐中,隨機(jī)森林訓(xùn)練了固定數(shù)量的決策樹,并對之前所有這些模型的結(jié)果進(jìn)行平均。就像決策樹一樣,我們有分類和回歸隨機(jī)森林。如果你聽說過 “群體智慧 "這個概念,那么集成模型就相當(dāng)于將這個概念應(yīng)用于機(jī)器模型訓(xùn)練。
5.XGBoost/LightGBM
其他基于決策樹的算法,并能帶來穩(wěn)定性的模型有XGBoost或LightGBM。不僅能提升算法,還能提供更穩(wěn)健和概括性的模式。
在Michael Kearns發(fā)表了關(guān)于弱學(xué)習(xí)者和假設(shè)檢驗的論文后,關(guān)于機(jī)器學(xué)習(xí)模型的思潮得到了關(guān)注。當(dāng)中表明,增強(qiáng)模型是解決模型受到整體權(quán)衡偏差與方差的絕佳方案。此外,這些模型是Kaggle競賽中最受歡迎的選擇。
6.人工神經(jīng)網(wǎng)絡(luò)
最后,是當(dāng)前預(yù)測模型中的王者——人工神經(jīng)網(wǎng)絡(luò)(ANNs)。
人工神經(jīng)網(wǎng)絡(luò)是目前最好的模型之一,可以在數(shù)據(jù)中找到非線性模式,并在自變量和因變量之間建立真正復(fù)雜的關(guān)系。通過學(xué)習(xí)人工神經(jīng)網(wǎng)絡(luò),你將接觸到激活函數(shù)、反向傳播和神經(jīng)網(wǎng)絡(luò)層的概念,這些概念應(yīng)該為你研究深度學(xué)習(xí)模型打下良好的基礎(chǔ)。
此外,神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)上有很多不同的特點(diǎn),學(xué)習(xí)最基本的神經(jīng)網(wǎng)絡(luò)將為轉(zhuǎn)到其他類型的模型打下基礎(chǔ),如主要用于自然語言處理和遞歸神經(jīng)網(wǎng)絡(luò)和主要用于計算機(jī)視覺的卷積神經(jīng)網(wǎng)絡(luò)。
結(jié)語:
以上就是今天的全部內(nèi)容。掌握這些模型應(yīng)該會讓你在數(shù)據(jù)分析和機(jī)器學(xué)習(xí)方面有一個不錯的開始。
參考鏈接:
https://www.kdnuggets.com/2021/12/6-predictive-models-every-beginner-data-scientist-master.html