數(shù)據(jù)挖掘從入門到放棄之決策樹
決策樹算法理解
決策樹是直觀運用概率分析的樹形分類器,是很常用的分類方法,屬于監(jiān)管學習,決策樹分類過程是從根節(jié)點開始,根據(jù)特征屬性值選擇輸出分支,直到到達葉子節(jié)點,將葉子節(jié)點存放的類別作為決策結(jié)果。
比如說買瓜的時候,根據(jù)瓜的某些特征屬性直觀判斷瓜的好壞,下圖依次根據(jù)紋理清晰度、根蒂、色澤、觸感4個進行分類,生活中我們會將某個最重要或最明顯的分類屬性放在第一位,然后是次重要屬性,這很符合我們平常的判斷思維,這就是決策樹!
在特征屬性非常大的時候,就出現(xiàn)了首選哪個特征屬性進行分類?如何剪枝?分類的層次是多少?....系列問題,這些就是決策樹構(gòu)建的核心問題,而且不可能再通過生活直覺判,這時候就要運用數(shù)學思維。根據(jù)上面問題的不同解決方案,決策樹又分為了ID3(熵增益)、C4.5(熵增益率)、CART幾種同類算法。
熵增益(ID3)
通信層面,信息熵衡量信息的不確定性,信息熵越大表明信息越不準確,可以用信息熵的減少值來衡量信息的價值。在決策樹模型中把信息確定性叫做熵增益,有了熵增益后,我們就可以根據(jù)熵增益來判斷特征值的重要程度,從而選取最重要的特征作為第一次切分,再根據(jù)相同的方法用其他特征進行切分,直到得到得到每個劃分的葉子節(jié)點。信息熵的定義是:
以某個特征屬性值切分后子集熵的和稱為條件A下的熵,也叫做條件熵,可以如下表示:
分類前的信息熵減去條件熵,得到熵增益:
比如說有以下數(shù)據(jù)集(相親結(jié)果表lol..)
6條數(shù)據(jù)中相中(4個)與不想中(2個),暫且不關(guān)系如何進行分類,我們首先計算這個分類結(jié)果的信息熵:
其次,我們計算“富”屬性的條件信息熵,6條數(shù)據(jù)中“富”與否各半,其中3個“富”都被分類到“相中”,3個“不富”都被分到“不想中”:
兩者之差就是我們想要得到的熵增益:
計算各個特征屬性的熵增益后,比較哪個熵增益最大,就選擇該屬性做第一分類特征。
熵增益率(C4.5)
按照熵增益最大準則的ID3算法,遇到全部都是非重復值(類似ID)屬性容易造成過擬合,因為如果根據(jù)ID這個屬性進行劃分發(fā)現(xiàn)此時的熵增益是最大的:
信息增益率定義為:
其中info就是該特征屬性中,屬性值的信息熵:
按照上面的例子計算,“富”的增益率為:
剪枝處理
當訓練數(shù)據(jù)量大、特征數(shù)量較多時構(gòu)建的決策樹過于龐大時,可能對訓練集依賴過多,也就是對訓練數(shù)據(jù)過度擬合。從訓練數(shù)據(jù)集上看,擬合效果很好,但對于測試數(shù)據(jù)集或者新的實例來說,并不一定能夠準確預測出其結(jié)果。因此,對于決策樹的構(gòu)建還需要最后一步--決策樹的修剪,主要分為2種:預剪枝(Pre-Pruning)和后剪枝(Post-Pruning),這里先不講。
鳶尾花(iris)分類模型
Iris 鳶尾花數(shù)據(jù)集是一個經(jīng)典數(shù)據(jù)集,在統(tǒng)計學習和機器學習領(lǐng)域都經(jīng)常被用作示例。數(shù)據(jù)集內(nèi)包含 3 類共 150 條記錄,每類各 50 個數(shù)據(jù),每條記錄都有 4 項特征:花萼長度、花萼寬度、花瓣長度、花瓣寬度,可以通過這4個特征預測鳶尾花卉屬于(iris-setosa, iris-versicolour, iris-virginica)中的哪一品種,數(shù)據(jù)集地址:https://github.com/yezonggang/iris
- import pandas as pd
- from pandas import DataFrame
- import numpy as np
- import matplotlib.pyplot as plt
- %matplotlib inline
- import seaborn as sns
- from sklearn.tree import DecisionTreeClassifier
- from sklearn import metrics
- baseUrl="C:\\Users\\71781\\Desktop\\2020\\ML-20200422\\iris\\"
- iris_df=pd.read_csv(baseUrl+"iris.csv")
- iris_df.head()
- iris_df.describe()
數(shù)據(jù)分布探索:
- # pandas 自帶的散點圖
- iris_df.plot(kind="scatter", x="Sepal.Length", y="Sepal.Width")
- # seaborn 的聯(lián)合分布圖
- sns.jointplot(x="Sepal.Length", y="Sepal.Width", data=iris_df, height=5)
- # 上面的兩個散點圖并不能顯示每一個點所屬的類別
- # 所以,接下來用 seaborn 的 FacetGrid 函數(shù)按照Species花的種類來在散點圖上標上不同的顏色,hue英文是色彩的意思。
- sns.FacetGrid(iris_df, hue="Species", height=5).map(plt.scatter, "Sepal.Length", "Sepal.Width").add_legend()
- # 通過箱線圖來查看單個特征的分布
- # 對 Numerical Variable,可以用 Box Plot 來直觀地查看不同花類型的分布。
- sns.boxplot(x="Species", y="Sepal.Length", data=iris_df)
- # 下面的操作,將每一個Species所屬的點加到對應的位置,加上散點圖,
- # 振動值jitter=True 使各個散點分開,要不然會是一條直線
- # 注意此處要將坐標圖用ax先保存起來,這樣第二次才會在原來的基礎(chǔ)上加上散點圖
- ax = sns.boxplot(x="Species", y="Sepal.Length", data=iris_df)
- ax = sns.stripplot(x="Species", y="Sepal.Length", data=iris_df, jitter=True, edgecolor="gray")
- # violinplot 小提琴圖,查看密度分布,結(jié)合了前面的兩個圖,并且進行了簡化
- # 數(shù)據(jù)越稠密越寬,越稀疏越窄
- sns.violinplot(x="Species", y="Sepal.Length", data=iris_df, height=6)
- # sns.kdeplot == kernel density 核密度圖(單個變量)
- sns.FacetGrid(iris_df, hue="Species", height=6).map(sns.kdeplot, "Sepal.Length").add_legend()
- # pairplot 任意兩個變量間的關(guān)系
- sns.pairplot(iris_df, hue="Species", height=3)
- # 模型構(gòu)建比較簡單,關(guān)鍵是模型的調(diào)參
- train_df=test_df=iris_df.sample(frac=0.8,replace=False, random_state=None)
- train_X=train_df.drop(['Species'],axis=1)
- train_Y=train_df['Species']
- # 由于么有提供建模數(shù)據(jù)集,所以我們隨機從樣本集中選擇40%的數(shù)據(jù)集
- # replace=False 無放回的抽取
- # random-state 數(shù)據(jù)不能重復
- test_df=iris_df.sample(frac=0.9,replace=False, random_state=None)
- test_df.head()
- test_X=test_df.drop(['Species'],axis=1)
- test_Y=test_df['Species']
- model=DecisionTreeClassifier()
- model.fit(train_X, train_Y)
- prediction = model.predict(test_X)
- print('The accuracy of the Decision Tree is: {0}'.format(metrics.accuracy_score(prediction,test_Y)))
分類決策樹總共有12個參數(shù)可以自己調(diào)整,這么多參數(shù)一個個記起來太麻煩,我們可以把這些參數(shù)分成幾個類別:
1)分類策略:有兩個參數(shù) ‘entropy’(熵) 和 ‘gini’(基尼系數(shù))可選,默認為gini。
2)max_depth(樹的最大深度):默認為None,此時決策樹在建立子樹的時候不會限制子樹的深度。也可以設置具體的整數(shù),一般來說,數(shù)據(jù)少或者特征少的時候可以不管這個值。如果模型樣本量多,特征也多的情況下,推薦限制這個最大深度,具體的取值取決于數(shù)據(jù)的分布。常用的可以取值10-100之間。
3)min_samples_split(分割內(nèi)部節(jié)點所需的最小樣本數(shù)):意思就是只要在某個結(jié)點里有k個以上的樣本,這個節(jié)點才需要繼續(xù)劃分,這個參數(shù)的默認值為2,也就是說只要有2個以上的樣本被劃分在一個節(jié)點,如果這兩個樣本還可以細分,這個節(jié)點就會繼續(xù)細分
4)min_samples_leaf(葉子節(jié)點上的最小樣本數(shù)):當你劃分給某個葉子節(jié)點的樣本少于設定的個數(shù)時,這個葉子節(jié)點會被剪枝,這樣可以去除一些明顯異常的噪聲數(shù)據(jù)。默認為1,也就是說只有有兩個樣本類別不一樣,就會繼續(xù)劃分。如果是int,那么將min_samples_leaf視為最小數(shù)量。如果為float,則min_samples_leaf為分數(shù),ceil(min _ samples _ leaf * n _ samples)為每個節(jié)點的最小樣本數(shù)。
本文轉(zhuǎn)載自微信公眾號「數(shù)據(jù)社」,可以通過以下二維碼關(guān)注。轉(zhuǎn)載本文請聯(lián)系數(shù)據(jù)社公眾號。