我們在使用卷積神經(jīng)網(wǎng)絡(luò)或遞歸神經(jīng)網(wǎng)絡(luò)或其他變體時,通常都希望對模型的架構(gòu)可以進行可視化的查看,因為這樣我們可以 在定義和訓(xùn)練多個模型時,比較不同的層以及它們放置的順序?qū)Y(jié)果的影響。還有可以更好地理解模型結(jié)構(gòu)、激活函數(shù)、模型參數(shù)形狀(神經(jīng)元數(shù)量)等。

keras 中有一些現(xiàn)成的包可以創(chuàng)建我們的神經(jīng)網(wǎng)絡(luò)模型的可視化表示。前三個包可以在模型訓(xùn)練之前使用(只需要定義和編譯模型);但是Tensor Boards 要求用戶在架構(gòu)可視化之前根據(jù)準(zhǔn)確的數(shù)據(jù)訓(xùn)練模型。
在開始進行可視化之前,我們先需要安裝相應(yīng)的包:
pip install visualkeras
pip install ann_visualizer
pip install graphviz
然后我們創(chuàng)建一個模型,并用這4個包來進行可視化:
在實際使用時我們希望的是通過可視化來對比模型架構(gòu),所以這里定義三個具有不同超參數(shù) CNN 模型。我們創(chuàng)建了用戶定義的函數(shù)來分別構(gòu)建具有不同數(shù)量的 CNN 層、池化層和最后的密集層的三個不同模型。
架構(gòu)1:淺層CNN+分類頭
def construct_model():
model = Sequential()
model.add(Conv2D(filters=64, kernel_size=(3, 3), input_shape=(128, 128, 1), activation=’relu’))
model.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
model.add(MaxPool2D((2, 2)))
model.add(Flatten())
model.add(Dense(256, activation=’relu’))model.add(Dense(12, activation=’softmax’))
model.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[‘a(chǎn)ccuracy’])
return model
架構(gòu)2:深層CNN+mlp分類頭
def sconstruct_model():
smodel = Sequential()
smodel.add(Conv2D(filters=64, kernel_size=(3, 3), input_shape=(128, 128, 3), activation=’relu’))
smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Flatten())
smodel.add(Dense(256, activation=’relu’))
smodel.add(Dense(12, activation=’softmax’))
#optimizer = Adam(lr=0.001)
smodel.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[‘a(chǎn)ccuracy’])
#model.summary()
return smodel
架構(gòu)3:深層CNN+分類頭
def cconstruct_model(learningRate):
smodel = Sequential()
smodel.add(Conv2D(filters=32, kernel_size=(3, 3), input_shape=(128, 128, 1), activation=’relu’))
smodel.add(Conv2D(filters=32, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
smodel.add(Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(Conv2D(filters=128, kernel_size=(3, 3), activation=’relu’))
smodel.add(MaxPool2D((2, 2)))
smodel.add(Flatten())
smodel.add(Dense(256, activation=’relu’))
smodel.add(Dense(256, activation=’relu’))
smodel.add(Dense(12, activation=’softmax’))
optimizer = Adam(lr=learningRate)
smodel.compile(loss=’categorical_crossentropy’, optimizer=optimizer, metrics=[‘a(chǎn)ccuracy’])
smodel.summary()
return smodel
有了這3個模型,我們將使用4種方法來可視化cnn的結(jié)構(gòu)
ANN Visualizer
ANN Visualizer 的 Python 模塊可以通過幾行代碼來可視化神經(jīng)網(wǎng)絡(luò)。它使用 Keras 和 Python 的 Graphviz 模塊來生成一個整潔的神經(jīng)網(wǎng)絡(luò)圖。它是最早的幾個可視化包之一,但是最近已經(jīng)不更新了,我們先介紹他是因為它算是最早出現(xiàn)的,也是最有名的。
ANN Visualizer可視化需要首先編譯模型
主要參數(shù)如下:
- ann_viz(model, view=True, filename=”network.gv”, title=”MyNeural Network”)
- model—Keras的模型
- view—在調(diào)用ann_viz()之后顯示可視化圖形
- filename—文件名
- title—自定義標(biāo)題
from ann_visualizer.visualize import ann_viz
ann_viz(model, view=True, filename=”cconstruct_model”, title=”CNN — Model 1 — Simple Architecture”)

上面就是使用ANN Visualizer創(chuàng)建的construct_model()的可視化圖。可以看到,如果模型太大顯示效果不會太好,這可能也是ANN Visualizer被淘汰的一個原因。
Visual Keras
Visualkeras可以更容易地查看Keras的神經(jīng)網(wǎng)絡(luò)設(shè)計(可以單獨查看,也可以作為TensorFlow的一部分)。
model1=construct_model()
model2=sconstruct_model()
model3=cconstruct_model(0.009)
import visualkeras
from PIL import ImageFont
visualkeras.layered_view(model1, legend=True)
visualkeras.layered_view(model2, legend=True)
visualkeras.layered_view(model3, legend=True)
model1=construct_model()
model2=sconstruct_model()
model3=cconstruct_model(0.009)
import visualkeras
from PIL import ImageFont
visualkeras.layered_view(model1, legend=True)
visualkeras.layered_view(model2, legend=True)
visualkeras.layered_view(model3, legend=True)



可以通過可視化來對比出不同層的大小,這個還是很有用的。
Keras Model Plot
keras.utils.plot_model是keras的內(nèi)建繪制Keras模型函數(shù),它使用了Graphviz和pydot包。從圖上可,它不如上面使用的包直觀,但它概述了順序模型的基本體系結(jié)構(gòu)。
tf.keras.utils.plot_model(model1,to_file="model.png",show_shapes=True,show_dtype=False,show_layer_names=True,rankdir="TB",expand_nested=True,dpi=96,layer_range=None,show_layer_activatinotallow=True,)
一下是幾個參數(shù)的介紹:
- model: Keras編譯后的模型或模型對象的實例
- to_file:保存的文件名
- Show_shapes:顯示神經(jīng)網(wǎng)絡(luò)中每一層的尺寸和形狀
- show_layer_activation:顯示神經(jīng)元內(nèi)部使用的激活函數(shù)

TensorBoard
TensorBoard 允許用戶可視化不同模型運行的日志。日志的范圍可以從跟蹤任何模型驗證度量(不同輪次的準(zhǔn)確率、召回率、RMSE、MAPE 和 MSE)到創(chuàng)建模型的架構(gòu)圖。它是一個強大的工具,可以可視化預(yù)期模型是否與預(yù)期設(shè)計匹配,同時深入了解如何使用操作級圖更改模型。
我們需要先加載 TensorBoard,然后創(chuàng)建一個日志目錄。
%load_ext tensorboard
from datetime import datetime
from tensorflow import keras
logdir="logs/fit/" + datetime.now().strftime("%Y%m%d-%H%M%S")
tensorboard_callback = keras.callbacks.TensorBoard(log_dir=logdir)
使用Keras TensorBoard回調(diào)函數(shù),在訓(xùn)練前指定日志目錄。然后通過向model.fit()提供這個回調(diào)來保證數(shù)據(jù)被記錄在TensorBoard中。
model.fit(X2_train, Y2_train,batch_size=64,epochs=5,callbacks=[tensorboard_callback])
X2_train和Y2_train是上面代碼中沒有反映的訓(xùn)練數(shù)據(jù)集。你可以用你自己的任何訓(xùn)練數(shù)據(jù)來替換它。

可以看到TensorBoard 始終會顯示操作級別的圖表,雖然對于每一層的架構(gòu)并不明顯,但是對于每一個操作缺失非常詳細(xì)的。
還需要注意的是,與代碼相比該圖是上下顛倒的,因為數(shù)據(jù)從底部流向頂部。但是該圖大致類似于 Keras 模型的描述,有額外的邊通向其他計算節(jié)點。