自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

7個深度神經(jīng)網(wǎng)絡(luò)可視化工具,不可錯過!

人工智能 深度學(xué)習(xí)
為了更方便 TensorFlow 程序的理解、調(diào)試與優(yōu)化,Google 發(fā)布了一套叫做 TensorBoard 的可視化工具。你可以用 TensorBoard 來展現(xiàn)你的 TensorFlow 圖像,繪制圖像生成的定量指標(biāo)圖以及附加數(shù)據(jù)。

TensorBoard:TensorFlow 集成可視化工具

GitHub 官方項(xiàng)目:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/tensorboard

TensorBoard 涉及到的運(yùn)算,通常是在訓(xùn)練龐大的深度神經(jīng)網(wǎng)絡(luò)中出現(xiàn)的復(fù)雜而又難以理解的運(yùn)算。

為了更方便 TensorFlow 程序的理解、調(diào)試與優(yōu)化,Google 發(fā)布了一套叫做 TensorBoard 的可視化工具。你可以用 TensorBoard 來展現(xiàn)你的 TensorFlow 圖像,繪制圖像生成的定量指標(biāo)圖以及附加數(shù)據(jù)。

當(dāng) TensorBoard 設(shè)置完成后,它應(yīng)該是這樣子的:

 

輸入下面的指令來啟動 tensorboard:

  1. tensorboard --logdir=/path/to/log-directory 

這里的參數(shù) logdir 指向 SummaryWriter 序列化數(shù)據(jù)的存儲路徑。如果 logdir 目錄的子目錄中包含另一次運(yùn)行時(shí)的數(shù)據(jù),那么 TensorBoard 會展示所有運(yùn)行的數(shù)據(jù)。一旦 TensorBoard 開始運(yùn)行,你可以通過在瀏覽器中輸入 localhost:6006 來查看 TensorBoard。進(jìn)入 TensorBoard 的界面時(shí),你會在右上角看到導(dǎo)航選項(xiàng)卡,每一個選項(xiàng)卡將展現(xiàn)一組可視化的序列化數(shù)據(jù)集 。對于你查看的每一個選項(xiàng)卡,如果 TensorBoard 中沒有數(shù)據(jù)與這個選項(xiàng)卡相關(guān)的話,則會顯示一條提示信息指示你如何序列化相關(guān)數(shù)據(jù)。

TensorFlow 圖表計(jì)算強(qiáng)大而又復(fù)雜,圖表可視化在理解和調(diào)試時(shí)顯得非常有幫助。

更多詳細(xì)內(nèi)容參考:

  • [TensorFlow 中文社區(qū)] TensorBoard: 可視化學(xué)習(xí)
  • [TensorFlow 中文社區(qū)] TensorBoard: 圖表可視化
  • [極客學(xué)院] TensorBoard: 可視化學(xué)習(xí)

Netscope: 支持 Caffe 的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在線可視化工具

官網(wǎng):http://ethereon.github.io/netscope/quickstart.html

GitHub 項(xiàng)目:https://github.com/ethereon/netscope

“A web-based tool for visualizing neural network architectures (or technically, any directed acyclic graph). It currently supports Caffe’s prototxt format.”

Netscope 是一個支持 prototxt 格式描述的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的在線可視工具。它可以用來可視化 Caffe 結(jié)構(gòu)里 prototxt 格式的網(wǎng)絡(luò)結(jié)構(gòu),使用起來也非常簡單,打開這個地址http://ethereon.github.io/netscope/#/editor,把你的描述神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的 prototxt 文件復(fù)制到該編輯框里,按 shift+enter,就可以直接以圖形方式顯示網(wǎng)絡(luò)的結(jié)構(gòu)了。

比如,以 mnist 的 Lenet 和 imagenet 的 AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)為例,分別把 Caffe 中 caffe/examples/mnist/lenet_train_test.prototxt和 caffe/models/bvlc_alexnet/train_val.prototxt

文件的內(nèi)容復(fù)制到左側(cè)編譯框,按 shift+enter, 立即就可以得到可視化的結(jié)構(gòu)圖,具體每層的參數(shù)等,如下:

 

 

Netscope 給出的幾個常見 CNN 網(wǎng)絡(luò)結(jié)構(gòu)示例:

  • AlexNet | Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton
  • CaffeNet | Yangqing Jia, Evan Shelhamer, et. al.
  • Fully Convolutional Network — Three Stream | Jonathan Long, Evan Shelhamer, Trevor Darrell
  • GoogleNet | Christian Szegedy, et. al.
  • Network in Network | Min Lin, Qiang Chen, Shuicheng Yan
  • VGG 16 Layers | Karen Simonyan, Andrew Zisserman

以上網(wǎng)絡(luò)的 prototxt 源文件見:https://github.com/ethereon/netscope/tree/gh-pages/presets 。

使用 python/draw_net.py 繪制網(wǎng)絡(luò)模型

python/draw_net.py,這個文件,就是用來繪制網(wǎng)絡(luò)模型的,也就是將網(wǎng)絡(luò)模型由 prototxt 變成一張圖片。

在繪制之前,需要先安裝兩個庫

1. 安裝GraphViz

  1. $ sudo apt-get install GraphViz 

注意,這里用的是 apt-get 來安裝,而不是 pip。

2. 安裝 pydot

  1. $ sudo pip install pydot 

用的是 pip 來安裝,而不是 apt-get。

安裝好了,就可以調(diào)用腳本來繪制圖片了。

draw_net.py 執(zhí)行的時(shí)候帶三個參數(shù):

  • 第一個參數(shù):網(wǎng)絡(luò)模型的 prototxt 文件;
  • 第二個參數(shù):保存的圖片路徑及名字;
  • 第二個參數(shù):- - rankdir = x,x 有四種選項(xiàng),分別是 LR, RL, TB, BT 。用來表示網(wǎng)絡(luò)的方向,分別是從左到右,從右到左,從上到小,從下到上。默認(rèn)為 LR。

例:繪制 Lenet 模型

  1. $ sudo python python/draw_net.py examples/mnist/lenet_train_test.prototxt netImage/lenet.png --rankdir=BT 

 

參考閱讀:

  • Netscope: 支持 Caffe 的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在線可視化工具
  • Caffe 學(xué)習(xí)系列 (18): 繪制網(wǎng)絡(luò)模型
  • Caffe 學(xué)習(xí)系列——工具篇:神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)可視化
  • 深度網(wǎng)絡(luò)的設(shè)計(jì)與可視化工具

Neural Network Playground

官網(wǎng):http://playground.tensorflow.org

GitHub 項(xiàng)目:https://github.com/tensorflow/playground

Deep playground is an interactive visualization of neural networks, written in typescript using d3.js.

PlayGround 是一個圖形化用于教學(xué)目的的簡單神經(jīng)網(wǎng)絡(luò)在線演示、實(shí)驗(yàn)的平臺,非常強(qiáng)大地可視化了神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程。 

 

參考閱讀:

  • [知乎] 誰能詳細(xì)講解一下 TensorFlow Playground 所展示的神經(jīng)網(wǎng)絡(luò)的概念?
  • [Blog] 結(jié)合 TensorFlow PlayGround 的簡單神經(jīng)網(wǎng)絡(luò)原理解釋

ConvnetJS

官網(wǎng):http://cs.stanford.edu/people/karpathy/convnetjs/

GitHub 項(xiàng)目:https://github.com/karpathy/convnetjs

ConvNetJS is a Javascript library for training Deep Learning models (Neural Networks) entirely in your browser. Open a tab and you’re training. No software requirements, no compilers, no installations, no GPUs, no sweat.

 

Some Online Demos

  • Convolutional Neural Network on MNIST digits
  • Convolutional Neural Network on CIFAR-10
  • Toy 2D data
  • Toy 1D regression
  • Training an Autoencoder on MNIST digits
  • Deep Q Learning Reinforcement Learning demo
  • Image Regression (“Painting”)
  • Comparison of SGD/Adagrad/Adadelta on MNIST

更多內(nèi)容請關(guān)注官網(wǎng)和 GutHub 項(xiàng)目 README。

WEVI

官網(wǎng):wevi: word embedding visual inspector

GitHub 項(xiàng)目:https://github.com/ronxin/wevi

 

具體參考:wevi: Word Embedding Visual Inspector

CNNVis

文章來源:Towards Better Analysis of Deep Convolutional Neural Networks arxiv.org/abs/1604.07043

具體參見:能幫你更好理解分析深度卷積神經(jīng)網(wǎng)絡(luò),今天要解讀的是一款新型可視化工具——CNNVis,看完就能用!

摘要: 深度卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在許多模式識別任務(wù)中取得了很大的性能突破, 然而高質(zhì)量深度模型的發(fā)展依賴于大量的嘗試,這是由于沒有很好的理解深度模型是怎么工作的,在本文中,提出了一個可視化分析系統(tǒng) CNNVis,幫助機(jī)器學(xué)習(xí)專家更好的理解、分析、設(shè)計(jì)深度卷積神經(jīng)網(wǎng)絡(luò)。

責(zé)任編輯:龐桂玉 來源: THU數(shù)據(jù)派
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號