自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一個(gè)單層的基礎(chǔ)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)手寫字識(shí)別

開發(fā) 后端 人工智能
這篇文章是我根據(jù)個(gè)人的一些理解來寫的,后續(xù)如果發(fā)現(xiàn)有錯(cuò)誤,我會(huì)在新文章說出來,但這篇文章不做保留,方便后續(xù)檢查思考記錄的時(shí)候知道到底怎么踩坑的。

[[214992]] 


先上代碼 

  1. import tensorflow 
  2.  
  3. from tensorflow.examples.tutorials.mnist import input_data 
  4.  
  5. import matplotlib.pyplot as plt 
  6.  
  7.  
  8.  
  9. # 普通的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí) 
  10.  
  11. # 學(xué)習(xí)訓(xùn)練類 
  12.  
  13. class Normal: 
  14.  
  15.  
  16.  
  17.     weight = [] 
  18.  
  19.     biases = [] 
  20.  
  21.  
  22.  
  23.     def __init__(self): 
  24.  
  25.         self.times = 1000 
  26.  
  27.         self.mnist = [] 
  28.  
  29.         self.session = tensorflow.Session() 
  30.  
  31.         self.xs = tensorflow.placeholder(tensorflow.float32, [None, 784]) 
  32.  
  33.         self.ys = tensorflow.placeholder(tensorflow.float32, [None, 10]) 
  34.  
  35.         self.save_path = 'learn/result/normal.ckpt' 
  36.  
  37.  
  38.  
  39.     def run(self): 
  40.  
  41.         self.import_data() 
  42.  
  43.         self.train() 
  44.  
  45.         self.save() 
  46.  
  47.  
  48.  
  49.     def _setWeight(self,weight): 
  50.  
  51.         self.weight = weight 
  52.  
  53.  
  54.  
  55.     def _setBiases(self,biases): 
  56.  
  57.         self.biases = biases 
  58.  
  59.  
  60.  
  61.     def _getWeight(self): 
  62.  
  63.         return self.weight 
  64.  
  65.  
  66.  
  67.     def _getBiases(self): 
  68.  
  69.         return self.biases 
  70.  
  71.     # 訓(xùn)練 
  72.  
  73.     def train(self): 
  74.  
  75.  
  76.  
  77.         prediction = self.add_layer(self.xs, 784, 10, activation_function=tensorflow.nn.softmax) 
  78.  
  79.  
  80.  
  81.         cross_entropy = tensorflow.reduce_mean( 
  82.  
  83.             -tensorflow.reduce_sum( 
  84.  
  85.                 self.ys * tensorflow.log(prediction) 
  86.  
  87.                 , reduction_indices=[1]) 
  88.  
  89.         ) 
  90.  
  91.         train_step = tensorflow.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 
  92.  
  93.  
  94.  
  95.         self.session.run(tensorflow.global_variables_initializer()) 
  96.  
  97.  
  98.  
  99.         for i in range(self.times): 
  100.  
  101.             batch_xs, batch_ys = self.mnist.train.next_batch(100) 
  102.  
  103.             self.session.run(train_step, feed_dict={self.xs: batch_xs, self.ys: batch_ys}) 
  104.  
  105.             if i % 50 == 0: 
  106.  
  107.                 # images 變換為 labels,images相當(dāng)于x,labels相當(dāng)于y 
  108.  
  109.                 accurary = self.computer_accurary( 
  110.  
  111.                     self.mnist.test.images, 
  112.  
  113.                     self.mnist.test.labels, 
  114.  
  115.                     prediction 
  116.  
  117.                 ) 
  118.  
  119.  
  120.  
  121.     # 數(shù)據(jù)導(dǎo)入 
  122.  
  123.     def import_data(self): 
  124.  
  125.         self.mnist = input_data.read_data_sets('MNIST_data', one_hot=True
  126.  
  127.  
  128.  
  129.     # 數(shù)據(jù)保存 
  130.  
  131.     def save(self): 
  132.  
  133.         saver = tensorflow.train.Saver() 
  134.  
  135.         path = saver.save(self.session,self.save_path) 
  136.  
  137.  
  138.  
  139.     # 添加隱藏層 
  140.  
  141.     def add_layer(self,inputs,input_size,output_size,activation_function=None): 
  142.  
  143.  
  144.  
  145.         weight = tensorflow.Variable(tensorflow.random_normal([input_size,output_size]),dtype=tensorflow.float32,name='weight'
  146.  
  147.  
  148.  
  149.         biases = tensorflow.Variable(tensorflow.zeros([1,output_size]) + 0.1,dtype=tensorflow.float32,name='biases'
  150.  
  151.         Wx_plus_b = tensorflow.matmul(inputs,weight) + biases 
  152.  
  153.  
  154.  
  155.         self._setBiases(biases) 
  156.  
  157.         self._setWeight(weight) 
  158.  
  159.  
  160.  
  161.         if activation_function is None: 
  162.  
  163.             outputs = Wx_plus_b 
  164.  
  165.         else
  166.  
  167.             outputs = activation_function(Wx_plus_b,) 
  168.  
  169.  
  170.  
  171.         return outputs 
  172.  
  173.  
  174.  
  175.  
  176.  
  177.     # 計(jì)算結(jié)果數(shù)據(jù)與實(shí)際數(shù)據(jù)的正確率 
  178.  
  179.     def computer_accurary(self,x_data,y_data,tf_prediction): 
  180.  
  181.  
  182.  
  183.         prediction = self.session.run(tf_prediction,feed_dict={self.xs:x_data,self.ys:y_data}) 
  184.  
  185.  
  186.  
  187.         # 返回兩個(gè)矩陣中***值的索引號(hào)位置,然后進(jìn)行相應(yīng)位置的值大小比較并在此位置設(shè)置為True/False 
  188.  
  189.         correct_predition = tensorflow.equal(tensorflow.argmax(prediction,1),tensorflow.argmax(y_data,1)) 
  190.  
  191.  
  192.  
  193.         # 進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換,然后進(jìn)行降維求平均值 
  194.  
  195.         accurary = tensorflow.reduce_mean(tensorflow.cast(correct_predition,tensorflow.float32)) 
  196.  
  197.  
  198.  
  199.         result = self.session.run(accurary,feed_dict={self.xs:x_data,self.ys:y_data}) 
  200.  
  201.  
  202.  
  203.         return result 
  204.  
  205.  
  206.  
  207. # 識(shí)別類 
  208.  
  209. class NormalRead(Normal): 
  210.  
  211.  
  212.  
  213.     input_size = 784 
  214.  
  215.     output_size = 10 
  216.  
  217.  
  218.  
  219.     def run(self): 
  220.  
  221.         self.import_data() 
  222.  
  223.         self.getSaver() 
  224.  
  225.         origin_input = self._getInput() 
  226.  
  227.         output = self.recognize(origin_input) 
  228.  
  229.  
  230.  
  231.         self._showImage(origin_input) 
  232.  
  233.         self._showOutput(output
  234.  
  235.         pass 
  236.  
  237.  
  238.  
  239.     # 顯示識(shí)別結(jié)果 
  240.  
  241.     def _showOutput(self,output): 
  242.  
  243.         number = output.index(1) 
  244.  
  245.         print('識(shí)別到的數(shù)字:',number) 
  246.  
  247.  
  248.  
  249.     # 顯示被識(shí)別圖片 
  250.  
  251.     def _showImage(self,origin_input): 
  252.  
  253.         data = [] 
  254.  
  255.         tmp = [] 
  256.  
  257.         i = 1 
  258.  
  259.         # 原數(shù)據(jù)轉(zhuǎn)換為可顯示的矩陣 
  260.  
  261.         for v in origin_input[0]: 
  262.  
  263.             if i %28 == 0: 
  264.  
  265.                 tmp.append(v) 
  266.  
  267.                 data.append(tmp) 
  268.  
  269.                 tmp = [] 
  270.  
  271.             else
  272.  
  273.                 tmp.append(v) 
  274.  
  275.             i += 1 
  276.  
  277.  
  278.  
  279.         plt.figure() 
  280.  
  281.         plt.imshow(data, cmap='binary')  # 黑白顯示 
  282.  
  283.         plt.show() 
  284.  
  285.  
  286.  
  287.  
  288.  
  289.     def _setBiases(self,biases): 
  290.  
  291.         self.biases = biases 
  292.  
  293.         pass 
  294.  
  295.  
  296.  
  297.     def _setWeight(self,weight): 
  298.  
  299.         self.weight = weight 
  300.  
  301.         pass 
  302.  
  303.  
  304.  
  305.     def _getBiases(self): 
  306.  
  307.         return self.biases 
  308.  
  309.  
  310.  
  311.     def _getWeight(self): 
  312.  
  313.         return self.weight 
  314.  
  315.  
  316.  
  317.     # 獲取訓(xùn)練模型 
  318.  
  319.     def getSaver(self): 
  320.  
  321.         weight = tensorflow.Variable(tensorflow.random_normal([self.input_size, self.output_size]), dtype=tensorflow.float32,name='weight'
  322.  
  323.  
  324.  
  325.         biases = tensorflow.Variable(tensorflow.zeros([1, self.output_size]) + 0.1, dtype=tensorflow.float32, name='biases'
  326.  
  327.  
  328.  
  329.         saver = tensorflow.train.Saver() 
  330.  
  331.         saver.restore(self.session,self.save_path) 
  332.  
  333.  
  334.  
  335.         self._setWeight(weight) 
  336.  
  337.         self._setBiases(biases) 
  338.  
  339.  
  340.  
  341.     def recognize(self,origin_input): 
  342.  
  343.         input = tensorflow.placeholder(tensorflow.float32,[None,784]) 
  344.  
  345.         weight = self._getWeight() 
  346.  
  347.         biases = self._getBiases() 
  348.  
  349.  
  350.  
  351.         result = tensorflow.matmul(input,weight) + biases 
  352.  
  353.         resultSof = tensorflow.nn.softmax(result,) # 把結(jié)果集使用softmax進(jìn)行激勵(lì) 
  354.  
  355.         resultSig = tensorflow.nn.sigmoid(resultSof,) # 把結(jié)果集以sigmoid函數(shù)進(jìn)行激勵(lì),用于后續(xù)分類 
  356.  
  357.         output = self.session.run(resultSig,{input:origin_input}) 
  358.  
  359.  
  360.  
  361.         output = output[0] 
  362.  
  363.  
  364.  
  365.         # 對(duì)識(shí)別結(jié)果進(jìn)行分類處理 
  366.  
  367.         output_tmp = [] 
  368.  
  369.         for item in output
  370.  
  371.             if item < 0.6: 
  372.  
  373.                 output_tmp.append(0) 
  374.  
  375.             else : 
  376.  
  377.                 output_tmp.append(1) 
  378.  
  379.  
  380.  
  381.         return output_tmp 
  382.  
  383.  
  384.  
  385.     def _getInput(self): 
  386.  
  387.         inputs, y = self.mnist.train.next_batch(100); 
  388.  
  389.         return [inputs[50]] 

以上是程序,整個(gè)程序基于TensorFlow來實(shí)現(xiàn)的,具體的TensorFlow安裝我就不說了。

整個(gè)訓(xùn)練過程不做多說,我發(fā)現(xiàn)網(wǎng)上關(guān)于訓(xùn)練的教程很多,但是訓(xùn)練結(jié)果的教程很少。

整個(gè)程序里,通過tensorflow.train.Saver()的save進(jìn)行訓(xùn)練結(jié)果模型進(jìn)行存儲(chǔ),然后再用tensorflow.train.Saver()的restore進(jìn)行模型恢復(fù)然后取到訓(xùn)練好的weight和baises。

這里要注意的一個(gè)地方是因?yàn)橐淮涡噪S機(jī)取出100張手寫圖片進(jìn)行批量訓(xùn)練的,我在取的時(shí)候其實(shí)也是批量隨機(jī)取100張,但是我傳入識(shí)別的是一張,通過以下這段程序: 

  1. def _getInput(self): 
  2.  
  3.         inputs, y = self.mnist.train.next_batch(100); 
  4.  
  5.         return [inputs[50]] 

注意一下return這里的數(shù)據(jù)結(jié)構(gòu),其實(shí)是取這批量的第50張,實(shí)際上這段程序?qū)懗桑?/p>

  1. def _getInput(self): 
  2.  
  3.         inputs, y = self.mnist.train.next_batch(1); 
  4.  
  5.         return [inputs[0]] 

會(huì)更好。

因?yàn)樽R(shí)別的時(shí)候是需要用到訓(xùn)練的隱藏層來進(jìn)行的,所以在此我雖然識(shí)別的是一張圖片,但是我必須要傳入一個(gè)批量數(shù)據(jù)的這樣一個(gè)結(jié)構(gòu)。

然后再識(shí)別的地方,我使用了兩個(gè)激勵(lì)函數(shù): 

  1. resultSof = tensorflow.nn.softmax(result,) # 把結(jié)果集使用softmax進(jìn)行激勵(lì) 
  2.  
  3. resultSig = tensorflow.nn.sigmoid(resultSof,) # 把結(jié)果集以sigmoid函數(shù)進(jìn)行激勵(lì),用于后續(xù)分類 

這里的話,***個(gè)softmax激勵(lì)后的數(shù)據(jù)我發(fā)現(xiàn)得到的是以e為底的指數(shù)形式,轉(zhuǎn)換成普通的浮點(diǎn)數(shù)來看,不是很清楚到底是什么,那么我在做識(shí)別數(shù)字判斷的時(shí)候就不方便,所以再通過了一次sigmoid的激勵(lì)。

后續(xù)我通過一個(gè)循環(huán)判斷進(jìn)行一次實(shí)際上的分類,這個(gè)原因首先要說到識(shí)別結(jié)果形式:

  1. [0,0,0,0,0,0,0,0,1,0] 

像以上這個(gè)數(shù)據(jù),表示的是8,也就是說,數(shù)組下表第幾位為1就表示是幾,如0的表示:

  1. [1,0,0,0,0,0,0,0,0,0] 

而sigmoid函數(shù)在這個(gè)地方其實(shí)就是對(duì)每個(gè)位置的數(shù)據(jù)進(jìn)行了分類,我發(fā)現(xiàn)如果分類值小于0.52這樣的數(shù)據(jù)其實(shí)代表的是否,也就是說此位置的值對(duì)應(yīng)的是0,大于0.52應(yīng)該對(duì)應(yīng)的是真,也就是1;而我在程序里取的是0.6為界限做判斷。

實(shí)際上,這個(gè)界限值應(yīng)該是在神經(jīng)網(wǎng)絡(luò)訓(xùn)練的時(shí)候取的,而不是看識(shí)別結(jié)果來進(jìn)行憑感覺取的(雖然訓(xùn)練的時(shí)候的參數(shù)也是憑感覺取的)

這篇文章是我根據(jù)個(gè)人的一些理解來寫的,后續(xù)如果發(fā)現(xiàn)有錯(cuò)誤,我會(huì)在新文章說出來,但這篇文章不做保留,方便后續(xù)檢查思考記錄的時(shí)候知道到底怎么踩坑的。

以下是我上次寫的sigmoid函數(shù)的文章:

https://segmentfault.com/a/11...

關(guān)于其他激勵(lì)函數(shù),可以網(wǎng)上找資料進(jìn)行了解,很多基礎(chǔ)性的數(shù)學(xué)知識(shí),放到一些比較具體的應(yīng)用,會(huì)顯得非常的有意思。 

責(zé)任編輯:龐桂玉 來源: segmentfault
相關(guān)推薦

2025-02-25 14:13:31

2018-04-08 11:20:43

深度學(xué)習(xí)

2018-02-09 09:59:12

神經(jīng)網(wǎng)絡(luò)算法識(shí)別

2024-08-22 08:21:10

算法神經(jīng)網(wǎng)絡(luò)參數(shù)

2025-02-19 18:00:00

神經(jīng)網(wǎng)絡(luò)模型AI

2020-08-14 10:01:25

編程神經(jīng)網(wǎng)絡(luò)C語(yǔ)言

2018-08-27 17:05:48

tensorflow神經(jīng)網(wǎng)絡(luò)圖像處理

2024-11-11 00:00:02

卷積神經(jīng)網(wǎng)絡(luò)算法

2024-12-04 10:33:17

2024-09-24 07:28:10

2021-07-07 06:04:33

人工智能Pytorch神經(jīng)網(wǎng)絡(luò)

2021-05-19 10:22:42

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2022-10-11 23:35:28

神經(jīng)網(wǎng)絡(luò)VGGNetAlexNet

2022-03-22 14:02:39

神經(jīng)網(wǎng)絡(luò)AI研究

2018-09-17 15:12:25

人工智能神經(jīng)網(wǎng)絡(luò)編程語(yǔ)言

2017-07-18 10:20:30

Python神經(jīng)網(wǎng)絡(luò)

2017-03-13 14:45:51

Python神經(jīng)網(wǎng)絡(luò)基礎(chǔ)

2022-10-19 07:42:41

圖像識(shí)別神經(jīng)網(wǎng)絡(luò)

2018-02-08 16:03:59

程序員Java神經(jīng)網(wǎng)絡(luò)

2017-04-26 09:30:53

卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)