自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

基于波士頓住房數(shù)據(jù)集訓(xùn)練簡單的MLP回歸模型

人工智能 深度學(xué)習(xí)
多層感知機(jī)(MLP)有著非常悠久的歷史,多層感知機(jī)(MLP)是深度神經(jīng)網(wǎng)絡(luò)(DNN)的基礎(chǔ)算法,每個MLP模型由一個輸入層、幾個隱藏層和一個輸出層組成.

[[422501]]

多層感知機(jī)(MLP)有著非常悠久的歷史,多層感知機(jī)(MLP)是深度神經(jīng)網(wǎng)絡(luò)(DNN)的基礎(chǔ)算法

MLP基礎(chǔ)知識

  • 目的:創(chuàng)建用于簡單回歸/分類任務(wù)的常規(guī)神經(jīng)網(wǎng)絡(luò)(即多層感知器)和Keras

MLP結(jié)構(gòu)

  • 每個MLP模型由一個輸入層、幾個隱藏層和一個輸出層組成
  • 每層神經(jīng)元的數(shù)目不受限制

具有一個隱藏層的MLP

- 輸入神經(jīng)元數(shù):3 - 隱藏神經(jīng)元數(shù):4 - 輸出神經(jīng)元數(shù):2

回歸任務(wù)的MLP

  • 當(dāng)目標(biāo)(「y」)連續(xù)時
  • 對于損失函數(shù)和評估指標(biāo),通常使用均方誤差(MSE)
  1. from tensorflow.keras.datasets import boston_housing 
  2. (X_train, y_train), (X_test, y_test) = boston_housing.load_data() 

數(shù)據(jù)集描述

  • 波士頓住房數(shù)據(jù)集共有506個數(shù)據(jù)實(shí)例(404個培訓(xùn)和102個測試)
  • 13個屬性(特征)預(yù)測“某一地點(diǎn)房屋的中值”
  • 文件編號:https://keras.io/datasets/

1.創(chuàng)建模型

  • Keras模型對象可以用Sequential類創(chuàng)建
  • 一開始,模型本身是空的。它是通過「添加」附加層和編譯來完成的
  • 文檔:https://keras.io/models/sequential/
  1. from tensorflow.keras.models import Sequential 
  2.  
  3. model = Sequential() 

1-1.添加層

  • Keras層可以「添加」到模型中
  • 添加層就像一個接一個地堆疊樂高積木
  • 文檔:https://keras.io/layers/core/
  1. from tensorflow.keras.layers import Activation, Dense 
  2. # Keras model with two hidden layer with 10 neurons each  
  3. model.add(Dense(10, input_shape = (13,)))    # Input layer => input_shape should be explicitly designated 
  4. model.add(Activation('sigmoid')) 
  5. model.add(Dense(10))                         # Hidden layer => only output dimension should be designated 
  6. model.add(Activation('sigmoid')) 
  7. model.add(Dense(10))                         # Hidden layer => only output dimension should be designated 
  8. model.add(Activation('sigmoid')) 
  9. model.add(Dense(1))                          # Output layer => output dimension = 1 since it is regression problem 
  10. # This is equivalent to the above code block 
  11. model.add(Dense(10, input_shape = (13,), activation = 'sigmoid')) 
  12. model.add(Dense(10, activation = 'sigmoid')) 
  13. model.add(Dense(10, activation = 'sigmoid')) 
  14. model.add(Dense(1)) 

1-2.模型編譯

  • Keras模型應(yīng)在培訓(xùn)前“編譯”
  • 應(yīng)指定損失類型(函數(shù))和優(yōu)化器
  • 文檔(優(yōu)化器):https://keras.io/optimizers/
  • 文檔(損失):https://keras.io/losses/
  1. from tensorflow.keras import optimizers 
  2.  
  3. sgd = optimizers.SGD(lr = 0.01)    # stochastic gradient descent optimizer 
  4.  
  5. model.compile(optimizer = sgd, loss = 'mean_squared_error', metrics = ['mse'])    # for regression problems, mean squared error (MSE) is often employed 

模型摘要

  1. model.summary() 
  1. odel: "sequential" 
  2. _________________________________________________________________ 
  3. Layer (type)                 Output Shape              Param #    
  4. ================================================================= 
  5. dense (Dense)                (None, 10)                140        
  6. _________________________________________________________________ 
  7. activation (Activation)      (None, 10)                0          
  8. _________________________________________________________________ 
  9. dense_1 (Dense)              (None, 10)                110        
  10. _________________________________________________________________ 
  11. activation_1 (Activation)    (None, 10)                0          
  12. _________________________________________________________________ 
  13. dense_2 (Dense)              (None, 10)                110        
  14. _________________________________________________________________ 
  15. activation_2 (Activation)    (None, 10)                0          
  16. _________________________________________________________________ 
  17. dense_3 (Dense)              (None, 1)                 11         
  18. _________________________________________________________________ 
  19. dense_4 (Dense)              (None, 10)                20         
  20. _________________________________________________________________ 
  21. dense_5 (Dense)              (None, 10)                110        
  22. _________________________________________________________________ 
  23. dense_6 (Dense)              (None, 10)                110        
  24. _________________________________________________________________ 
  25. dense_7 (Dense)              (None, 1)                 11         
  26. ================================================================= 
  27. Total params: 622 
  28. Trainable params: 622 
  29. Non-trainable params: 0 
  30. _________________________________________________________________ 

2.培訓(xùn)

  • 使用提供的訓(xùn)練數(shù)據(jù)訓(xùn)練模型
  1. model.fit(X_train, y_train, batch_size = 50, epochs = 100, verbose = 1) 

3.評估

  • Keras模型可以用evaluate()函數(shù)計算
  • 評估結(jié)果包含在列表中
  • 文檔:https://keras.io/metrics/
  1. results = model.evaluate(X_test, y_test) 
  1. print(model.metrics_names)     # list of metric names the model is employing 
  2. print(results)                 # actual figure of metrics computed 

  1. print('loss: ', results[0]) 
  2. print('mse: ', results[1]) 

 

責(zé)任編輯:姜華 來源: Python之王
相關(guān)推薦

2024-05-23 12:57:59

2023-10-27 10:15:36

機(jī)器狗

2013-04-19 10:17:57

波士頓馬拉松爆炸的大數(shù)據(jù)大數(shù)據(jù)全球技術(shù)峰會

2013-05-07 10:46:01

2018-08-17 06:01:46

工業(yè)物聯(lián)網(wǎng)IIoT物聯(lián)網(wǎng)

2013-05-09 10:31:10

2024-09-14 13:50:00

AI訓(xùn)練

2020-08-20 10:37:23

疫情智慧城市休斯頓

2013-04-18 17:44:14

2013-05-08 09:33:47

2021-11-04 10:16:51

機(jī)器狗人工智能波士頓

2011-10-25 10:41:25

攻擊

2020-06-28 14:22:26

人臉識別人工智能數(shù)據(jù)

2024-03-01 09:00:00

大型語言模型數(shù)據(jù)集LLM

2023-02-16 08:00:00

數(shù)據(jù)流客戶端開發(fā)數(shù)據(jù)集

2022-01-11 09:47:10

波士頓機(jī)器狗人工智能

2022-03-28 09:00:00

SQL數(shù)據(jù)庫機(jī)器學(xué)習(xí)

2025-04-11 02:00:00

模態(tài)編碼器ALIGN視覺語言模型

2013-04-22 14:52:51

2024-01-29 00:24:07

圖像模型預(yù)訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號