自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

十行代碼就能搞定深度學習?飛槳框架高層API,一起輕松玩轉AI

人工智能 深度學習
向往深度學習技術,可是深度學習框架太難學怎么辦?百度傾心打造飛槳框架高層 API,零基礎也能輕松上手深度學習,一起來看看吧?

 高層 API,What

深度學習作為人工智能時代的核心技術,近年來無論學術、還是工業(yè)領域,均發(fā)揮著愈加重要的作用。然而,深度學習理論太難學,開發(fā)過程太復雜,又將許多人拒之于深度學習的門外。

為了簡化深度學習的學習過程、降低深度學習的開發(fā)難度,百度飛槳框架歷經(jīng)近一年的打磨,不斷地優(yōu)化深度學習 API,并針對開發(fā)者的使用場景進行封裝,在飛槳框架的最新版本中,推出了高低融合、科學統(tǒng)一的飛槳全新 API 體系。

飛槳框架將 API 分為兩種,基礎 API 和高層 API。用制作披薩舉例,一般有兩種方法:一種是我們準備好面粉、牛奶、火腿等食材,精心加工后,就能制作出美味的披薩;而第二種則是我們買商家預烤制的披薩餅,以及調(diào)好的餡料,直接加熱就可以吃到披薩了。

那么這兩種方法有什么區(qū)別呢?采用方法一,自己準備食材,可以隨心所欲的搭配料理,制作醬料,從而滿足我們的不同口味,但是,這更適合「老司機」,如果是新人朋友,很有可能翻車;而方法二,用商家預烤制的披薩餅與餡料,直接加熱就可以非常快速的完成披薩的制作,而且味道會有保障;但是,相比于方法一,我們會少一些口味的選擇。

用框架來類比,基礎 API 對應方法一,高層 API 對應方法二。使用基礎 API,我們可以隨心所欲的搭建自己的深度學習模型,不會受到任何限制;而使用方法二,我們可以很快的實現(xiàn)模型,但是可能會少一些自主性。

但是,與制作披薩不同的是,飛槳框架可以做到真正的「魚與熊掌」可以兼得。因為高層 API 本身不是一個獨立的體系,它完全可以和基礎 API 互相配合使用,做到高低融合,使用起來會更加便捷。使我們在開發(fā)過程中,既可以享受到基礎 API 的強大,又可以兼顧高層 API 的快捷。

高層 API,All

飛槳框架高層 API 的全景圖如下:

從圖中可以看出,飛槳框架高層 API 由五個模塊組成,分別是數(shù)據(jù)加載、模型組建、模型訓練、模型可視化和高階用法。針對不同的使用場景,飛槳框架提供了不同高層 API,從而降低開發(fā)難度,讓每個人都能輕松上手深度學習。

我們先通過一個深度學習中經(jīng)典的手寫數(shù)字分類任務,來簡單了解飛槳高層 API。然后再詳細的介紹每個模塊中所包含的 API。

 

  1. import paddle 
  2. from paddle.vision.transforms import Compose, Normalize 
  3. from paddle.vision.datasets import MNIST 
  4. import paddle.nn as nn  
  5.  
  6. # 數(shù)據(jù)預處理,這里用到了歸一化 
  7. transform = Compose([Normalize(mean=[127.5], 
  8.                                std=[127.5], 
  9.                                data_format='CHW')]) 
  10.  
  11. # 數(shù)據(jù)加載,在訓練集上應用數(shù)據(jù)預處理的操作 
  12. train_dataset = paddle.vision.datasets.MNIST(mode='train', transform=transform) 
  13. test_dataset = paddle.vision.datasets.MNIST(mode='test', transform=transform) 
  14.  
  15. # 模型組網(wǎng) 
  16. mnist = nn.Sequential( 
  17.         nn.Flatten(), 
  18.         nn.Linear(784512), 
  19.         nn.ReLU(),     
  20.         nn.Dropout(0.2),     
  21.         nn.Linear(51210)) 
  22.  
  23. # 模型封裝,用 Model 類封裝 
  24. model = paddle.Model(mnist) 
  25.  
  26. # 模型配置:為模型訓練做準備,設置優(yōu)化器,損失函數(shù)和精度計算方式 
  27. model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters()), 
  28.               loss=nn.CrossEntropyLoss(),               
  29.               metrics=paddle.metric.Accuracy()) 
  30.  
  31. # 模型訓練, 
  32. model.fit(train_dataset, 
  33.           epochs=10,           
  34.           batch_size=64,           
  35.           verbose=1
  36.  
  37. # 模型評估, 
  38. model.evaluate(test_dataset, verbose=1
  39.  
  40. # 模型保存, 
  41. model.save('model_path'

從示例可以看出,在數(shù)據(jù)預處理、數(shù)據(jù)加載、模型組網(wǎng)、模型訓練、模型評估、模型保存等場景,高層 API 均可以通過 1~3 行代碼實現(xiàn)。相比傳統(tǒng)方法動輒幾十行的代碼量,高層 API 只需要十來行代碼,就能輕松完成一個 MNIST 分類器的實現(xiàn)。以極少的代碼就能達到與基礎 API 同樣的效果,大幅降低了深度學習的學習門檻。

如果是初次學習深度學習框架,使用飛槳高層 API,可以「凡爾賽」說出「好煩哦,飛槳高層 API 怎么這么快就完成開發(fā)了,我還想多寫幾行代碼呢!」

高層 API,How

接下來以 CV 任務為例,簡單介紹飛槳高層 API 在不同場景下的使用方法。

本示例的完整代碼可以在 AI Studio 上獲取,無需準備任何軟硬件環(huán)境即可直接在線運行代碼,相當方便哦:https://aistudio.baidu.com/aistudio/projectdetail/1243085

一、數(shù)據(jù)預處理與數(shù)據(jù)加載

對于數(shù)據(jù)加載,在一些典型的任務中,我們完全可以使用飛槳框架內(nèi)置的數(shù)據(jù)集,完成數(shù)據(jù)的加載。飛槳框架將常用的數(shù)據(jù)集作為領域 API,集成在 paddle.vision.datasets 目錄中,包含了 CV 領域中常見的 MNIST、Cifar、Flowers 等數(shù)據(jù)集。

而在數(shù)據(jù)預處理場景中,飛槳框架提供了 20 多種常見的圖像預處理 API,方便我們快速實現(xiàn)數(shù)據(jù)增強,如實現(xiàn)圖像的色調(diào)、對比度、飽和度、大小等各種數(shù)字圖像處理的方法。圖像預處理 API 集成在 paddle.vision.transforms 目錄中,使用起來非常方便。只需要先創(chuàng)建一個數(shù)據(jù)預處理的 transform,在其中存入需要進行的數(shù)據(jù)預處理方法,然后在數(shù)據(jù)加載的過程中,將 transform 作為參數(shù)傳入即可。

此外,如果我們需要加載自己的數(shù)據(jù)集,使用飛槳框架標準數(shù)據(jù)定義與數(shù)據(jù)加載 API paddle.io.Dataset 與 paddle.io.DataLoader,就可以「一鍵」完成數(shù)據(jù)集的定義與數(shù)據(jù)的加載。這里通過一個案例來展示如何利用 Dataset 定義數(shù)據(jù)集,示例如下:

  1. from paddle.io import Dataset 
  2.  
  3. class MyDataset(Dataset): 
  4.     ""
  5.     步驟一:繼承 paddle.io.Dataset 類 
  6.     """     
  7.     def __init__(self):         
  8.     ""
  9.     步驟二:實現(xiàn)構造函數(shù),定義數(shù)據(jù)讀取方式,劃分訓練和測試數(shù)據(jù)集 
  10.     ""
  11.     super(MyDataset, self).__init__() 
  12.  
  13.         self.data = [ 
  14.              ['traindata1''label1'],             
  15.              ['traindata2''label2'],             
  16.              ['traindata3''label3'],             
  17.              ['traindata4''label4'],        
  18.          ] 
  19.  
  20.     def __getitem__(self, index): 
  21.     ""
  22.     步驟三:實現(xiàn)__getitem__方法,定義指定 index 時如何獲取數(shù)據(jù),并返回單條數(shù)據(jù)(訓練數(shù)據(jù),對應的標簽) 
  23.     """         
  24.     data = self.data[index][0]         
  25.     label = self.data[index][1
  26.  
  27.      return data, label 
  28.  
  29.     def __len__(self):         
  30.     ""
  31.     步驟四:實現(xiàn)__len__方法,返回數(shù)據(jù)集總數(shù)目 
  32.     """         
  33.     return len(self.data) 
  34.  
  35. # 測試定義的數(shù)據(jù)集 
  36. train_dataset = MyDataset() 
  37.  
  38. print('=============train dataset============='
  39. for data, label in train_dataset: 
  40.     print(data, label) 


只需要按照上述規(guī)范的四個步驟,我們就實現(xiàn)了一個自己的數(shù)據(jù)集。然后,將 train_dataset 作為參數(shù),傳入到 DataLoader 中,即可獲得一個數(shù)據(jù)加載器,完成訓練數(shù)據(jù)的加載。

【Tips:對于數(shù)據(jù)集的定義,飛槳框架同時支持 map-style 和 iterable-style 兩種類型的數(shù)據(jù)集定義,只需要分別繼承 paddle.io.Dataset 和 paddle.io.IterableDataset 即可。】

 二、網(wǎng)絡構建

在網(wǎng)絡構建模塊,飛槳高層 API 與基礎 API 保持一致,統(tǒng)一使用 paddle.nn 下的 API 進行組網(wǎng)。paddle.nn 目錄下包含了所有與模型組網(wǎng)相關的 API,如卷積相關的 Conv1D、Conv2D、Conv3D,循環(huán)神經(jīng)網(wǎng)絡相關的 RNN、LSTM、GRU 等。

對于組網(wǎng)方式,飛槳框架支持 Sequential 或 SubClass 進行模型組建。Sequential 可以幫助我們快速的組建線性的網(wǎng)絡結構,而 SubClass 支持更豐富靈活的網(wǎng)絡結構。我們可以根據(jù)實際的使用場景,來選擇最合適的組網(wǎng)方式。如針對順序的線性網(wǎng)絡結構可以直接使用 Sequential ,而如果是一些比較復雜的網(wǎng)絡結構,我們使用 SubClass 的方式來進行模型的組建,在 __init__ 構造函數(shù)中進行 Layer 的聲明,在 forward 中使用聲明的 Layer 變量進行前向計算。

下面就來分別看一下 Sequential 與 SubClass 的實例。

1、Sequential

對于線性的網(wǎng)絡模型,我們只需要按網(wǎng)絡模型的結構順序,一層一層的加到 Sequential 后面即可,具體實現(xiàn)如下:

  1. # Sequential 形式組網(wǎng) 
  2. mnist = nn.Sequential( 
  3.     nn.Flatten(),     
  4.     nn.Linear(784512),     
  5.     nn.ReLU(),     
  6.     nn.Dropout(0.2),     
  7.     nn.Linear(51210

2、SubClass

使用 SubClass 進行組網(wǎng)的實現(xiàn)如下:

 

  1. # SubClass 方式組網(wǎng) 
  2. class Mnist(nn.Layer): 
  3.     def __init__(self):     
  4.         super(Mnist, self).__init__() 
  5.  
  6.         self.flatten = nn.Flatten() 
  7.         self.linear_1 = nn.Linear(784512)         
  8.         self.linear_2 = nn.Linear(51210)         
  9.         self.relu = nn.ReLU()         
  10.         self.dropout = nn.Dropout(0.2
  11.  
  12.     def forward(self, inputs): 
  13.         y = self.flatten(inputs)         
  14.         y = self.linear_1(y)         
  15.         y = self.relu(y)         
  16.         y = self.dropout(y)         
  17.         y = self.linear_2(y) 
  18.  
  19.         return y 

上述的 SubClass 組網(wǎng)的結果與 Sequential 組網(wǎng)的結果完全一致,可以明顯看出,使用 SubClass 組網(wǎng)會比使用 Sequential 更復雜一些。不過,這帶來的是網(wǎng)絡模型結構的靈活性。我們可以設計不同的網(wǎng)絡模型結構來應對不同的場景。

3、飛槳框架內(nèi)置模型

除了自定義模型結構外,飛槳框架還「貼心」的內(nèi)置了許多模型,真正的一行代碼實現(xiàn)深度學習模型。目前,飛槳框架內(nèi)置的模型都是 CV 領域領域的模型,都在 paddle.vision.models 目錄下,包含了常見的 vgg 系列、resnet 系列等模型。使用方式如下:

  1. mport paddle 
  2. from paddle.vision.models import resnet18 
  3.  
  4. # 方式一: 一行代碼直接使用  
  5. resnetresnet = resnet18() 
  6.  
  7. # 方式二: 作為主干網(wǎng)絡進行二次開發(fā) 
  8. class FaceNet(paddle.nn.Layer): 
  9.     def __init__(self, num_keypoints=15, pretrained=False): 
  10.         super(FaceNet, self).__init__() 
  11.  
  12.         self.backbone = resnet18(pretrained)         
  13.         self.outLayer1 = paddle.nn.Linear(1000512)         
  14.         self.outLayer2 = paddle.nn.Linear(512, num_keypoints*2
  15.  
  16.     def forward(self, inputs):         
  17.          out = self.backbone(inputs)         
  18.          out = self.outLayer1(out)         
  19.          out = self.outLayer2(out)         
  20.          return out 

三、模型可視化

在我們完成模型的構建后,有時還需要可視化模型的網(wǎng)絡結構與參數(shù),只要我們用 Model 進行模型的封裝后,然后調(diào)用 model.summary 即可實現(xiàn)網(wǎng)絡模型的可視化,具體如下:

  1. mnist = nn.Sequential( 
  2.     nn.Flatten(),     
  3.     nn.Linear(784512),     
  4.     nn.ReLU(),     
  5.     nn.Dropout(0.2),     
  6.     nn.Linear(51210)) 
  7.  
  8. # 模型封裝,用 Model 類封裝 
  9. model = paddle.Model(mnist) 
  10. model.summary() 

其輸出如下:

  1. --------------------------------------------------------------------------- 
  2.  Layer (type)       Input Shape          Output Shape         Param #     
  3.  =========================================================================== 
  4.    Flatten-795    [[3212828]]        [32784]              0          
  5.     Linear-5         [[32784]]           [32512]           401,920        
  6.      ReLU-3          [[32512]]           [32512]              0         
  7.     Dropout-3        [[32512]]           [32512]              0           
  8.     Linear-6         [[32512]]            [3210]            5,130      
  9.     =========================================================================== 
  10.     Total params: 407,050 
  11.     Trainable params: 407,050 
  12.     Non-trainable params: 0 
  13. --------------------------------------------------------------------------- 
  14. Input size (MB): 0.10 
  15. Forward/backward pass size (MB): 0.57 
  16. Params size (MB): 1.55 
  17. Estimated Total Size (MB): 2.22 
  18. --------------------------------------------------------------------------- 
  19. {'total_params'407050'trainable_params'407050

Model.summary 不僅會給出每一層網(wǎng)絡的形狀,還會給出每層網(wǎng)絡的參數(shù)量與模型的總參數(shù)量,非常方便直觀的就可以看到模型的全部信息。

四、模型訓練

1、使用高層 API 在全部數(shù)據(jù)集上進行訓練

過去常常困擾深度學習開發(fā)者的一個問題是,模型訓練的代碼過于復雜,常常要寫好多步驟,才能使程序運行起來,冗長的代碼使許多開發(fā)者望而卻步。

現(xiàn)在,飛槳高層 API 將訓練、評估與預測 API 都進行了封裝,直接使用 Model.prepare()、Model.fit()、Model.evaluate()、Model.predict()就可以完成模型的訓練、評估與預測。

對比傳統(tǒng)框架動輒一大塊的訓練代碼。使用飛槳高層 API,可以在 3-5 行內(nèi),完成模型的訓練,極大的簡化了開發(fā)的代碼量,對初學者開發(fā)者非常友好。具體代碼如下:

  1. # 將網(wǎng)絡結構用 Model 類封裝成為模型 
  2. model = paddle.Model(mnist) 
  3.  
  4. # 為模型訓練做準備,設置優(yōu)化器,損失函數(shù)和精度計算方式 
  5. model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters()), 
  6.               loss=paddle.nn.CrossEntropyLoss(),               
  7.               metrics=paddle.metric.Accuracy()) 
  8.  
  9. # 啟動模型訓練,指定訓練數(shù)據(jù)集,設置訓練輪次,設置每次數(shù)據(jù)集計算的批次大小,設置日志格式 
  10. model.fit(train_dataset,  
  11.          epochs=10,           
  12.          batch_size=64,           
  13.          verbose=1
  14.  
  15. # 啟動模型評估,指定數(shù)據(jù)集,設置日志格式 
  16. model.evaluate(test_dataset, verbose=1
  17.  
  18. # 啟動模型測試,指定測試集  
  19. Model.predict(test_dataset) 

2、使用高層 API 在一個批次的數(shù)據(jù)集上訓練、驗證與測試

有時我們需要對數(shù)據(jù)按 batch 進行取樣,然后完成模型的訓練與驗證,這時,可以使用 train_batch、eval_batch、predict_batch 完成一個批次上的訓練、驗證與測試,具體如下:

  1. # 模型封裝,用 Model 類封裝 
  2. model = paddle.Model(mnist) 
  3.  
  4. # 模型配置:為模型訓練做準備,設置優(yōu)化器,損失函數(shù)和精度計算方式 
  5. model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters()), 
  6.               loss=nn.CrossEntropyLoss(),               
  7.               metrics=paddle.metric.Accuracy()) 
  8.  
  9. # 構建訓練集數(shù)據(jù)加載器 
  10. train_loader = paddle.io.DataLoader(train_dataset, batch_size=64, shuffle=True) 
  11.  
  12. # 使用 train_batch 完成訓練 
  13. for batch_id, data in enumerate(train_loader()): 
  14.     model.train_batch([data[0]],[data[1]]) 
  15.  
  16. # 構建測試集數(shù)據(jù)加載器 
  17. test_loader = paddle.io.DataLoader(test_dataset, places=paddle.CPUPlace(), batch_size=64, shuffle=True) 
  18.  
  19. # 使用 eval_batch 完成驗證 
  20. for batch_id, data in enumerate(test_loader()): 
  21.     model.eval_batch([data[0]],[data[1]]) 
  22.  
  23. # 使用 predict_batch 完成預測 
  24. for batch_id, data in enumerate(test_loader()): 
  25.     model.predict_batch([data[0]]) 

五、高階用法

除此之外,飛槳高層 API 還支持一些高階的玩法,如自定義 Loss、自定義 Metric、自定義 Callback 等等。

自定義 Loss 是指有時我們會遇到特定任務的 Loss 計算方式在框架既有的 Loss 接口中不存在,或算法不符合自己的需求,那么期望能夠自己來進行 Loss 的自定義。

自定義 Metric 和自定義 Loss 的場景一樣,如果遇到一些想要做個性化實現(xiàn)的操作時,我們也可以來通過框架完成自定義的評估計算方法。

自定義 Callback 則是可以幫助我們收集訓練時的一些參數(shù)以及數(shù)據(jù),由于 Model.fit()封裝了訓練過程,如果我們需要保存訓練時的 loss、metric 等信息,則需要通過 callback 參數(shù)收集這部分信息。

更多更豐富的玩法,可以掃描關注文末的二維碼獲取~

高層 API,Next

上文以 CV 任務為例,介紹了飛槳框架高層 API 的使用指南。后續(xù),飛槳框架還計劃推出 NLP 領域專用的數(shù)據(jù)預處理模塊,如對數(shù)據(jù)進行 padding、獲取數(shù)據(jù)集詞表等;在組網(wǎng)方面,也會實現(xiàn) NLP 領域中組網(wǎng)專用的 API,如組網(wǎng)相關的 sequence_mask,評估指標相關的 BLEU 等;最后,針對 NLP 領域中的神器 transformer,我們也會對其進行特定的優(yōu)化;待這些功能上線后,我們會第一時間告訴大家,敬請期待吧~

高層 API,Where

看完前面飛槳高層 API 的使用介紹,是不是有種躍躍欲試的沖動呀?

體驗方式一:在線體驗

無需準備任何軟硬件環(huán)境,直接訪問以下地址,即可在線跑代碼看效果:https://aistudio.baidu.com/aistudio/projectdetail/1243085

體驗方式二:本地體驗

如果你還想在自己本地電腦上體驗,那需要確保本地電腦上已成功安裝飛槳開源框架 2.0。

下面介紹飛槳開源框架 2.0 的安裝方法,可以參考下面的命令,直接使用 pip 安裝。安裝后,就可以開始使用高層 API 啦。

# CPU 版

  1. # CPU 版 
  2. $ pip3 install paddlepaddle==2.0.0rc0 -i https://mirror.baidu.com/pypi/simple 
  3. # GPU 版 
  4. $ pip3 install paddlepaddle_gpu==2.0.0rc0 -i https://mirror.baidu.com/pypi/simple 

 

 

責任編輯:梁菲 來源: 機器之心
相關推薦

2019-08-27 10:00:02

深度學習

2019-08-26 14:31:02

2024-06-12 15:59:59

前端JavaScrip識別

2014-10-21 15:07:04

2020-11-08 14:44:37

VSCode代碼編碼

2022-03-14 09:57:30

Python代碼

2022-01-17 06:59:40

Grep指令linux

2021-12-29 08:27:05

ByteBuffer磁盤服務器

2022-07-07 15:50:19

Python開發(fā)功能

2022-09-26 14:25:55

Flowable流程ID

2022-02-22 10:50:19

IDEAGit工具,

2024-12-13 11:32:06

2022-05-24 08:21:16

數(shù)據(jù)安全API

2025-01-13 00:00:00

配置Redis腦裂

2024-08-16 14:28:21

2018-03-26 19:56:13

深度學習

2022-03-23 15:32:38

Python開發(fā)代碼

2022-01-25 12:51:58

Python代碼證件照

2021-09-10 09:37:05

AI 數(shù)據(jù)人工智能

2011-07-14 10:51:40

飛視美視頻會議
點贊
收藏

51CTO技術棧公眾號