自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

代碼詳解:用Pytorch訓(xùn)練快速神經(jīng)網(wǎng)絡(luò)的9個(gè)技巧

開(kāi)發(fā) 后端 開(kāi)發(fā)工具
事實(shí)上,你的模型可能還停留在石器時(shí)代的水平。如果市面上有99個(gè)加速指南,但你可能只看過(guò)1個(gè)?(沒(méi)錯(cuò),就是這樣)。但這份終極指南,會(huì)一步步教你清除模型中所有的(GP模型)。

事實(shí)上,你的模型可能還停留在石器時(shí)代的水平。估計(jì)你還在用32位精度或*GASP(一般活動(dòng)仿真語(yǔ)言)*訓(xùn)練,甚至可能只在單GPU上訓(xùn)練。如果市面上有99個(gè)加速指南,但你可能只看過(guò)1個(gè)?(沒(méi)錯(cuò),就是這樣)。但這份終極指南,會(huì)一步步教你清除模型中所有的(GP模型)。

[[274027]]

這份指南的介紹從簡(jiǎn)單到復(fù)雜,一直介紹到你可以完成的大多數(shù)PITA修改,以充分利用你的網(wǎng)絡(luò)。例子中會(huì)包括一些Pytorch代碼和相關(guān)標(biāo)記,可以在 Pytorch-Lightning訓(xùn)練器中用,以防大家不想自己敲碼!

這份指南針對(duì)的是誰(shuí)? 任何用Pytorch研究非瑣碎的深度學(xué)習(xí)模型的人,比如工業(yè)研究人員、博士生、學(xué)者等等……這些模型可能要花費(fèi)幾天,甚至幾周、幾個(gè)月的時(shí)間來(lái)訓(xùn)練。

指南(從易到難)

  • 使用DataLoader。
  • DataLoader中的進(jìn)程數(shù)。
  • 批尺寸。
  • 累積梯度。
  • 保留計(jì)算圖。
  • 轉(zhuǎn)至單GPU。
  • 16位混合精度訓(xùn)練。
  • 轉(zhuǎn)至多GPU(模型復(fù)制)。
  • 轉(zhuǎn)至多GPU節(jié)點(diǎn)(8+GPUs)。
  • 有關(guān)模型加速的思考和技巧

Pytorch-Lightning

[[274028]]

文中討論的各種優(yōu)化,都可以在名為Pytorch-Lightning

(https://github.com/williamFalcon/pytorch-lightning?source=post_page) 的Pytorch圖書(shū)館中找到。

Lightning是基于Pytorch的一個(gè)光包裝器,它可以幫助研究人員自動(dòng)訓(xùn)練模型,但關(guān)鍵的模型部件還是由研究人員完全控制。

參照此篇教程,獲得更有力的范例

(https://github.com/williamFalcon/pytorch-lightning/blob/master/examples/new_project_templates/single_gpu_node_template.py?source=post_page)。

Lightning采用最新、最尖端的方法,將犯錯(cuò)的可能性降到最低。

MNIST定義的Lightning模型

(https://github.com/williamFalcon/pytorch-lightning/blob/master/examples/new_project_templates/lightning_module_template.py?source=post_page),可適用于訓(xùn)練器。

  1. from pytorch-lightning import Trainer 
  2.  
  3. model = LightningModule(…) 
  4. trainer = Trainer() 
  5.  
  6. trainer.fit(model) 

1. DataLoader

[[274029]]

這可能是最容易提速的地方??勘4鎕5py或numpy文件來(lái)加速數(shù)據(jù)加載的日子已經(jīng)一去不復(fù)返了。用 Pytorch dataloader

(https://pytorch.org/tutorials/beginner/data_loading_tutorial.html?source=post_page)加載圖像數(shù)據(jù)非常簡(jiǎn)單。(關(guān)于NLP數(shù)據(jù),請(qǐng)參照TorchText:

https://torchtext.readthedocs.io/en/latest/datasets.html?source=post_page)

  1. dataset = MNIST(root=self.hparams.data_root, traintrain=train, download=True
  2.  
  3. loader = DataLoader(dataset, batch_size=32shuffle=True
  4.  
  5. for batch in loader:  
  6.   x, y = batch 
  7.   model.training_step(x, y) 
  8.   ... 

在Lightning中,你無(wú)需指定一個(gè)訓(xùn)練循環(huán),只需定義dataLoaders,訓(xùn)練器便會(huì)在 需要時(shí)調(diào)用它們

(https://github.com/williamFalcon/pytorch-lightning/blob/master/examples/new_project_templates/lightning_module_template.py?source=post_page---------------------------#L163-L217)。

2. DataLoaders中的進(jìn)程數(shù)

[[274030]]

加快速度的第二個(gè)秘訣在于允許批量并行加載。所以,你可以一次加載許多批量,而不是一次加載一個(gè)。

  1. # slow 
  2. loader = DataLoader(dataset, batch_size=32shuffle=True
  3.  
  4. # fast (use 10 workers) 
  5. loader = DataLoader(dataset, batch_size=32shuffle=Truenum_workers=10

3. 批量大小(Batch size) 

在開(kāi)始下一步優(yōu)化步驟之前,將批量大小調(diào)高到CPU內(nèi)存或GPU內(nèi)存允許的最大值。

接下來(lái)的部分將著重于減少內(nèi)存占用,這樣就可以繼續(xù)增加批尺寸。

記住,你很可能需要再次更新學(xué)習(xí)率。如果將批尺寸增加一倍,最好將學(xué)習(xí)速度也提高一倍。

4. 累積梯度

[[274031]]

假如已經(jīng)最大限度地使用了計(jì)算資源,而批尺寸仍然太低(假設(shè)為8),那我們則需為梯度下降模擬更大的批尺寸,以供精準(zhǔn)估計(jì)。

假設(shè)想讓批尺寸達(dá)到128。然后,在執(zhí)行單個(gè)優(yōu)化器步驟前,將執(zhí)行16次前向和后向傳播(批量大小為8)。

  1. # clear last step 
  2. optimizer.zero_grad() 
  3.  
  4. # 16 accumulated gradient steps 
  5. scaled_loss = 0 
  6. for accumulated_step_i in range(16):  
  7.      out = model.forward() 
  8.      loss = some_loss(out,y)     
  9.      loss.backward()      
  10.  
  11.        scaled_loss += loss.item() 
  12.  
  13. # update weights after 8 steps. effective batch = 8*16 
  14. optimizer.step() 
  15.  
  16. # loss is now scaled up by the number of accumulated batches 
  17. actual_loss = scaled_loss / 16 

而在Lightning中,這些已經(jīng)自動(dòng)執(zhí)行了。只需設(shè)置標(biāo)記:

https://williamfalcon.github.io/pytorch-lightning/Trainer/Training%20Loop/?source=post_page---------------------------#accumulated-gradients

  1. trainer = Trainer(accumulate_grad_batches=16
  2. trainer.fit(model) 

5. 保留計(jì)算圖

[[274032]]

撐爆內(nèi)存很簡(jiǎn)單,只要不釋放指向計(jì)算圖形的指針,比如……為記錄日志保存loss。

  1. losses = [] 
  2.  
  3. ... 
  4. losses.append(loss) 
  5.  
  6. print(f'current loss: {torch.mean(losses)'}) 

上述的問(wèn)題在于,loss仍然有一個(gè)圖形副本。在這種情況中,可用.item()來(lái)釋放它。

  1. # bad 
  2. losses.append(loss) 
  3.  
  4. # good 
  5. losses.append(loss.item()) 

Lightning會(huì)特別注意,讓其無(wú)法保留圖形副本 (示例:

https://github.com/williamFalcon/pytorch-lightning/blob/master/pytorch_lightning/models/trainer.py?source=post_page---------------------------#L767-L768)

6. 單GPU訓(xùn)練

[[274032]]

一旦完成了前面的步驟,就可以進(jìn)入GPU訓(xùn)練了。GPU的訓(xùn)練將對(duì)許多GPU核心上的數(shù)學(xué)計(jì)算進(jìn)行并行處理。能加速多少取決于使用的GPU類(lèi)型。個(gè)人使用的話,推薦使用2080Ti,公司使用的話可用V100。

剛開(kāi)始你可能會(huì)覺(jué)得壓力很大,但其實(shí)只需做兩件事: 1)將你的模型移動(dòng)到GPU上,2)在用其運(yùn)行數(shù)據(jù)時(shí),把數(shù)據(jù)導(dǎo)至GPU中。

  1. # put model on GPU 
  2. model.cuda(0) 
  3.  
  4. # put data on gpu (cuda on a variable returns a cuda copy) 
  5. xx = x.cuda(0) 
  6.  
  7. # runs on GPU now 
  8. model(x) 

如果使用Lightning,則不需要對(duì)代碼做任何操作。只需設(shè)置標(biāo)記

(https://williamfalcon.github.io/pytorch-lightning/Trainer/Distributed%20training/?source=post_page---------------------------#single-gpu):

  1. # ask lightning to use gpu 0 for training 
  2. trainer = Trainer(gpus=[0]) 
  3. trainer.fit(model) 

在GPU進(jìn)行訓(xùn)練時(shí),要注意限制CPU和GPU之間的傳輸量。

  1. # expensive 
  2. xx = x.cuda(0) 
  3.  
  4. # very expensive 
  5. xx = x.cpu() 
  6. xx = x.cuda(0) 

例如,如果耗盡了內(nèi)存,不要為了省內(nèi)存,將數(shù)據(jù)移回CPU。嘗試用其他方式優(yōu)化代碼,或者在用這種方法之前先跨GPUs分配代碼。

此外還要注意進(jìn)行強(qiáng)制GPUs同步的操作。例如清除內(nèi)存緩存。

  1. # really bad idea.Stops all the GPUs until they all catch up 
  2. torch.cuda.empty_cache() 

但是如果使用Lightning,那么只有在定義Lightning模塊時(shí)可能會(huì)出現(xiàn)這種問(wèn)題。Lightning特別注意避免此類(lèi)錯(cuò)誤。

7. 16位精度

16位精度可以有效地削減一半的內(nèi)存占用。大多數(shù)模型都是用32位精度數(shù)進(jìn)行訓(xùn)練的。然而最近的研究發(fā)現(xiàn),使用16位精度,模型也可以很好地工作?;旌暇戎傅氖?,用16位訓(xùn)練一些特定的模型,而權(quán)值類(lèi)的用32位訓(xùn)練。

要想在Pytorch中用16位精度,先從NVIDIA中安裝 apex 圖書(shū)館 并對(duì)你的模型進(jìn)行這些更改。

  1. # enable 16-bit on the model and the optimizer 
  2. model, optimizers = amp.initialize(model, optimizers, opt_level='O2'
  3.  
  4. # when doing .backward, let amp do it so it can scale the loss 
  5. with amp.scale_loss(loss, optimizer) as scaled_loss:                        
  6.     scaled_loss.backward() 

amp包會(huì)處理大部分事情。如果梯度爆炸或趨于零,它甚至?xí)U(kuò)大loss。

在Lightning中, 使用16位很簡(jiǎn)單

(https://williamfalcon.github.io/pytorch-lightning/Trainer/Distributed%20training/?source=post_page---------------------------#16-bit-mixed-precision),不需對(duì)你的模型做任何修改,也不用完成上述操作。

  1. trainer = Trainer(amp_level=’O2', use_amp=False
  2. trainer.fit(model) 

8. 移至多GPU

現(xiàn)在,事情就變得有意思了。有3種(也許更多?)方式訓(xùn)練多GPU。

(1) 分批量訓(xùn)練

A)在每個(gè)GPU上復(fù)制模型;B)給每個(gè)GPU分配一部分批量。

第一種方法叫做分批量訓(xùn)練。這一策略將模型復(fù)制到每個(gè)GPU上,而每個(gè)GPU會(huì)分到該批量的一部分。

  1. # copy model on each GPU and give a fourth of the batch to each 
  2. model = DataParallel(model, devices=[0, 1, 2 ,3]) 
  3.  
  4. # out has 4 outputs (one for each gpu) 
  5. out = model(x.cuda(0)) 

在Lightning中,可以直接指示訓(xùn)練器增加GPU數(shù)量,而無(wú)需完成上述任何操作。

  1. # ask lightning to use 4 GPUs for training 
  2. trainer = Trainer(gpus=[0, 1, 2, 3]) 
  3. trainer.fit(model) 

(2) 分模型訓(xùn)練

將模型的不同部分分配給不同的GPU,按順序分配批量

有時(shí)模型可能太大,內(nèi)存不足以支撐。比如,帶有編碼器和解碼器的Sequence to Sequence模型在生成輸出時(shí)可能會(huì)占用20gb的內(nèi)存。在這種情況下,我們希望把編碼器和解碼器放在單獨(dú)的GPU上。

  1. # each model is sooo big we can't fit both in memory 
  2. encoder_rnn.cuda(0) 
  3. decoder_rnn.cuda(1) 
  4.  
  5. # run input through encoder on GPU 0 
  6. out = encoder_rnn(x.cuda(0)) 
  7.  
  8. # run output through decoder on the next GPU 
  9. out = decoder_rnn(x.cuda(1)) 
  10.  
  11. # normally we want to bring all outputs back to GPU 0 
  12. outout = out.cuda(0) 

對(duì)于這種類(lèi)型的訓(xùn)練,無(wú)需將Lightning訓(xùn)練器分到任何GPU上。與之相反,只要把自己的模塊導(dǎo)入正確的GPU的Lightning模塊中:

  1. class MyModule(LightningModule): 
  2.  
  3. def __init__():  
  4.         self.encoder = RNN(...) 
  5.         self.decoder = RNN(...) 
  6.  
  7. def forward(x): 
  8.  
  9.     # models won't be moved after the first forward because  
  10.         # they are already on the correct GPUs 
  11.         self.encoder.cuda(0) 
  12.         self.decoder.cuda(1)      
  13.     
  14. out = self.encoder(x) 
  15.         out = self.decoder(out.cuda(1)) 
  16.  
  17. # don't pass GPUs to trainer 
  18. model = MyModule() 
  19. trainer = Trainer() 
  20. trainer.fit(model) 

(3) 混合兩種訓(xùn)練方法

在上面的例子中,編碼器和解碼器仍然可以從并行化每個(gè)操作中獲益。我們現(xiàn)在可以更具創(chuàng)造力了。

  1. # change these lines 
  2. self.encoder = RNN(...) 
  3. self.decoder = RNN(...) 
  4.  
  5. # to these 
  6. # now each RNN is based on a different gpu set 
  7. self.encoder = DataParallel(self.encoder, devices=[0, 1, 2, 3]) 
  8. self.decoder = DataParallel(self.encoder, devices=[4, 5, 6, 7]) 
  9.  
  10. # in forward... 
  11. out = self.encoder(x.cuda(0)) 
  12.  
  13. # notice inputs on first gpu in device 
  14. sout = self.decoder(out.cuda(4))  # <--- the 4 here 

(4) 使用多GPUs時(shí)需注意的事項(xiàng)

  • 如果該設(shè)備上已存在model.cuda(),那么它不會(huì)完成任何操作。
  • 始終輸入到設(shè)備列表中的第一個(gè)設(shè)備上。
  • 跨設(shè)備傳輸數(shù)據(jù)非常昂貴,不到萬(wàn)不得已不要這樣做。
  • 優(yōu)化器和梯度將存儲(chǔ)在GPU 0上。因此,GPU 0使用的內(nèi)存很可能比其他處理器大得多。

9. 多節(jié)點(diǎn)GPU訓(xùn)練

每臺(tái)機(jī)器上的各GPU都可獲取一份模型的副本。每臺(tái)機(jī)器分得一部分?jǐn)?shù)據(jù),并僅針對(duì)該部分?jǐn)?shù)據(jù)進(jìn)行訓(xùn)練。各機(jī)器彼此同步梯度。

做到了這一步,就可以在幾分鐘內(nèi)訓(xùn)練Imagenet數(shù)據(jù)集了! 這沒(méi)有想象中那么難,但需要更多有關(guān)計(jì)算集群的知識(shí)。這些指令假定你正在集群上使用SLURM。

Pytorch在各個(gè)GPU上跨節(jié)點(diǎn)復(fù)制模型并同步梯度,從而實(shí)現(xiàn)多節(jié)點(diǎn)訓(xùn)練。因此,每個(gè)模型都是在各GPU上獨(dú)立初始化的,本質(zhì)上是在數(shù)據(jù)的一個(gè)分區(qū)上獨(dú)立訓(xùn)練的,只是它們都接收來(lái)自所有模型的梯度更新。

高級(jí)階段:

  • 在各GPU上初始化一個(gè)模型的副本(確保設(shè)置好種子,使每個(gè)模型初始化到相同的權(quán)值,否則操作會(huì)失效。)
  • 將數(shù)據(jù)集分成子集。每個(gè)GPU只在自己的子集上訓(xùn)練。
  • On .backward() 所有副本都會(huì)接收各模型梯度的副本。只有此時(shí),模型之間才會(huì)相互通信。

Pytorch有一個(gè)很好的抽象概念,叫做分布式數(shù)據(jù)并行處理,它可以為你完成這一操作。要使用DDP(分布式數(shù)據(jù)并行處理),需要做4件事:

  1. def tng_dataloader(): 
  2.       
  3. d = MNIST() 
  4.  
  5.      # 4: Add distributed sampler 
  6.      # sampler sends a portion of tng data to each machine 
  7.      dist_sampler = DistributedSampler(dataset) 
  8.      dataloader = DataLoader(d, shuffle=Falsesampler=dist_sampler
  9.  
  10. def main_process_entrypoint(gpu_nb):  
  11.      # 2: set up connections  between all gpus across all machines 
  12.      # all gpus connect to a single GPU "root" 
  13.      # the default uses env:// 
  14.  
  15.      world = nb_gpus * nb_nodes 
  16.      dist.init_process_group("nccl", rank=gpu_nbworldworld_size=world) 
  17.  
  18.      # 3: wrap model in DPP 
  19.      torch.cuda.set_device(gpu_nb) 
  20.      model.cuda(gpu_nb) 
  21.      model = DistributedDataParallel(model, device_ids=[gpu_nb]) 
  22.  
  23.      # train your model now... 
  24.  
  25. if  __name__ == '__main__':  
  26.      # 1: spawn number of processes 
  27.      # your cluster will call main for each machine 
  28.      mp.spawn(main_process_entrypoint, nprocs=8

Pytorch團(tuán)隊(duì)對(duì)此有一份詳細(xì)的實(shí)用教程

(https://github.com/pytorch/examples/blob/master/imagenet/main.py?source=post_page---------------------------)。

然而,在Lightning中,這是一個(gè)自帶功能。只需設(shè)定節(jié)點(diǎn)數(shù)標(biāo)志,其余的交給Lightning處理就好。

  1. # train on 1024 gpus across 128 nodes 
  2. trainer = Trainer(nb_gpu_nodes=128gpus=[0, 1, 2, 3, 4, 5, 6, 7]) 

Lightning還附帶了一個(gè)SlurmCluster管理器,可助你簡(jiǎn)單地提交SLURM任務(wù)的正確細(xì)節(jié)(示例:

https://github.com/williamFalcon/pytorch-lightning/blob/master/examples/new_project_templates/multi_node_cluster_template.py?source=post_page---------------------------#L103-L134)

10. 福利!更快的多GPU單節(jié)點(diǎn)訓(xùn)練

事實(shí)證明,分布式數(shù)據(jù)并行處理要比數(shù)據(jù)并行快得多,因?yàn)槠湮ㄒ坏耐ㄐ攀翘荻韧健R虼?,最好用分布式?shù)據(jù)并行處理替換數(shù)據(jù)并行,即使只是在做單機(jī)訓(xùn)練。

在Lightning中,通過(guò)將distributed_backend設(shè)置為ddp(分布式數(shù)據(jù)并行處理)并設(shè)置GPU的數(shù)量,這可以很容易實(shí)現(xiàn)。

  1. # train on 4 gpus on the same machine MUCH faster than DataParallel 
  2. trainer = Trainer(distributed_backend='ddp'gpus=[0, 1, 2, 3]) 

有關(guān)模型加速的思考和技巧

如何通過(guò)尋找瓶頸來(lái)思考問(wèn)題?可以把模型分成幾個(gè)部分:

  • 首先,確保數(shù)據(jù)加載中沒(méi)有瓶頸。為此,可以使用上述的現(xiàn)有數(shù)據(jù)加載方案,但是如果沒(méi)有適合你的方案,你可以把離線處理及超高速緩存作為高性能數(shù)據(jù)儲(chǔ)存,就像h5py一樣。
  • 接下來(lái)看看在訓(xùn)練過(guò)程中該怎么做。確??焖俎D(zhuǎn)發(fā),避免多余的計(jì)算,并將CPU和GPU之間的數(shù)據(jù)傳輸最小化。最后,避免降低GPU的速度(在本指南中有介紹)。
  • 接下來(lái),最大化批尺寸,通常來(lái)說(shuō),GPU的內(nèi)存大小會(huì)限制批量大小。自此看來(lái),這其實(shí)就是跨GPU分布,但要最小化延遲,有效使用大批次(例如在數(shù)據(jù)集中,可能會(huì)在多個(gè)GPUs上獲得8000+的有效批量大小)。

但是需要小心處理大批次。根據(jù)具體問(wèn)題查閱文獻(xiàn),學(xué)習(xí)一下別人是如何處理的!

責(zé)任編輯:趙寧寧 來(lái)源: 讀芯術(shù)
相關(guān)推薦

2024-11-05 16:19:55

2020-09-18 11:40:44

神經(jīng)網(wǎng)絡(luò)人工智能PyTorch

2021-12-28 08:48:54

PyTorch神經(jīng)網(wǎng)絡(luò)人工智能

2020-12-19 11:05:57

循環(huán)神經(jīng)網(wǎng)絡(luò)PyTorch神經(jīng)網(wǎng)絡(luò)

2020-11-20 10:40:20

PyTorch神經(jīng)網(wǎng)絡(luò)代碼

2024-08-22 08:21:10

算法神經(jīng)網(wǎng)絡(luò)參數(shù)

2017-12-22 08:47:41

神經(jīng)網(wǎng)絡(luò)AND運(yùn)算

2024-09-24 07:28:10

2022-10-17 15:43:14

深度學(xué)習(xí)回歸模型函數(shù)

2024-11-11 00:00:02

卷積神經(jīng)網(wǎng)絡(luò)算法

2024-12-04 10:33:17

2018-04-08 11:20:43

深度學(xué)習(xí)

2025-02-25 14:13:31

2017-04-26 08:31:10

神經(jīng)網(wǎng)絡(luò)自然語(yǔ)言PyTorch

2020-09-09 10:20:48

GraphSAGE神經(jīng)網(wǎng)絡(luò)人工智能

2017-09-28 16:15:12

神經(jīng)網(wǎng)絡(luò)訓(xùn)練多層

2018-11-07 05:38:07

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法

2020-05-28 15:55:06

iPhone神經(jīng)網(wǎng)絡(luò)人工智能

2025-02-19 15:12:17

神經(jīng)網(wǎng)絡(luò)PyTorch大模型

2021-06-29 09:53:06

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)