自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

PyTorch常用五個抽樣函數(shù)

開發(fā) 前端
在本文中,我們將介紹PyTorch中的常見抽樣函數(shù)。抽樣是一個統(tǒng)計過程,它從總體中提取一個子集,通過子集來研究整個總體。

PyTorch是一個開源的深度學(xué)習(xí)框架,它提供了一個用于高級特性的Python包。在本文中,我們將介紹PyTorch中的常見抽樣函數(shù)。抽樣是一個統(tǒng)計過程,它從總體中提取一個子集,通過子集來研究整個總體。

torch.bernoulli()

伯努利分布是一個離散分布,有兩個結(jié)果,即成功和失敗。如果成功的概率是p,那么失敗的概率是(1-p),反之亦然。

PyTorch的實現(xiàn)和相應(yīng)的輸出如下:

a = torch.empty(3, 3).uniform_(0, 1)
print(a)

輸出如下:

tensor([[0.0966, 0.7385, 0.6546],
[0.4255, 0.8294, 0.8315],
[0.8065, 0.8228, 0.6467]])

現(xiàn)在我們把bernoulli()函數(shù)應(yīng)用到張量上

torch.bernoulli(a)

輸出如下:

tensor([[0., 1., 1.],
[1., 1., 0.],
[1., 0., 1.]])

torch.Tensor.cauchy_()

柯西分布,又稱柯西-洛倫茲分布,在統(tǒng)計學(xué)中,具有兩個參數(shù)的連續(xù)分布函數(shù),最早于19世紀(jì)初由法國數(shù)學(xué)家奧古斯丁-路易斯·柯西研究。后來,19世紀(jì)的荷蘭物理學(xué)家亨德里克·洛倫茲(Hendrik Lorentz)用它來解釋強迫共振或振動。第一眼看柯西分布看起來像正態(tài)分布,但它的“尾巴”并不像正態(tài)分布那樣迅速逐漸消失。

柯西分布可能看起來類似于正態(tài)分布,它的峰值比高斯分布高,與正態(tài)分布不同的是,它的尾部衰減得更慢。

a = torch.ones(3, 3)
a

輸出:

tensor([[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.]])

現(xiàn)在我們應(yīng)用cauchy_()函數(shù)

torch.Tensor.cauchy_(a)

輸出:

tensor([[-4.5374, 0.3726, 0.4947],
[ 0.4111, 0.9167, 0.7214],
[ 1.0533, -9.2247, 0.7620]])

注意,這里的函數(shù)名稱以"_"結(jié)尾,這是pytorch的一個規(guī)定,他將會用改寫參數(shù),也就是我們傳進去的變量a

torch.poisson ()

泊松分布用于計算一個事件在平均價值率(時間)的一定時間內(nèi)發(fā)生的可能性。泊松分布是一個離散的概率分布。

 a = torch.rand(4, 4) * 5 # rate parameter between 0 and 5
torch.poisson(a)

輸出如下:

 tensor([[2., 1., 0., 8.],
[2., 3., 3., 3.],
[0., 0., 1., 6.],
[0., 5., 3., 3.]])

torch.normal ()

正態(tài)分布,又稱高斯分布,是獨立隨機變量的連續(xù)分布函數(shù)。該分布有一個鐘形曲線,其特征有兩個參數(shù):均值,即圖型上的最大值,圖總是對稱的;還有標(biāo)準(zhǔn)差,它決定了離均值的差值。

torch.normal(mean=torch.arange(1., 11.), std=torch.arange(1, 0, -0.1))

輸出如下:

 tensor([-0.6932, 2.3833, 2.3547, 3.8103, 5.4436, 5.8295, 7.5898, 8.4793,
9.1938, 10.0637])

torch.rand ()

PyTorch torch.randn()返回一個由可變參數(shù)大小(定義輸出張量形狀的整數(shù)序列)定義的張量,包含來自標(biāo)準(zhǔn)正態(tài)分布的隨機數(shù)。

標(biāo)準(zhǔn)正態(tài)分布,也稱為z分布,是一種特殊的正態(tài)分布,其均值為0,標(biāo)準(zhǔn)差為1

 torch.randn(4,4)

輸出如下:

 tensor([[-1.3119, -0.2177, -0.2496, 0.2361],
[-1.2755, -0.2271, 1.5297, 0.6433],
[-0.4198, -0.9269, -0.6260, -0.9713],
[ 0.6730, -1.2400, 2.1338, 0.2051]])
責(zé)任編輯:華軒 來源: DeepHub IMBA
相關(guān)推薦

2022-01-03 16:08:36

深度學(xué)習(xí)PyTorchNumPy

2022-10-17 15:43:14

深度學(xué)習(xí)回歸模型函數(shù)

2023-01-17 15:31:40

Python數(shù)據(jù)集數(shù)組

2024-02-22 15:24:11

SQL數(shù)據(jù)庫

2024-03-05 15:26:03

日期函數(shù)數(shù)據(jù)庫MySQL

2013-04-18 14:54:08

Linux監(jiān)控腳本Linux監(jiān)控

2021-10-09 07:10:31

JavaScript對象Python

2023-12-27 14:19:33

Python內(nèi)置函數(shù)開發(fā)

2012-02-21 09:45:03

虛擬化虛擬化環(huán)境服務(wù)器

2025-04-24 10:20:00

2024-06-26 13:11:40

2020-08-10 15:35:14

Excel函數(shù)數(shù)據(jù)

2024-04-09 14:31:37

大語言模型Pytorch

2017-02-22 15:19:17

服務(wù)器虛擬化優(yōu)化虛擬環(huán)境

2023-11-27 13:57:00

Linux用法

2021-07-27 18:02:01

VueUse 函數(shù)開發(fā)

2021-07-13 10:02:52

Pandas函數(shù)Linux

2021-03-16 10:12:24

python內(nèi)置函數(shù)

2024-02-26 00:00:00

stage函數(shù)進度

2020-09-04 06:32:20

Pythonshutil函數(shù)
點贊
收藏

51CTO技術(shù)棧公眾號