自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一文揭開 NVIDIA CUDA 神秘面紗

人工智能
今天我們繼續(xù)來(lái)聊一下人工智能生態(tài)相關(guān)技術(shù) - 用于加速構(gòu)建 AI 核心算力的 GPU 編程框架 - CUDA 。

Hello folks,我是 Luga,今天我們繼續(xù)來(lái)聊一下人工智能生態(tài)相關(guān)技術(shù) - 用于加速構(gòu)建 AI 核心算力的 GPU 編程框架 - CUDA 。

CUDA,作為現(xiàn)代圖形處理器(GPU)的計(jì)算單元,在高性能計(jì)算領(lǐng)域扮演著日益重要的角色。通過(guò)將復(fù)雜的計(jì)算任務(wù)分解為數(shù)千個(gè)線程并行執(zhí)行,CUDA 顯著提升了計(jì)算速度,為人工智能、科學(xué)計(jì)算、高性能計(jì)算等領(lǐng)域帶來(lái)了革命性的變革。

CUDA 到底是什么 ?

毋庸置疑,你一定聽說(shuō)過(guò) CUDA,并了解這玩意與 NVIDIA GPU 密切相關(guān)。然而,關(guān)于 CUDA 的具體定義和功能,許多人仍然心存疑惑,一臉懵逼。CUDA 是一個(gè)與 GPU 進(jìn)行通信的庫(kù)嗎?

如果是,它屬于 C++ 還是 Python 庫(kù)?或者,CUDA 實(shí)際上是一個(gè)用于 GPU 的編譯器?了解這些問(wèn)題有助于更好地掌握 CUDA 的核心特性及其在 GPU 加速中的作用。

CUDA,全稱為 “ Compute Unified Device Architecture ”,即“計(jì)算統(tǒng)一設(shè)備架構(gòu)”,是 NVIDIA 推出的一套強(qiáng)大并行計(jì)算平臺(tái)和編程模型框架,為開發(fā)人員提供了加速計(jì)算密集型應(yīng)用的完整解決方案。CUDA 包含運(yùn)行時(shí)內(nèi)核、設(shè)備驅(qū)動(dòng)程序、優(yōu)化庫(kù)、開發(fā)工具和豐富的 API 組合,使得開發(fā)人員能夠在支持 CUDA 的 GPU 上運(yùn)行代碼,大幅提升應(yīng)用程序的性能。這一平臺(tái)尤為適合用于處理大規(guī)模并行任務(wù),如深度學(xué)習(xí)、科學(xué)計(jì)算以及圖像處理等領(lǐng)域。

通常而言,“CUDA” 不僅指平臺(tái)本身,也可指為充分利用 NVIDIA GPU 的計(jì)算能力而編寫的代碼,這些代碼多采用 C++ 和 Python 等語(yǔ)言編寫,以充分發(fā)揮 GPU 加速的優(yōu)勢(shì)。借助 CUDA,開發(fā)人員能夠更加輕松地將復(fù)雜的計(jì)算任務(wù)轉(zhuǎn)移至 GPU 運(yùn)行,極大提升應(yīng)用程序的運(yùn)行效率。

因此,總結(jié)起來(lái),我們可以得出如下結(jié)論:

CUDA 不僅僅是一個(gè)簡(jiǎn)單的庫(kù),它是一個(gè)完整的平臺(tái),為開發(fā)者提供了利用 GPU 進(jìn)行高效并行計(jì)算的全方位支持。這個(gè)平臺(tái)的核心組件包括:

  • CUDA C/C++:這是 CUDA 為并行編程所擴(kuò)展的 C++ 語(yǔ)言,專為在 GPU 上編寫并行代碼而設(shè)計(jì)。開發(fā)者可以使用熟悉的 C++ 語(yǔ)法結(jié)構(gòu),通過(guò)特定的編程模型定義 GPU 任務(wù),讓代碼更高效地在多線程環(huán)境中執(zhí)行。
  • CUDA 驅(qū)動(dòng)程序:這一組件連接操作系統(tǒng)與 GPU,提供底層硬件訪問(wèn)接口。驅(qū)動(dòng)程序的主要作用是管理 CPU 與 GPU 之間的數(shù)據(jù)傳輸,并協(xié)調(diào)它們的計(jì)算資源。它確保了硬件和操作系統(tǒng)的兼容性,是 CUDA 代碼高效運(yùn)行的基礎(chǔ)。
  • CUDA 運(yùn)行時(shí)庫(kù)(cudart):運(yùn)行時(shí)庫(kù)為開發(fā)者提供了豐富的 API,便于管理 GPU 內(nèi)存、啟動(dòng) GPU 內(nèi)核(即并行任務(wù))、同步線程等。它簡(jiǎn)化了開發(fā)者的工作流程,使得在 GPU 上運(yùn)行并行程序的流程更加流暢和高效。
  • CUDA 工具鏈(ctk):包括編譯器、鏈接器、調(diào)試器等工具,這些工具用于將 CUDA 代碼編譯成 GPU 可執(zhí)行的二進(jìn)制指令。工具鏈中的編譯器將 C++ 代碼和 CUDA 內(nèi)核代碼一同處理,使其適應(yīng) GPU 的架構(gòu);而調(diào)試器和分析工具幫助開發(fā)者優(yōu)化性能和排查問(wèn)題。

相關(guān)的環(huán)境變量可參考如下:

  • $CUDA_HOME是系統(tǒng)CUDA的路徑,看起來(lái)像/usr/local/cuda,它可能鏈接到特定版本/usr/local/cuda-X.X。
  • $LD_LIBRARY_PATH是一個(gè)幫助應(yīng)用程序查找鏈接庫(kù)的變量。您可能想要包含$CUDA_HOME/lib的路徑。
  • $PATH應(yīng)該包含一個(gè)通往$CUDA_HOME/bin的路徑。

借助這一完整的開發(fā)平臺(tái),開發(fā)者能夠充分挖掘 NVIDIA GPU 的計(jì)算潛力,將復(fù)雜的并行計(jì)算任務(wù)高效地分配至 GPU 上執(zhí)行,從而實(shí)現(xiàn)應(yīng)用程序性能的極大提升。

CUDA 是如何工作的 ?

現(xiàn)代 GPU 由數(shù)千個(gè)小型計(jì)算單元組成,這些單元被稱為 CUDA 核心。CUDA 核心能夠高效并行工作,使 GPU 能夠快速處理那些可以分解為多個(gè)小型獨(dú)立操作的任務(wù)。這種架構(gòu)使得 GPU 不僅適用于圖形渲染任務(wù),也適用于計(jì)算密集型的科學(xué)計(jì)算和機(jī)器學(xué)習(xí)等非圖形任務(wù)。

作為 NVIDIA 提供的一個(gè)計(jì)算平臺(tái)和編程模型,CUDA 專門為 GPU 開放了這些強(qiáng)大的并行處理能力。通過(guò) CUDA,開發(fā)者可以編寫代碼,將復(fù)雜的計(jì)算任務(wù)移交給 GPU。以下是 CUDA 的工作原理:

(1) 并行處理

CUDA 將計(jì)算任務(wù)分解為多個(gè)可以獨(dú)立運(yùn)行的小任務(wù),并將這些任務(wù)分配到多個(gè) CUDA 核心上并行執(zhí)行。這樣一來(lái),與傳統(tǒng) CPU 順序執(zhí)行的模式相比,GPU 可以在相同時(shí)間內(nèi)完成更多的計(jì)算,從而極大地提升計(jì)算效率。

(2) 線程和塊的架構(gòu)

在 CUDA 編程模型中,計(jì)算任務(wù)被進(jìn)一步劃分為線程,每個(gè)線程獨(dú)立處理一部分?jǐn)?shù)據(jù)。這些線程被組織成塊,每個(gè)塊中包含一定數(shù)量的線程。這種層次化結(jié)構(gòu)不僅便于管理海量線程,還提高了執(zhí)行效率。多個(gè)線程塊可以同時(shí)運(yùn)行,使得整個(gè)任務(wù)可以快速并行完成。

(3) SIMD 架構(gòu)

CUDA 核心采用單指令多數(shù)據(jù)(Single Instruction, Multiple Data,簡(jiǎn)稱 SIMD)架構(gòu)。這意味著單條指令可以對(duì)多個(gè)數(shù)據(jù)元素同時(shí)執(zhí)行操作。例如,可以用一條指令對(duì)大量數(shù)據(jù)元素進(jìn)行相同的計(jì)算,從而加快數(shù)值計(jì)算的速度。這種架構(gòu)對(duì)矩陣運(yùn)算、向量處理等高并行任務(wù)極為高效,特別適用于深度學(xué)習(xí)模型訓(xùn)練、圖像處理和模擬仿真等領(lǐng)域。

基于這些特性,CUDA 不僅為高性能并行計(jì)算提供了直接途徑,也將 NVIDIA GPU 的強(qiáng)大計(jì)算潛力拓展至科學(xué)計(jì)算、人工智能、圖像識(shí)別等領(lǐng)域,為開發(fā)者實(shí)現(xiàn)復(fù)雜計(jì)算任務(wù)的加速提供了強(qiáng)有力的支持。

CUDA 編程模型

在 CUDA 編程中,開發(fā)者通常需要編寫兩部分代碼:主機(jī)代碼(Host Code)和設(shè)備代碼(Device Code)。

主機(jī)代碼在 CPU 上運(yùn)行,負(fù)責(zé)與 GPU 進(jìn)行交互,包括數(shù)據(jù)傳輸和資源管理;而設(shè)備代碼則在 GPU 上執(zhí)行,承擔(dān)主要計(jì)算任務(wù)。二者相互配合,充分利用 CPU 和 GPU 的協(xié)同處理能力,以達(dá)到高效并行計(jì)算的目的。

(1) 主機(jī)代碼:主機(jī)代碼運(yùn)行在 CPU 上,負(fù)責(zé)控制整個(gè)程序的邏輯流程。它管理 CPU 和 GPU 之間的數(shù)據(jù)傳輸,分配和釋放 GPU 資源,并配置 GPU 內(nèi)核參數(shù)。這部分代碼不僅定義了如何組織數(shù)據(jù)并將其發(fā)送到 GPU,還包含了啟動(dòng)設(shè)備代碼的指令,從而讓 GPU 接管計(jì)算密集的任務(wù)。主機(jī)代碼起到管理和協(xié)調(diào)的作用,確保 CPU 與 GPU 之間的高效協(xié)作。

此部分包括數(shù)據(jù)傳輸、內(nèi)存管理、以及啟動(dòng) GPU 內(nèi)核等,具體功能可參考如下所示:

  • 數(shù)據(jù)傳輸管理:主機(jī)代碼負(fù)責(zé)在 CPU 和 GPU 之間傳輸數(shù)據(jù)。由于 CPU 和 GPU 通常使用不同的內(nèi)存系統(tǒng),主機(jī)代碼需要在兩者之間復(fù)制數(shù)據(jù)。例如,將需要處理的數(shù)據(jù)從主機(jī)內(nèi)存(CPU 內(nèi)存)傳輸?shù)皆O(shè)備內(nèi)存(GPU 內(nèi)存),并在處理完成后將結(jié)果從 GPU 內(nèi)存?zhèn)骰?CPU 內(nèi)存。這種數(shù)據(jù)傳輸是耗時(shí)的,因此在實(shí)際應(yīng)用中需要盡量減少傳輸頻率,并優(yōu)化數(shù)據(jù)大小,以降低延遲。
  • 內(nèi)存分配與管理:主機(jī)代碼分配 GPU 內(nèi)存空間,為后續(xù)的計(jì)算提供儲(chǔ)存資源。CUDA API 提供了多種內(nèi)存管理函數(shù)(如 cudaMalloc 和 cudaFree),允許開發(fā)者在 GPU 上動(dòng)態(tài)分配和釋放內(nèi)存。合理的內(nèi)存分配策略可以有效提高內(nèi)存使用效率,防止 GPU 內(nèi)存溢出。
  • 內(nèi)核配置與調(diào)度:在主機(jī)代碼中,開發(fā)者可以配置內(nèi)核啟動(dòng)參數(shù)(如線程數(shù)和線程塊數(shù))并決定內(nèi)核在 GPU 上的執(zhí)行方式。通過(guò)優(yōu)化這些參數(shù),主機(jī)代碼能夠顯著提升程序的執(zhí)行效率

(2) 設(shè)備代碼:設(shè)備代碼編寫的核心部分是在 GPU 上執(zhí)行的計(jì)算函數(shù),通常被稱為內(nèi)核(Kernel)。每個(gè)內(nèi)核函數(shù)在 GPU 的眾多 CUDA 核心上并行執(zhí)行,能夠快速處理大量數(shù)據(jù)。設(shè)備代碼專注于數(shù)據(jù)密集型的計(jì)算任務(wù),在執(zhí)行過(guò)程中充分利用 GPU 的并行計(jì)算能力,使得計(jì)算速度比傳統(tǒng)的串行處理有顯著提升。

設(shè)備代碼定義了 GPU 的計(jì)算邏輯,使用 CUDA 內(nèi)核來(lái)并行處理大量數(shù)據(jù)。

  • 內(nèi)核函數(shù)(Kernel Function):設(shè)備代碼的核心是內(nèi)核函數(shù),即在 GPU 的多個(gè)線程上同時(shí)執(zhí)行的函數(shù)。內(nèi)核函數(shù)由 __global__ 關(guān)鍵字標(biāo)識(shí),表示該函數(shù)將在設(shè)備端(GPU)執(zhí)行。內(nèi)核函數(shù)與普通的 C/C++ 函數(shù)不同,它必須是無(wú)返回值的,因?yàn)樗休敵鼋Y(jié)果都要通過(guò)修改傳入的指針或 GPU 內(nèi)存來(lái)傳遞。
  • 線程和線程塊的組織:在設(shè)備代碼中,計(jì)算任務(wù)被分解為多個(gè)線程,這些線程組成線程塊(Block),多個(gè)線程塊組成一個(gè)線程網(wǎng)格(Grid)。CUDA 提供了 threadIdx、blockIdx 等內(nèi)置變量來(lái)獲取線程的索引,從而讓每個(gè)線程在數(shù)據(jù)中找到屬于自己的計(jì)算任務(wù)。這種方式使得設(shè)備代碼可以非常高效地并行處理數(shù)據(jù)集中的每個(gè)元素。
  • 并行算法優(yōu)化:在設(shè)備代碼中,CUDA 編程可以實(shí)現(xiàn)多個(gè)并行優(yōu)化技術(shù),例如減少分支、優(yōu)化內(nèi)存訪問(wèn)模式(如減少全局內(nèi)存訪問(wèn)和提高共享內(nèi)存利用率),這些優(yōu)化有助于最大化利用 GPU 計(jì)算資源,提高設(shè)備代碼的執(zhí)行速度。

(3) 內(nèi)核啟動(dòng):內(nèi)核啟動(dòng)是 CUDA 編程的關(guān)鍵步驟,由主機(jī)代碼啟動(dòng)設(shè)備代碼內(nèi)核,在 GPU 上觸發(fā)執(zhí)行。內(nèi)核啟動(dòng)參數(shù)指定了 GPU 上線程的數(shù)量和分布方式,使內(nèi)核函數(shù)可以通過(guò)大量線程并行運(yùn)行,從而加快數(shù)據(jù)處理速度。通過(guò)適當(dāng)配置內(nèi)核,CUDA 編程能以更優(yōu)的方式利用 GPU 資源,提高應(yīng)用的計(jì)算效率。

在整個(gè)體系中,這一步驟至關(guān)重要,它控制了設(shè)備代碼的并行性、效率及運(yùn)行行為。具體可參考如下:

  • 內(nèi)核啟動(dòng)語(yǔ)法:CUDA 使用特殊的語(yǔ)法 <<<Grid, Block>>> 啟動(dòng)內(nèi)核函數(shù)。例如:kernel<<<numBlocks, threadsPerBlock>>>(parameters);,其中 numBlocks 表示線程塊的數(shù)量,threadsPerBlock 表示每個(gè)線程塊中包含的線程數(shù)。開發(fā)者可以根據(jù)數(shù)據(jù)集的大小和 GPU 的計(jì)算能力選擇合適的線程塊和線程數(shù)量。
  • 并行化控制:通過(guò)指定線程塊數(shù)和線程數(shù),內(nèi)核啟動(dòng)控制了 GPU 的并行粒度。較大的數(shù)據(jù)集通常需要更多的線程和線程塊來(lái)充分利用 GPU 的并行能力。合理配置內(nèi)核啟動(dòng)參數(shù),可以平衡 GPU 的并行工作負(fù)載,避免資源浪費(fèi)或過(guò)載現(xiàn)象。
  • 同步與異步執(zhí)行:內(nèi)核啟動(dòng)后,GPU 可以異步執(zhí)行任務(wù),CPU 繼續(xù)進(jìn)行其他操作,直至需要等待 GPU 完成。開發(fā)者可以利用這種異步特性,使程序在 CPU 和 GPU 間并行執(zhí)行,達(dá)到更高的并行效率。此外,CUDA 提供了同步函數(shù)(如 cudaDeviceSynchronize),確保 CPU 在需要時(shí)等待 GPU 完成所有操作,避免數(shù)據(jù)不一致的問(wèn)題。

通過(guò)有效協(xié)調(diào)這三者,CUDA 編程能夠?qū)崿F(xiàn)對(duì)數(shù)據(jù)密集型任務(wù)的高速并行處理,為高性能計(jì)算提供了一個(gè)極具擴(kuò)展性的解決方案。

CUDA 內(nèi)存層次結(jié)構(gòu)體系

在 CUDA 編程中,GPU 內(nèi)存的結(jié)構(gòu)是多層次的,具有不同的速度和容量特性。CUDA 提供了多種內(nèi)存類型,用于不同的數(shù)據(jù)存儲(chǔ)需求。合理利用這些內(nèi)存可以顯著提升計(jì)算效率。以下是各類內(nèi)存的詳細(xì)描述:

(1) 全局內(nèi)存(Global Memory)

全局內(nèi)存是 GPU 上容量最大的存儲(chǔ)空間,通常為幾 GB,并且是 GPU 的主要數(shù)據(jù)存儲(chǔ)區(qū)。全局內(nèi)存可以被所有線程訪問(wèn),也可以與 CPU 共享數(shù)據(jù),但其訪問(wèn)速度相對(duì)較慢(相對(duì)于其他 GPU 內(nèi)存類型而言),因此需要避免頻繁訪問(wèn)。數(shù)據(jù)傳輸操作也較耗時(shí),因此全局內(nèi)存常用于存儲(chǔ)較大的數(shù)據(jù)集,但會(huì)優(yōu)先考慮數(shù)據(jù)訪問(wèn)的批處理或其他緩存策略來(lái)減少其頻繁調(diào)用。

通常而言,全局內(nèi)存主要適用于存儲(chǔ)程序的大部分輸入輸出數(shù)據(jù),尤其是需要 GPU 和 CPU 共享的大容量數(shù)據(jù)。

示例:在矩陣乘法中,兩個(gè)矩陣的元素可以存儲(chǔ)在全局內(nèi)存中,以便所有線程都可以訪問(wèn)。

__global__ void matrixMultiplication(float *A, float *B, float *C, int N) {
    int row = blockIdx.y * blockDim.y + threadIdx.y;
    int col = blockIdx.x * blockDim.x + threadIdx.x;
    float sum = 0.0;
    for (int i = 0; i < N; ++i) {
        sum += A[row * N + i] * B[i * N + col];
    }
    C[row * N + col] = sum;
}

(2) 共享內(nèi)存(Shared Memory)

共享內(nèi)存是分配在 GPU 每個(gè)線程塊內(nèi)部的高速緩存,其訪問(wèn)速度遠(yuǎn)高于全局內(nèi)存,但容量較?。ㄍǔ槊繅K 48 KB 或更少)。共享內(nèi)存是線程塊內(nèi)線程共享的,適合存儲(chǔ)需要在一個(gè)線程塊內(nèi)頻繁訪問(wèn)的數(shù)據(jù)。由于它存儲(chǔ)在各自的塊內(nèi),每個(gè)塊內(nèi)的線程可以在共享內(nèi)存中快速讀寫數(shù)據(jù),從而減少對(duì)全局內(nèi)存的訪問(wèn)。

相對(duì)于全局內(nèi)存,共享內(nèi)存更多適用于多線程間的數(shù)據(jù)交換,尤其是需在一個(gè)線程塊內(nèi)反復(fù)使用的數(shù)據(jù)。

示例:在矩陣乘法中,A 和 B 的子塊可以加載到共享內(nèi)存中,以便線程塊中的所有線程都可以快速訪問(wèn)。

__shared__ float sharedA[TILE_SIZE][TILE_SIZE];
__shared__ float sharedB[TILE_SIZE][TILE_SIZE];

(3) 本地內(nèi)存(Local Memory)

本地內(nèi)存是分配給每個(gè)線程的私有內(nèi)存,主要用于存儲(chǔ)線程的私有變量。盡管稱為“本地”,它實(shí)際上是分配在全局內(nèi)存中,因此訪問(wèn)速度較慢,接近全局內(nèi)存的訪問(wèn)速度。由于本地內(nèi)存容量有限且其訪問(wèn)開銷較高,建議只在必要時(shí)使用。

通常情況下,本地內(nèi)存適用于存儲(chǔ)線程的臨時(shí)變量、私有數(shù)據(jù)或不適合在寄存器中保存的數(shù)據(jù)。

示例:對(duì)于復(fù)雜計(jì)算中的中間變量,可以放置在本地內(nèi)存中,以便線程之間不發(fā)生沖突。

int localVariable = 0;  // 本地內(nèi)存中的變量

(4) 常量和紋理內(nèi)存(Constant and Texture Memory)

常量?jī)?nèi)存和紋理內(nèi)存分別是 CUDA 提供的專用于只讀數(shù)據(jù)的內(nèi)存類型,具有特殊的緩存機(jī)制,能夠在特定訪問(wèn)模式下加快數(shù)據(jù)讀取。常量?jī)?nèi)存用于存儲(chǔ)不會(huì)更改的常量數(shù)據(jù),而紋理內(nèi)存適合存儲(chǔ)二維或三維數(shù)據(jù),通過(guò)紋理緩存可以提高訪問(wèn)速度。

常量?jī)?nèi)存(Constant Memory):僅可由 CPU 寫入,但可被所有 GPU 線程讀取。適合存儲(chǔ)小規(guī)模的、不變的數(shù)據(jù)(如配置信息、系數(shù)等)。

紋理內(nèi)存(Texture Memory):專門優(yōu)化以支持二維或三維數(shù)據(jù)的讀取,對(duì)于非順序或稀疏訪問(wèn)模式的數(shù)據(jù)(如圖像數(shù)據(jù))具有較高的訪問(wèn)效率。

示例:在圖像處理應(yīng)用中,將像素?cái)?shù)據(jù)加載到紋理內(nèi)存中,讓 GPU 利用其特定的緩存機(jī)制來(lái)優(yōu)化訪問(wèn)效率。

__constant__ float constData[256];  // 常量?jī)?nèi)存

cudaArray* texArray;
cudaChannelFormatDesc channelDesc = cudaCreateChannelDesc<float>();
cudaMallocArray(&texArray, &channelDesc, width, height);  // 紋理內(nèi)存

CUDA平臺(tái)為開發(fā)人員提供了對(duì)CUDA GPU并行計(jì)算資源的深度訪問(wèn),允許直接操作GPU的虛擬指令集和內(nèi)存。通過(guò)使用CUDA,GPU可以高效地處理數(shù)學(xué)密集型任務(wù),從而釋放CPU的計(jì)算資源,使其能夠?qū)W⒂谄渌蝿?wù)。這種架構(gòu)與傳統(tǒng)GPU的3D圖形渲染功能有著本質(zhì)的區(qū)別,開創(chuàng)了GPU在計(jì)算領(lǐng)域的新用途。

在CUDA平臺(tái)的架構(gòu)中,CUDA核心是其核心組成部分。每個(gè)CUDA核心都是一個(gè)獨(dú)立的并行處理單元,負(fù)責(zé)執(zhí)行各種計(jì)算任務(wù)。GPU中的CUDA核心數(shù)量越多,它能夠并行處理的任務(wù)就越多,從而顯著提升計(jì)算性能。通過(guò)這種并行計(jì)算,CUDA平臺(tái)能夠在復(fù)雜的計(jì)算過(guò)程中實(shí)現(xiàn)大規(guī)模任務(wù)的并行處理,提供卓越的性能和高效性。

Reference :

  • [1]   https://acecloud.ai/resources/blog/why-gpus-for-deep-learning/
  • [2]   https://www.weka.io/learn/glossary/ai-ml/cpu-vs-gpu/
責(zé)任編輯:趙寧寧 來(lái)源: 架構(gòu)驛站
相關(guān)推薦

2020-09-27 08:02:47

操作系統(tǒng)

2015-08-20 13:43:17

NFV網(wǎng)絡(luò)功能虛擬化

2010-05-26 19:12:41

SVN沖突

2010-05-17 09:13:35

2014-03-12 11:11:39

Storage vMo虛擬機(jī)

2021-06-07 08:18:12

云計(jì)算云端阿里云

2015-09-06 10:54:29

HTTP網(wǎng)絡(luò)協(xié)議

2010-05-11 10:19:17

VMforceJava云計(jì)算

2009-06-01 09:04:44

Google WaveWeb

2018-03-01 09:33:05

軟件定義存儲(chǔ)

2016-04-06 09:27:10

runtime解密學(xué)習(xí)

2009-09-15 15:34:33

Google Fast

2023-11-02 09:55:40

2012-08-17 09:27:34

奧運(yùn)會(huì)云計(jì)算虛擬化

2015-09-06 13:40:02

HTTP網(wǎng)絡(luò)協(xié)議

2015-09-07 13:52:04

2016-11-16 09:06:59

2024-02-14 09:00:00

機(jī)器學(xué)習(xí)索引ChatGPT

2025-01-07 15:07:13

2015-09-08 10:06:15

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)