自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

你的企業(yè)需要哪些AI處理單元?

人工智能 數(shù)據(jù)中心
隨著越來越多的大型企業(yè)采用人工智能作為數(shù)字化轉(zhuǎn)型工作的一部分,AI正在不斷擴展和發(fā)展。請了解你的企業(yè)為何需要AI,這可以幫助你決定采用哪種基礎架構(gòu)來支持它。

如果你希望在數(shù)據(jù)中心部署AI,請仔細考慮首先要投資的硬件和基礎設施。

AI涵蓋一系列技術,例如機器學習和深度學習。并且AI包括廣泛的業(yè)務應用,從可預測未來表現(xiàn)的分析,到推薦系統(tǒng)和圖像識別。

隨著越來越多的大型企業(yè)采用人工智能作為數(shù)字化轉(zhuǎn)型工作的一部分,AI正在不斷擴展和發(fā)展。請了解你的企業(yè)為何需要AI,這可以幫助你決定采用哪種基礎架構(gòu)來支持它。

[[431089]]

配備GPU的服務器

為服務器配備GPU已成為AI最常見的基礎架構(gòu)方法之一。你可以使用GPU芯片的大規(guī)模并行架構(gòu)來加速處理AI模型所涉及的批量浮點運算。

GPU也往往擁有廣泛而成熟的軟件生態(tài)系統(tǒng)。例如,Nvidia開發(fā)了CUDA工具包,讓開發(fā)人員可以將GPU用于各種目的,包括深度學習和分析。然而,盡管GPU支持某些深度學習任務,但它們并不一定支持所有AI工作負載。

IDC公司分析師Jack Vernon說:“在AI和機器學習的背景下,有些模型不屬于深度學習的類別,并且未被充分探索,因為GPU非常擅長神經(jīng)網(wǎng)絡類型的東西,但它不一定擅長某些有趣算法,以幫助人們做有趣的事情。”

在數(shù)據(jù)中心部署 AI 之前,你應該首先考慮為什么你要采用該技術,以確定GPU是否符合你的要求。然后,尋求專家建議以確定最適合你企業(yè)要求的模型類型,以了解你需要哪些其他基礎架構(gòu)。

其他硬件加速器

現(xiàn)場可編程門陣列 (FPGA) 本質(zhì)上是塞滿邏輯塊的芯片,你可以根據(jù)需要對其進行配置和重新配置,以執(zhí)行不同的功能。而ASIC在制造過程中將邏輯功能內(nèi)置到芯片中。兩者都可以加速硬件性能。對于擁有大量明確定義的工作負載的企業(yè),ASIC更有意義,而FPGA需要更復雜的編程。

谷歌通過其Google Cloud Platform向客戶提供其TPU,這是一種專為深度學習設計的ASIC。另外,Graphcore專門為AI工作負載設計了IPU,而Cambricon則提供圍繞針對深度學習優(yōu)化的指令集而設計的處理器芯片。英特爾收購的Habana Labs將可編程加速器作為單獨的芯片,用于深度學習的訓練和推理部分,分別稱為Gaudi和Goya。

盡管GPU和類似類型的硬件加速器在AI方面?zhèn)涫荜P注,但CPU仍然與AI和機器學習的很多領域相關。例如,英特爾為其服務器CPU添加了功能,以幫助加速AI工作負載。最新的Xeon Scalable系列采用Intel Deep Learning Boost,它具有新的指令來加速推理中涉及的計算類型。這意味著這些CPU可以在不需要額外硬件的情況下加速某些AI工作負載。

針對AI的存儲

在支持AI的基礎設施方面,企業(yè)不應忽視存儲。訓練機器學習模型需要大量的樣本數(shù)據(jù),并且系統(tǒng)必須盡可能快地接收數(shù)據(jù)以保持性能。

Vernon稱:“存儲是非常大的事情,訓練過程本身通常涉及反饋循環(huán)。因此,你需要在一個階段中保存模型,在此之上運行一些處理,更新它,然后不斷地調(diào)用它。大多數(shù)正在構(gòu)建培訓和推理基礎設施的企業(yè)通常很快就會需要大量額外的存儲。”

對于具有HPC基礎設施的企業(yè),通常已經(jīng)擁有快速閃存存儲層–以更大容量層為后端。對于大多數(shù)企業(yè)而言,這意味著以盡可能低的延遲部署NVMe SSD,并以成本較低的存儲為后盾來提供容量。

專用AI系統(tǒng)

有些專門系統(tǒng)為AI工作負載提供更高的性能。Nvidia的DGX服務器是基于其GPU,其架構(gòu)經(jīng)過優(yōu)化以保持這些GPU獲取數(shù)據(jù)。存儲供應商還與Nvidia合作,提供經(jīng)過驗證的參考架構(gòu),將高性能存儲陣列與Nvidia DGX系統(tǒng)配對。例如,DDN優(yōu)化其Accelerated, Any-Scale AI產(chǎn)品組合,針對用于訓練AI模型的所有類型的訪問模式和數(shù)據(jù)布局,并且,NetAp和Pure Storage等供應商提供類似的存儲架構(gòu)。

英特爾提供其OpenVINO工具包作為推理引擎,旨在優(yōu)化和運行預訓練模型。它具有插件架構(gòu),使其能夠在一系列硬件(例如 CPU、GPU、FPGA 或三者的混合)上執(zhí)行模型,從而為企業(yè)提供更大的部署靈活性。

你還可以選擇在云端構(gòu)建和訓練你的AI模型,使用按需資源,當訓練完成,就可以停止使用。

 

責任編輯:趙寧寧 來源: TechTarget中國
相關推薦

2020-01-18 14:59:36

手機AI手機處理器

2022-03-11 12:15:41

物聯(lián)網(wǎng)企業(yè)物聯(lián)網(wǎng)

2023-12-14 15:34:13

2014-07-15 16:40:40

敏捷華為

2021-08-04 10:51:04

數(shù)據(jù)庫單元測試SQL

2024-01-22 11:34:08

2024-06-04 16:51:11

2021-10-09 21:00:15

人工智能AI

2023-05-18 09:00:00

人工智能StarCoder編程語言

2016-09-25 10:38:32

2023-05-08 14:49:54

數(shù)據(jù)處理DPU

2024-02-26 14:20:53

2023-10-08 13:42:43

AIChatGPT

2011-04-21 10:53:40

IE 9

2021-09-19 10:49:04

LinuxAI處理單元DRM

2020-05-07 10:14:00

企業(yè)架構(gòu)師CIOIT網(wǎng)絡

2013-07-31 09:48:08

IT企業(yè)硬件

2010-04-30 10:05:31

企業(yè)級Linux
點贊
收藏

51CTO技術棧公眾號