人工智能熱潮導(dǎo)致算力緊張,微軟推新服務(wù)器租賃計劃
ChatGPT持續(xù)火爆導(dǎo)致芯片短缺:沒有足夠的計算能力來處理ChatGPT的計算需求,這已經(jīng)使OpenAI的服務(wù)器過載。上一次大規(guī)模芯片短缺還是因為為了虛擬貨幣瘋狂挖礦導(dǎo)致的。不過隨著對生成式人工智能需求不斷增加,這一次算力緊張的情況可能會持續(xù)相當一段時間。
微軟希望通過一種名為ND H100 v5的新虛擬機產(chǎn)品來填補這一空白,其中包括大批英偉達(Nvidia)代號為Hopper的最新H100 GPU,,用于生成式人工智能應(yīng)用。
其思路是為研究生成式人工智能的公司提供更高的計算速度,這些公司能夠更深入地挖掘數(shù)據(jù),建立關(guān)系、推理并預(yù)測答案。生成式人工智能尚處于早期階段,但ChatGPT等應(yīng)用程序大受歡迎的現(xiàn)象已經(jīng)證明該技術(shù)的巨大潛力。
但這項技術(shù)也需要巨大的計算能力,微軟正在將其引入Azure云服務(wù)。
虛擬機產(chǎn)品可以根據(jù)生成式人工智能應(yīng)用程序的大小進行調(diào)整,并可擴展到數(shù)千個H100 GPU,GPU之間通過芯片制造商的Quantum-2 InfiniBand技術(shù)互連。
Azure上配備H100虛擬機的定價并沒有立即公布。虛擬機的價格因配置而異,一臺具有96個CPU核心、900GB存儲和8個A100 GPU的滿載A100虛擬機每月的成本接近20000美元。
去年ChatGPT剛推出時,英偉達GPU面臨嚴峻考驗。其計算由OpenAI超級計算機承擔,該計算機由Nvidia A100 GPU構(gòu)建。
但服務(wù)器很快被對ChatGPT瘋狂增長的需求淹沒了,用戶抱怨服務(wù)器無法及時響應(yīng)和處理查詢?nèi)蝿?wù)。
H100可以縮小生成式人工智能所需的速度差距,生成式人工智能已經(jīng)被用于醫(yī)療保健、機器人和其他行業(yè)。各開發(fā)公司也在尋求填補最后一公里的空白,并部署一個界面,使人工智能簡單可用,就像ChatGPT一樣。
英偉達和微軟已經(jīng)在用H100制造一臺人工智能超級計算機。GPU的設(shè)計使其能夠最好地與CUDA編碼的應(yīng)用程序配合使用(CUDA是英偉達的并行編程框架)。產(chǎn)品還包括Triton推理服務(wù)器,它將有助于在其GPU環(huán)境中部署人工智能模型GPT-3。
微軟開始在其產(chǎn)品中全面嵌入人工智能:在Bing搜索引擎中實現(xiàn)了GPT-3.5的定制版本,這是ChatGPT背后的大型語言模型。微軟正在對Bing AI采取DevOps(開發(fā)運營)風格的迭代方法,在這種方法中,應(yīng)用程序通過了解用戶使用模型時的信息能夠快速更新。Microsoft 365 Copilot則是嵌入了人工智能的原OFFICE套件。WORD、PPT和EXCEL這些我們熟悉的軟件將以全新能力改變傳統(tǒng)工作方法。而這一切的背后,都離不開算力的支持。
新的Azure虛擬機基本配置可以通過英偉達專有的NVLink 4.0互連將八個H100 Tensor Core GPU互連。該配置可以通過Quantum-2互連擴展到更多的GPU。服務(wù)器具有Intel的第4代Xeon(Sapphire Rapids)可擴展處理器,通過PCIe Gen5與GPU進行數(shù)據(jù)傳輸。