谷歌云與Hugging Face簽署人工智能基礎設施合作協(xié)議
谷歌公司(Google LLC)云計算部門今天宣布與Hugging Face公司建立新的合作伙伴關(guān)系,后者是一個流行的共享開源人工智能模型平臺運營商。
根據(jù)協(xié)議,谷歌云將成為Hugging Face人工智能訓練和推理工作負載的 “首選目的地”。此外,兩家公司還打算相互整合各自的若干服務。
Hugging Face在去年8月得到了45億美元的估值,它提供了一個類似于GitHub的平臺,可以托管開源人工智能模型。該平臺還可以共享訓練數(shù)據(jù)集等相關(guān)文件。除了托管其他開發(fā)者的機器學習項目外,該公司還通過研究合作建立了兩個開源語言模型。
該公司通過一系列付費云服務實現(xiàn)營收。其中一項服務AutoTrain可減少人工智能模型訓練過程中的人工工作量。Hugging Face還提供Inference Endpoints,企業(yè)可以用它來托管已經(jīng)訓練好的人工智能模型。
作為此次與谷歌云新合作的一部分,該公司將推出與搜索巨頭Vertex AI產(chǎn)品套件的集成。該套件包括人工智能開發(fā)工具和130多個預先打包的基礎模型。據(jù)這兩家公司稱,開發(fā)人員只需點擊幾下,就能從Hugging Face界面訪問Vertex AI。
谷歌的Kubernetes Engine(該搜索巨頭管理的Kubernetes服務)也將推出類似的集成。開發(fā)人員可以使用該服務以軟件容器的形式運行人工智能工作負載,例如從Hugging Face下載的開源神經(jīng)網(wǎng)絡。在谷歌通過云平臺提供的人工智能優(yōu)化芯片上運行這些容器,GKE使之成為可能。
這家搜索巨頭表示,Hugging Face 用戶將可以使用 Cloud TPU v5e,這是其內(nèi)部開發(fā)的機器學習處理器的最新版本。與谷歌上一代芯片相比,該芯片的每美元性能最多可提高 250%。它還能以更低的延遲運行人工智能模型。
接下來,Hugging Face 還將支持谷歌最近推出的A3虛擬機。每個A3虛擬機的實例都配備了八塊英偉達的H100圖形卡,它們相互交換數(shù)據(jù)的速度比上一代實例中的芯片快得多,這有助于提高人工智能性能。兩顆英特爾公司的處理器和2TB內(nèi)存為A3 虛擬機中的GPU提供支持。
谷歌云首席執(zhí)行官Thomas Kurian表示:“谷歌云和Hugging Face有著共同的愿景,那就是讓開發(fā)者更容易獲得生成式人工智能,并使其產(chǎn)生更大的影響?!薄按舜魏献鞔_保了Hugging Face上的開發(fā)者可以訪問谷歌云專門打造的人工智能平臺Vertex AI,以及我們的安全基礎設施,這可以加速下一代人工智能服務和應用的發(fā)展。”
除了新的基礎設施選項,Hugging Face還將增加與谷歌云市場(Google Cloud Marketplace)的集成。該集成旨在簡化Hugging Face付費人工智能開發(fā)和托管服務客戶計費方面的工作。該集成還將與該公司的Spaces門戶網(wǎng)站合作,開源開發(fā)者可利用該門戶網(wǎng)站分享人工智能應用。