自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌擁抱英偉達(dá)!推出云端GPU,把AI引進(jìn)無服務(wù)器,開源大模型愛好者福利來了

原創(chuàng) 精選
人工智能
之前,開發(fā)者們一般是借用了谷歌Colab上可用的硬件來進(jìn)行推理。這很簡單,只需使用帶有Python腳本的Jupyter筆記本,選擇硬件(CPU、GPU或TPU),然后運(yùn)行視頻、圖像、文本或語音AI應(yīng)用程序。

編輯 | 言征

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

有點(diǎn)震驚,谷歌也開始擁抱英偉達(dá)的GPU了!

盡管有著自家的TPU,但為了更好地市場競爭,英偉達(dá)的GPU終究是繞不開(皮衣客黃教主盡情笑吧?。?/p>

近日,谷歌抖了大料:不僅推出了云端的GPU,把AI引進(jìn)了Serverless,同時(shí)贈(zèng)送了幾個(gè)開源大模型以供開發(fā)者進(jìn)行部署和微調(diào)。

這對開源大模型愛好者們而言是一個(gè)重大利好:省事更省錢了。

這相當(dāng)于不管是硬件的算力,還是軟件層面的大模型,谷歌直接給出了一個(gè)完整的全家桶,不必再苦于本地設(shè)備的能力不足,而不能體驗(yàn)性能領(lǐng)先的開源大模型了!在此基礎(chǔ)上,開源開發(fā)者可以創(chuàng)建自己的Copilot、智能體等應(yīng)用程序。 

1.谷歌推出云端GPU,附帶開源LLM

如果你熱愛開源AI,但卻沒有在本地運(yùn)行AI模型的計(jì)算能力,谷歌今天的消息的確令人興奮。

據(jù)悉,谷歌正在將英偉達(dá)的L4 GPU引入其云服務(wù)。L4 GPU是H100 GPU的輕量級版本,曾用于訓(xùn)練Meta的Llama 3.1和OpenAI的GPT-4o模型。

開發(fā)者可以登錄谷歌的Cloud Run,在容器中加載Ollama,啟動(dòng)開源LLM,如谷歌的Gemma 2或Meta的Llama 3.1,指向L4 GPU,然后進(jìn)行推理。具體指令將在下文提供。

2.將 AI 引入無服務(wù)器世界

Cloud Run是 Google 的全托管無服務(wù)器平臺(tái),由于能夠簡化容器部署和管理,因此一直受到開發(fā)人員的青睞。然而,人工智能工作負(fù)載(尤其是需要實(shí)時(shí)處理的工作負(fù)載)的需求不斷增加,凸顯了對更強(qiáng)大的計(jì)算資源的需求。

GPU 支持的集成將為 Cloud Run 開發(fā)者開辟了廣泛的用例,包括:

  • 使用輕量級開放模型(例如 Gemma 2B/7B 或 Llama3 (8B))進(jìn)行實(shí)時(shí)推理,可以創(chuàng)建響應(yīng)式自定義聊天機(jī)器人和即時(shí)文檔摘要工具。
  • 提供定制的微調(diào)生成式 AI 模型,包括可根據(jù)需求擴(kuò)展的品牌特定圖像生成應(yīng)用程序。
  • 加速圖像識別、視頻轉(zhuǎn)碼和 3D 渲染等計(jì)算密集型服務(wù),并能夠在不使用時(shí)擴(kuò)展到零。

3.GPU的無服務(wù)器玩法

Google Cloud Run 無服務(wù)器產(chǎn)品現(xiàn)在集成了 Nvidia L4 GPU,使組織能夠運(yùn)行無服務(wù)器推理。

無服務(wù)器服務(wù)的承諾是,服務(wù)僅在需要時(shí)運(yùn)行,用戶只需為使用的內(nèi)容付費(fèi)。這與典型的云實(shí)例形成對比,后者將作為持久服務(wù)運(yùn)行一段時(shí)間,并且始終可用。在這種情況下,無服務(wù)器服務(wù)只會(huì)在需要時(shí)啟動(dòng)和使用用于推理的 GPU。

無服務(wù)器推理可以部署為Nvidia NIM,以及其他框架(例如 VLLM、Pytorch 和 Ollama)。Nvidia L4 GPU 的添加目前處于預(yù)覽階段。

Google Cloud Serverless 產(chǎn)品經(jīng)理 Sagar Randive 告訴 VentureBeat:“隨著客戶越來越多地采用 AI,他們正在尋求在他們熟悉并啟動(dòng)的平臺(tái)上運(yùn)行推理等 AI 工作負(fù)載。” “Cloud Run 用戶更喜歡該平臺(tái)的效率和靈活性,并一直要求谷歌增加 GPU 支持?!?/p>

4.運(yùn)行無服務(wù)器 AI 推理會(huì)更便宜嗎?

無服務(wù)器的一個(gè)常見問題是性能。畢竟,如果服務(wù)并非始終運(yùn)行,那么僅僅為了讓服務(wù)從所謂的冷啟動(dòng)運(yùn)行,性能就會(huì)受到影響。

Google Cloud 旨在消除任何此類性能擔(dān)憂,并引用了新的支持 GPU 的 Cloud Run 實(shí)例的一些令人印象深刻的指標(biāo)。據(jù) Google 稱,包括 Gemma 2b、Gemma2 9b、Llama2 7b/13b 和 Llama 3.1 8b 在內(nèi)的各種型號的冷啟動(dòng)時(shí)間范圍為 11 到 35 秒,展示了該平臺(tái)的響應(yīng)能力。

每個(gè) Cloud Run 實(shí)例均可配備一個(gè) Nvidia L4 GPU,最高可配備 24GB vRAM,為許多常見的 AI 推理任務(wù)提供充足的資源。

Google Cloud 還計(jì)劃在運(yùn)行哪些模型方面做到與模型無關(guān),不過它在某種程度上也采取了兩面下注的做法。

“我們不限制任何 LLM,用戶可以運(yùn)行他們想要的任何模型,”Randive 說道。“但為了獲得最佳性能,建議他們在 13B 參數(shù)下運(yùn)行模型?!?/p>

無服務(wù)器的一個(gè)關(guān)鍵優(yōu)勢是更好地利用硬件,這也意味著更低的成本。

至于對于組織來說,以無服務(wù)器或長期運(yùn)行的服務(wù)器方式提供人工智能推理是否實(shí)際上更便宜,這是一個(gè)有點(diǎn)微妙的問題。

“這取決于應(yīng)用程序和預(yù)期的流量模式,”Randive 表示?!拔覀儗⒏挛覀兊亩▋r(jià)計(jì)算器,以反映 Cloud Run 的新 GPU 價(jià)格,屆時(shí)客戶將能夠比較他們在各個(gè)平臺(tái)上的總運(yùn)營成本?!?/p>

5.終于,為開源社區(qū)提供服務(wù)

谷歌終于擁有了一個(gè)完整的硬件和軟件包,開源開發(fā)者可以在此基礎(chǔ)上利用開源模型創(chuàng)建應(yīng)用程序。開發(fā)者可以完全控制前端和后端,并可以通過Cloud Run指向谷歌云中的L4。

到目前為止,Cloud Run服務(wù)僅限于谷歌的專有模型,包括Gemini 1.0 LLM、用于圖像生成的Imagen以及用于多模態(tài)模型的Gemini 1.5 Flash。

現(xiàn)在,Cloud Run已經(jīng)擁有了Gemma 2(Gemini的開源版本)和Llama 3.1。L4 GPU也是一個(gè)新增的功能,可用于在開源模型上進(jìn)行推理。

6.在PC上本地運(yùn)行LLM的替代方案

谷歌提供的服務(wù)避免了在PC上加載Ollama并本地運(yùn)行LLM的繁瑣過程。谷歌的Cloud Run可以在30秒內(nèi)加載LLM和Ollama。

在大多數(shù)情況下,大多數(shù)PC都沒有運(yùn)行具有大上下文窗口的LLM所需的GPU。像LM Studio這樣的應(yīng)用程序已經(jīng)可以實(shí)現(xiàn)下載LLM,并且該軟件會(huì)顯示這些LLM是否可以在本地GPU上運(yùn)行,但這仍然需要時(shí)間。

Cloud Run上提供的最新模型包括擁有90億參數(shù)的Gemma 2和擁有80億參數(shù)的Llama 3.1。其他可用的模型還包括擁有130億參數(shù)的Llama 2和擁有20億參數(shù)的Gemma。

谷歌表示,配備L4 GPU的Cloud Run實(shí)例將在大約5秒內(nèi)加載,之后還需要幾秒鐘的時(shí)間用Ollama初始化框架和模型。整個(gè)LLM的大小可達(dá)7.4GB,可以在幾秒鐘內(nèi)完成下載和初始化。

最小的20億參數(shù)的Gemma模型需要11到17秒,而最新的90億參數(shù)的Gemma 2需要25到30秒。80億參數(shù)的Llama 3.1需要15到21秒來加載。

7.關(guān)于定價(jià):是否值得一試

谷歌尚未公布在L4 GPU上運(yùn)行開源Llama和Gemma模型的定價(jià)。但根據(jù)目前的定價(jià)結(jié)構(gòu),在谷歌云上運(yùn)行Gemma的成本很高,使用L4作為云GPU的起步價(jià)為516美元。

谷歌承諾每月免費(fèi)提供兩百萬次請求,不過業(yè)內(nèi)實(shí)際情況比較復(fù)雜,當(dāng)幾乎所有變量都考慮在內(nèi)時(shí),客戶通常最終可能會(huì)選擇支付費(fèi)用。

時(shí)間就是金錢,而且你沒有本地的處理能力,那么L4可能是最便宜的GPU選擇;但如果你已經(jīng)投資了一臺(tái)配備頂級GPU的筆記本電腦,并且可以等待10到20分鐘來下載、調(diào)整和加載LLM,那么還是堅(jiān)持使用本地設(shè)備吧。

目前,Cloud Run GPU僅在谷歌位于美國中部1區(qū)(愛荷華州)可用,預(yù)計(jì)今年年底將在歐洲和亞洲上線。谷歌在一封電子郵件中表示:“我們未來可能會(huì)提供更多GPU選項(xiàng),并擴(kuò)展到更多地區(qū)?!?/p>

8.寫在最后:谷歌對待AI開發(fā)的玩法變了

要知道此前,開發(fā)者們一般是借用了谷歌Colab上可用的硬件來進(jìn)行推理。這很簡單,只需使用帶有Python腳本的Jupyter筆記本,選擇硬件(CPU、GPU或TPU),然后運(yùn)行視頻、圖像、文本或語音AI應(yīng)用程序。

免費(fèi)層級原本僅供研究人員使用,因此有人認(rèn)為這會(huì)導(dǎo)致一部分人在濫用這一資源。

所以,后來谷歌Colab最終取消了廣泛的GPU訪問權(quán)限的免費(fèi)使用。大多數(shù)應(yīng)用程序無法利用谷歌的TPU,而是默認(rèn)使用CPU,這非常緩慢。

現(xiàn)在Colab上唯一提供的GPU是接近八年歷史的英偉達(dá)T4。

不過,今天我們看到了Google似乎開始篤定的走上“GPU+無服務(wù)器”這條道路了,畢竟AI開發(fā)的需求已經(jīng)毫無疑問地成為了新的增長引擎。

想了解更多AIGC的內(nèi)容,請?jiān)L問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2018-06-12 07:38:05

Linux 開源

2014-07-01 10:15:24

英偉達(dá)GPU64位

2014-02-13 10:15:39

編程業(yè)余愛好

2021-01-12 10:50:48

人工智能Instagramer科技

2023-05-06 13:45:58

AI研發(fā)

2017-11-01 15:20:55

開源開源許可證

2020-06-05 09:47:55

Linux 系統(tǒng) 數(shù)據(jù)

2020-09-28 16:23:54

Windows將被微軟

2025-04-14 09:40:00

2018-11-28 09:28:28

無服務(wù)器架構(gòu)網(wǎng)絡(luò)服務(wù)

2024-02-20 12:30:53

AI訓(xùn)練

2023-11-17 17:02:21

微軟AI芯片

2025-04-07 09:45:00

2010-06-18 09:00:54

2009-02-27 09:59:07

LinuxFedora 10愛好者

2011-05-30 13:58:56

PHP

2017-03-23 15:17:20

Linuxsudo棋盤

2009-11-02 11:25:40

LinuxUbuntu 9.10操作系統(tǒng)

2013-12-26 10:32:30

編程學(xué)習(xí)

2019-08-09 10:15:14

機(jī)器學(xué)習(xí)人工智能監(jiān)督學(xué)習(xí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號