自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌開源Gemma,為端側(cè)AI澆了桶油

人工智能
這次谷歌發(fā)布的Gemma包含兩個“小”模型,Gemma 2B和Gemma 7B,由于參數(shù)規(guī)模分別為20億和70億,參數(shù)規(guī)模并不大,谷歌將這兩個模型歸為輕量級開放模型系列。

2月21日,谷歌正式對外發(fā)布開源大模型Gemma。

這距離谷歌上一次大模型Gemini 1.5的發(fā)布,還不到一周的時間,事關大模型的競爭愈演愈烈。

2月15日,OpenAI發(fā)布Sora,Sora文生視頻的能力,再度震驚整個行業(yè)。

彼時,就連此前在文生視頻領域攪弄風云的Runway、Pika等公司的創(chuàng)始人,也都不得不甘拜下風。

Sora在全球形成的“病毒式”傳播,再次證明了OpenAI奧特曼的天才營銷能力,也讓僅僅早于Sora兩小時發(fā)布的Gemini 1.5沒能在最佳傳播時間里獲得本應屬于它的全球關注度。

無論二者同期發(fā)布是奧特曼有意為之,還是一場意外,在巨頭之間的大模型競爭已經(jīng)到了白熱化的現(xiàn)在,谷歌都需要再亮出一張底牌,重新贏得市場的關注。

顯然,昨天發(fā)布的Gemma就是谷歌的又一張底牌,不過,這次谷歌瞄準的是開源大模型。

這次谷歌發(fā)布的Gemma包含兩個“小”模型,Gemma 2B和Gemma 7B,由于參數(shù)規(guī)模分別為20億和70億,參數(shù)規(guī)模并不大,谷歌將這兩個模型歸為輕量級開放模型系列。

值得注意的是,Gemma采用了和谷歌此前發(fā)布的主力大模型Gemini相同的技術架構(gòu),同時這也是一個可以直接下放到筆記本和臺式機上運行的端側(cè)大模型。

在此之前,谷歌在2023年12月首次對外發(fā)布Gemini大模型時,谷歌CEO Sundar Pichai就一口氣對外公布了Ultra、Pro、Nano三個版本,并稱,“這些是進入Gemini時代第一個模型,也是Google DeepMind成立時的愿景?!?/p>

這其中,Gemini Nano參數(shù)規(guī)模為1.8B和3.25B,正是被谷歌用作端側(cè)大模型。

實際上,在2023年更早些時候谷歌發(fā)布的Pixel 8 Pro,已經(jīng)因顯著的AI特性被視為劃時代的智能手機,站穩(wěn)AI手機潮頭后的谷歌,又在今年將Gemini Nano放到了三星Galaxy S24中,幫助三星進入到了“Galaxy AI時代”。

至頂網(wǎng)認為,在手機廠商、PC廠商聯(lián)合芯片廠商一同全力推進端側(cè)AI的這一年,谷歌此次發(fā)布的2B、7B開源大模型Gemma,更重要的功效預計將會在端側(cè)AI領域體現(xiàn)出來。

從開源方面來看,谷歌Gemma并不是第一個開源大模型。

早在2023年7月,Meta就對外發(fā)布了免費可商用的大模型Llama 2,而這一動作其實是Meta和微軟合作的杰作,擁有7B、13B、70B三個參數(shù)級版本的Llama 2,當時被視為是OpenAI的ChatGPT的平替產(chǎn)品。

就在Meta開源Llama 2時,Yann LeCun不無感慨地公開表示,Llama 2的開源可商用將極大地改變大模型的市場格局。

而從國內(nèi)來看,阿里是另一個開源大模型的推動者。

2023年8月,阿里云對外開源了通義千問7B大模型,成為國內(nèi)最早推動大模型開源的企業(yè),隨后,阿里云又先后對外開源了14B、72B、1.8B參數(shù)規(guī)模的大模型,參數(shù)規(guī)模最大的72B版本,甚至超過了Llama 2。

之所以科技巨頭愿意開源大模型,是為了借助開源力量,加速技術發(fā)展。

這自然也是谷歌此次開源Gemma的主要目的。

因此,就在谷歌Gemma對外開源時,谷歌還公布了Gemma對一系列開發(fā)工具和系統(tǒng)的支持,以及跨設備的兼容,具體Gemma的兼容和支持情況如下:

多框架工具:Gemma提供Keras 3.0、原生PyTorch、JAX和Hugging Face Transformers多個框架的參考實現(xiàn);

跨設備兼容:Gemma模型可以在筆記本電腦、臺式機、物聯(lián)網(wǎng)、移動設備和云端等多個主流設備類型上運行;

硬件平臺支持:谷歌與NVIDIA合作,可以使用NVIDIA GPU來優(yōu)化Gemma模型;

基于Google Cloud的優(yōu)化:Vertex AI提供廣泛的MLOps工具集,其中包含一系列微調(diào)選項和內(nèi)置推理優(yōu)化的一鍵部署功能。

基于此,谷歌搶先在Meta發(fā)布Llama新版本之前,終于推出了開源大模型,谷歌官方甚至將這一模型在關鍵基準測試集上的測試表現(xiàn)與Llama 2進行了對比,并得出了Gemma 7B完勝Llama 2 7B和13B版本的結(jié)論。

不過,出門問問創(chuàng)始人李志飛就谷歌開源的Gemma指出,“時間有點晚”、“開源力度不夠”、“感覺這次開源還是被動防御”。

他還提到,谷歌在AI領域經(jīng)常起大早趕晚集,這次的Sora借鑒的ViT、ViViT、NaVit、MAGVit等核心組件技術都是谷歌團隊此前的論文。

當然,無論是“攻”還是“守”,Gemma最重要的還是表明了谷歌在AI領域的開源態(tài)度。

接下來的2024,關乎大模型的競爭,也將會愈演愈烈。

責任編輯:姜華 來源: 至頂網(wǎng)
相關推薦

2013-05-09 09:27:19

谷歌計算引擎谷歌IaaS基礎架構(gòu)即服務

2025-04-07 08:39:00

谷歌AI模型

2023-12-01 12:31:22

AI模型

2024-02-22 09:30:15

Gemma開源模型谷歌

2020-03-02 11:04:19

人工智能機器學習技術

2025-04-02 12:23:06

GeminiOpenAIGoogle

2024-03-04 00:00:00

GemmaAI模型

2024-08-14 14:26:43

2024-02-22 07:44:02

2023-10-18 13:26:00

訓練模型

2016-12-20 13:35:52

谷歌開源項目

2025-03-13 07:30:00

谷歌Gemma 3AI 模型

2024-02-28 18:17:05

AI模型

2020-11-11 15:04:40

谷歌開源Scorecards

2023-11-21 10:27:28

OPPO開發(fā)

2019-05-07 14:42:03

深度學習編程人工智能

2024-04-11 13:23:07

2024-02-28 12:34:11

AI訓練
點贊
收藏

51CTO技術棧公眾號