自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌開源最強(qiáng)端側(cè)小模型:2B參數(shù)越級跑贏GPT-3.5-Turbo,蘋果15Pro運(yùn)行飛快

人工智能 新聞
谷歌也來卷「小」模型了,一出手就是王炸,勝過了比自己參數(shù)多得多的GPT-3.5、Mixtral競品模型。

今年 6 月底,谷歌開源了 9B、27B 版 Gemma 2 模型系列,并且自亮相以來,27B 版本迅速成為了大模型競技場 LMSYS Chatbot Arena 中排名最高的開放模型之一,在真實(shí)對話任務(wù)中比其兩倍規(guī)模以上的模型表現(xiàn)還要好。

圖片

如今,僅僅過去了一個多月,谷歌在追求負(fù)責(zé)任 AI 的基礎(chǔ)上,更加地考慮該系列模型的安全性和可訪問性,并有了一系列新成果。

圖片

此次,Gemma 2 不僅有了更輕量級「Gemma 2 2B」版本,還構(gòu)建一個安全內(nèi)容分類器模型「ShieldGemma」和一個模型可解釋性工具「Gemma Scope」。具體如下:


  • Gemma 2 2B 具有內(nèi)置安全改進(jìn)功能,實(shí)現(xiàn)了性能與效率的強(qiáng)大平衡;
  • ShieldGemma 基于 Gemma 2 構(gòu)建,用于過濾 AI 模型的輸入和輸出,確保用戶安全;
  • Gemma Scope 提供對模型內(nèi)部工作原理的無與倫比的洞察力。

其中,Gemma 2 2B 無疑是「最耀眼的仔」,它在大模型競技場 LMSYS Chatbot Arena 中的結(jié)果令人眼前一亮:僅憑 20 億參數(shù)就跑出了 1130 分,這一數(shù)值要高于 GPT-3.5-Turbo(0613)和 Mixtral-8x7b。

這也意味著,Gemma 2 2B 將成為端側(cè)模型的最佳選擇。

圖片

圖片

蘋果機(jī)器學(xué)習(xí)研究(MLR)團(tuán)隊(duì)研究科學(xué)家 Awni Hannun 展示了 Gemma 2 2B 跑在 iPhone 15 pro 上的情況,使用了 4bit 量化版本,結(jié)果顯示速度是相當(dāng)快。

圖片

此外,對于前段時間很多大模型都翻了車的「9.9 和 9.11 誰大」的問題,Gemma 2 2B 也能輕松拿捏。


圖片

圖片

圖源:https://x.com/tuturetom/status/1818823253634564134

與此同時,從谷歌 Gemma 2 2B 的強(qiáng)大性能也可以看到一種趨勢,即「小」模型逐漸擁有了與更大尺寸模型匹敵的底氣和效能優(yōu)勢。

這種趨勢也引起了一些業(yè)內(nèi)人士的關(guān)注,比如知名人工智能科學(xué)家、Lepton AI 創(chuàng)始人賈揚(yáng)清提出了一種觀點(diǎn):大語言模型(LLM)的模型大小是否正在走 CNN 的老路呢?

在 ImageNet 時代,我們看到參數(shù)大小快速增長,然后我們轉(zhuǎn)向了更小、更高效的模型。這是在 LLM 時代之前,我們中的許多人可能已經(jīng)忘記了。

  • 大型模型的曙光:我們以 AlexNet(2012)作為基線開始,然后經(jīng)歷了大約 3 年的模型大小增長。VGGNet(2014)在性能和尺寸方面都可稱為強(qiáng)大的模型。
  • 縮小模型:GoogLeNet(2015)將模型大小從 GB 級縮小到 MB 級,縮小了 100 倍,同時保持了良好的性能。類似工作如 SqueezeNet(2015)和其他工作也遵循類似的趨勢。
  • 合理的平衡:后來的工作如 ResNet(2015)、ResNeXT(2016)等,都保持了適中的模型大小。請注意,我們實(shí)際上很樂意使用更多的算力,但參數(shù)高效同樣重要。
  • 設(shè)備端學(xué)習(xí)?MobileNet(2017)是谷歌的一項(xiàng)特別有趣的工作,占用空間很小,但性能卻非常出色。上周,我的一個朋友告訴我「哇,我們?nèi)匀辉谑褂?MobileNet,因?yàn)樗谠O(shè)備端具有出色的特征嵌入通用性」。是的,嵌入式嵌入是實(shí)實(shí)在在很好用。

最后,賈揚(yáng)清發(fā)出靈魂一問,「LLM 會遵循同樣的趨勢嗎?」

圖片

圖像出自 Ghimire 等人論文《A Survey on Efficient Convolutional Neural Networks and Hardware Acceleration》。

Gemma 2 2B 越級超越 GPT-3.5 Turbo

Gemma 2 家族新增 Gemma 2 2B 模型,備受大家期待。谷歌使用先進(jìn)的 TPU v5e 硬件在龐大的 2 萬億個 token 上訓(xùn)練而成。

這個輕量級模型是從更大的模型中蒸餾而來,產(chǎn)生了非常好的結(jié)果。由于其占用空間小,特別適合設(shè)備應(yīng)用程序,可能會對移動 AI 和邊緣計(jì)算產(chǎn)生重大影響。

事實(shí)上,谷歌的 Gemma 2 2B 模型在 Chatbot Arena Elo Score 排名中勝過大型 AI 聊天機(jī)器人,展示了小型、更高效的語言模型的潛力。下圖表顯示了 Gemma 2 2B 與 GPT-3.5 和 Llama 2 等知名模型相比的卓越性能,挑戰(zhàn)了「模型越大越好」的觀念。

圖片

Gemma 2 2B 提供了:

  • 性能卓越:在同等規(guī)模下提供同類最佳性能,超越同類其他開源模型;
  • 部署靈活且經(jīng)濟(jì)高效:可在各種硬件上高效運(yùn)行,從邊緣設(shè)備和筆記本電腦到使用云部署如 Vertex AI 和 Google Kubernetes Engine (GKE) 。為了進(jìn)一步提高速度,該模型使用了 NVIDIA TensorRT-LLM 庫進(jìn)行優(yōu)化,并可作為 NVIDIA NIM 使用。此外,Gemma 2 2B 可與 Keras、JAX、Hugging Face、NVIDIA NeMo、Ollama、Gemma.cpp 以及即將推出的 MediaPipe 無縫集成,以簡化開發(fā);
  • 開源且易于訪問:可用于研究和商業(yè)應(yīng)用,由于它足夠小,甚至可以在 Google Colab 的 T4 GPU 免費(fèi)層上運(yùn)行,使實(shí)驗(yàn)和開發(fā)比以往更加簡單。

從今天開始,用戶可以從 Kaggle、Hugging Face、Vertex AI Model Garden 下載模型權(quán)重。用戶還可以在 Google AI Studio 中試用其功能。

下載權(quán)重地址:https://huggingface.co/collections/google/gemma-2-2b-release-66a20f3796a2ff2a7c76f98f

Gemma 2 2B 的出現(xiàn)挑戰(zhàn)了人工智能開發(fā)領(lǐng)域的主流觀點(diǎn),即模型越大,性能自然就越好。Gemma 2 2B 的成功表明,復(fù)雜的訓(xùn)練技術(shù)、高效的架構(gòu)和高質(zhì)量的數(shù)據(jù)集可以彌補(bǔ)原始參數(shù)數(shù)量的不足。這一突破可能對該領(lǐng)域產(chǎn)生深遠(yuǎn)的影響,有可能將焦點(diǎn)從爭奪越來越大的模型轉(zhuǎn)移到改進(jìn)更小、更高效的模型。

Gemma 2 2B 的開發(fā)也凸顯了模型壓縮和蒸餾技術(shù)日益增長的重要性。通過有效地將較大模型中的知識提煉成較小的模型,研究人員可以在不犧牲性能的情況下創(chuàng)建更易于訪問的 AI 工具。這種方法不僅降低了計(jì)算要求,還解決了訓(xùn)練和運(yùn)行大型 AI 模型對環(huán)境影響的擔(dān)憂。

ShieldGemma:最先進(jìn)的安全分類器

圖片

技術(shù)報告:https://storage.googleapis.com/deepmind-media/gemma/shieldgemma-report.pdf

ShieldGemma 是一套先進(jìn)的安全分類器,旨在檢測和緩解 AI 模型輸入和輸出中的有害內(nèi)容,幫助開發(fā)者負(fù)責(zé)任地部署模型。

ShieldGemma 專門針對四個關(guān)鍵危害領(lǐng)域進(jìn)行設(shè)計(jì):

  • 仇恨言論
  • 騷擾
  • 色情內(nèi)容
  • 危險內(nèi)容

圖片

這些開放分類器是對負(fù)責(zé)任 AI 工具包(Responsible AI Toolkit)中現(xiàn)有安全分類器套件的補(bǔ)充。

借助 ShieldGemma,用戶可以創(chuàng)建更加安全、更好的 AI 應(yīng)用

SOTA 性能:作為安全分類器,ShieldGemma 已經(jīng)達(dá)到行業(yè)領(lǐng)先水平;

規(guī)模不同:ShieldGemma 提供各種型號以滿足不同的需求。2B 模型非常適合在線分類任務(wù),而 9B 和 27B 版本則為不太關(guān)心延遲的離線應(yīng)用程序提供了更高的性能。

如下表所示,ShieldGemma (SG) 模型(2B、9B 和 27B)的表現(xiàn)均優(yōu)于所有基線模型,包括 GPT-4。

圖片

Gemma Scope:讓模型更加透明

Gemma Scope 旨在幫助 AI 研究界探索如何構(gòu)建更易于理解、更可靠的 AI 系統(tǒng)。其為研究人員和開發(fā)人員提供了前所未有的透明度,讓他們能夠了解 Gemma 2 模型的決策過程。Gemma Scope 就像一臺強(qiáng)大的顯微鏡,它使用稀疏自編碼器 (SAE) 放大模型的內(nèi)部工作原理,使其更易于解釋。

圖片

Gemma Scope 技術(shù)報告:https://storage.googleapis.com/gemma-scope/gemma-scope-report.pdf

SAE 可以幫助用戶解析 Gemma 2 處理的那些復(fù)雜信息,將其擴(kuò)展為更易于分析和理解的形式,因而研究人員可以獲得有關(guān) Gemma 2 如何識別模式、處理信息并最終做出預(yù)測的寶貴見解。

以下是 Gemma Scope 具有開創(chuàng)性的原因:

  • 開放的 SAE:超過 400 個免費(fèi) SAE,涵蓋 Gemma 2 2B 和 9B 的所有層;
  • 交互式演示:無需在 Neuronpedia 上編寫代碼即可探索 SAE 功能并分析模型行為;
  • 易于使用的存儲庫:提供了 SAE 和 Gemma 2 交互的代碼和示例。
責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2024-06-13 09:12:48

2023-03-02 22:46:48

2023-12-20 15:32:02

模型數(shù)據(jù)

2024-07-18 13:22:31

2023-08-23 13:27:00

SQLCoder開源開發(fā)

2024-08-01 13:30:00

2024-04-25 16:56:14

GPT-4大模型人工智能

2023-02-16 13:48:56

模型論文

2024-09-11 12:31:59

2024-02-27 11:46:40

2024-07-04 15:32:13

2024-01-26 08:36:07

OpenAIGPT-4?人工智能

2023-08-23 12:17:26

OpenAIChatGPT

2024-06-24 18:15:22

2024-05-20 15:40:00

AI數(shù)學(xué)

2025-01-16 16:39:44

2024-03-28 11:15:36

開源AI

2024-02-22 10:09:00

開源模型

2023-06-14 11:31:34

OpenAI聊天機(jī)器人

2024-02-22 16:19:20

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號