自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

2024屬于小模型,99%的用例可用SLM解決,大模型遇瓶頸?

人工智能
在人工智能“戰(zhàn)爭”中,科技巨頭們一直在競相構(gòu)建更大的語言模型,一個令人驚訝的新趨勢正在出現(xiàn):小就是新的大。

在人工智能“戰(zhàn)爭”中,科技巨頭們一直在競相構(gòu)建更大的語言模型,一個令人驚訝的新趨勢正在出現(xiàn):小就是新的大。

隨著大語言模型 (LLM) 的進展出現(xiàn)一些停滯跡象,研究人員和開發(fā)人員越來越多地將注意力轉(zhuǎn)向小語言模型 (SLM)。這些緊湊、高效且適應(yīng)性強的人工智能模型正在挑戰(zhàn)“越大越好”的觀念,有望改變我們進行人工智能開發(fā)的方式。 

LLM 是否開始趨于穩(wěn)定? 

Vellum 和 HuggingFace 最近發(fā)布的績效比較表明,LLM 之間的績效差距正在迅速縮小。這種趨勢在多項選擇題、推理和數(shù)學(xué)問題等特定任務(wù)中尤其明顯,其中頂級模型之間的性能差異很小。 

LLM 排行榜。(來源:vellum)LLM 排行榜。(來源:vellum)

例如,在選擇題中,Claude 3 Opus、GPT-4 和 Gemini Ultra 的得分都在 83% 以上,而在推理任務(wù)中,Claude 3 Opus、GPT-4 和 Gemini 1.5 Pro 的準確率都超過 92%。

有趣的是,甚至像 Mixtral 8x7B 和 Llama 2 – 70B 這樣的較小模型在某些領(lǐng)域(例如推理和多項選擇題)也顯示出了有希望的結(jié)果,它們在這些領(lǐng)域的表現(xiàn)優(yōu)于一些較大的模型。這表明模型的大小可能不是性能的唯一決定因素,架構(gòu)、訓(xùn)練數(shù)據(jù)和微調(diào)技術(shù)等其他方面可能發(fā)揮重要作用。

Uber 人工智能前負責(zé)人、《重啟人工智能》(Rebooting AI)一書的作者加里?馬庫斯(Gary Marcus)表示:“如果你從經(jīng)驗上看,最近發(fā)表的十幾篇文章都與 GPT-4處于同一領(lǐng)域?!边@本書講述了如何構(gòu)建值得信賴的人工智能。

“其中一些比 GPT-4 好一點,但沒有質(zhì)的飛躍。我想每個人都會說 GPT-4 比 GPT-3.5 領(lǐng)先了一大步。一年多來沒有發(fā)生任何[量子躍遷]?!瘪R庫斯說。

隨著性能差距不斷縮小,越來越多的模型展現(xiàn)出有競爭力的結(jié)果,這就提出了 LLM 是否確實開始趨于穩(wěn)定的問題。如果這種趨勢持續(xù)下去,它可能會對語言模型的未來開發(fā)和部署產(chǎn)生重大影響,可能會將重點從簡單地增加模型大小轉(zhuǎn)移到探索更高效和專業(yè)的架構(gòu)。

LLM方法的缺點

LLM 雖然無可否認地強大,但也有明顯的缺點。首先,訓(xùn)練LLM需要大量的數(shù)據(jù),需要數(shù)十億甚至數(shù)萬億的參數(shù)。這使得訓(xùn)練過程極其耗費資源,訓(xùn)練和運行 LLM 所需的計算能力和能源消耗是驚人的。這導(dǎo)致成本高昂,使得較小的組織或個人很難參與核心的LLM開發(fā)。在去年 MIT 的一次活動上,OpenAI 首席執(zhí)行官 Sam Altman 表示,訓(xùn)練 GPT-4 的成本至少為 1 億美元。

與 LLM 合作所需的工具和技術(shù)的復(fù)雜性也為開發(fā)人員帶來了陡峭的學(xué)習(xí)曲線,進一步限制了可訪問性。對于開發(fā)人員來說,從培訓(xùn)到構(gòu)建和部署模型的周期時間很長,這會減慢開發(fā)和實驗的速度。

劍橋大學(xué)最近發(fā)表的一篇論文顯示,公司可以花費 90 天或更長時間來部署單個機器學(xué)習(xí) (ML) 模型。

論文鏈接:https://doi.org/10.1145/3533378

LLM 的另一個重要問題是他們?nèi)菀桩a(chǎn)生幻覺——產(chǎn)生看似合理但實際上并不真實的輸出。這源于 LLM 的訓(xùn)練方式是根據(jù)訓(xùn)練數(shù)據(jù)中的模式預(yù)測下一個最可能的單詞,而不是真正理解信息。因此,LLM 可以自信地提出虛假陳述、編造事實或以無意義的方式組合不相關(guān)的概念。檢測和減輕這些幻覺是開發(fā)可靠且值得信賴的語言模型的持續(xù)挑戰(zhàn)。

“如果你用它來解決高風(fēng)險問題,你不想侮辱你的客戶,或者得到不良的醫(yī)療信息,或者用它來駕駛汽車并在那里冒險。這仍然是一個問題,”馬庫斯警告說。

LLM 的規(guī)模和黑盒性質(zhì)也使它們難以解釋和調(diào)試,這對于建立對模型輸出的信任至關(guān)重要。訓(xùn)練數(shù)據(jù)和算法中的偏差可能會導(dǎo)致不公平、不準確甚至有害的輸出。

正如谷歌 Gemini 所見,使 LLM “安全”和可靠的技術(shù)也會降低其有效性。此外,LLM 的集中性質(zhì)引起了人們對權(quán)力和控制權(quán)集中在少數(shù)大型科技公司手中的擔(dān)憂。

輸入小語言模型 (SLM)

SLM 是 LLM 的更精簡版本,參數(shù)更少,設(shè)計更簡單。他們需要更少的數(shù)據(jù)和訓(xùn)練時間——幾分鐘或幾個小時,而 LLM 需要幾天的時間。這使得 SLM 在現(xiàn)場或較小的設(shè)備上實施起來更加高效和直接。

SLM 的主要優(yōu)勢之一是它們適合特定應(yīng)用。由于它們的范圍更集中并且需要的數(shù)據(jù)更少,因此與大型通用模型相比,它們可以更輕松地針對特定領(lǐng)域或任務(wù)進行微調(diào)。這種定制使公司能夠創(chuàng)建能夠非常有效地滿足其特定需求的 SLM,例如情緒分析、命名實體識別或特定領(lǐng)域的問答。與使用更通用的模型相比,SLM 的專業(yè)性質(zhì)可以提高這些目標應(yīng)用程序的性能和效率。

與 LLM 相比,SLM 也不太容易在其特定領(lǐng)域內(nèi)出現(xiàn)未被發(fā)現(xiàn)的幻覺。SLM 通常在特定于其預(yù)期領(lǐng)域或應(yīng)用程序的更窄且更有針對性的數(shù)據(jù)集上進行訓(xùn)練,這有助于模型學(xué)習(xí)與其任務(wù)最相關(guān)的模式、詞匯和信息。這種關(guān)注減少了產(chǎn)生不相關(guān)、意外或不一致輸出的可能性。憑借更少的參數(shù)和更精簡的架構(gòu),SLM 不太容易捕獲和放大訓(xùn)練數(shù)據(jù)中的噪聲或錯誤。

人工智能初創(chuàng)公司 HuggingFace 的首席執(zhí)行官 Clem Delangue 表示,高達 99% 的用例可以使用 SLM 來解決,并預(yù)測 2024 年將是 SLM 年。

HuggingFace 的平臺使開發(fā)人員能夠構(gòu)建、訓(xùn)練和部署機器學(xué)習(xí)模型,今年早些時候宣布與谷歌建立戰(zhàn)略合作伙伴關(guān)系。兩家公司隨后將 HuggingFace 集成到 Google 的 Vertex AI 中,使開發(fā)人員能夠通過 Google Vertex Model Garden 快速部署數(shù)千個模型。

谷歌 Gemma 有些愛

在最初將 LLM 方面的優(yōu)勢讓給 OpenAI 后,谷歌正在積極尋求 SLM 機會。早在二月份,谷歌就推出了 Gemma,這是一系列新的小語言模型,旨在提高效率和用戶友好性。與其他 SLM 一樣,Gemma 模型可以在各種日常設(shè)備上運行,例如智能手機、平板電腦或筆記本電腦,無需特殊硬件或廣泛優(yōu)化。

自 Gemma 發(fā)布以來,經(jīng)過訓(xùn)練的模型上個月在 HuggingFace 上的下載量已超過 400,000 次,并且已經(jīng)出現(xiàn)了一些令人興奮的項目。

例如,Cerule 是一個強大的圖像和語言模型,它將 Gemma 2B 與 Google 的 SigLIP 相結(jié)合,并在海量圖像和文本數(shù)據(jù)集上進行了訓(xùn)練。Cerule 利用高效的數(shù)據(jù)選擇技術(shù),這表明它無需大量數(shù)據(jù)或計算即可實現(xiàn)高性能。這意味著 Cerule 可能非常適合新興的邊緣計算用例。

另一個例子是 CodeGemma,它是 Gemma 的專門版本,專注于編碼和數(shù)學(xué)推理。CodeGemma 提供了針對各種編碼相關(guān)活動量身定制的三種不同模型,使開發(fā)人員更容易使用和高效地使用高級編碼工具。

小語言模型的變革潛力

隨著人工智能社區(qū)不斷探索小語言模型的潛力,更快的開發(fā)周期、更高的效率以及根據(jù)特定需求定制模型的能力的優(yōu)勢變得越來越明顯。SLM 準備通過提供經(jīng)濟高效且有針對性的解決方案,實現(xiàn)人工智能訪問的民主化并推動跨行業(yè)創(chuàng)新。

SLM 在邊緣的部署為金融、娛樂、汽車系統(tǒng)、教育、電子商務(wù)和醫(yī)療保健等各個領(lǐng)域的實時、個性化和安全應(yīng)用開辟了新的可能性。

通過在本地處理數(shù)據(jù)并減少對云基礎(chǔ)設(shè)施的依賴,使用 SLM 的邊緣計算可實現(xiàn)更快的響應(yīng)時間、改善數(shù)據(jù)隱私并增強用戶體驗。這種去中心化的人工智能方法有可能改變企業(yè)和消費者與技術(shù)互動的方式,在現(xiàn)實世界中創(chuàng)造更加個性化和直觀的體驗。

由于 LLM 面臨與計算資源相關(guān)的挑戰(zhàn)并可能達到性能瓶頸,SLM 的興起有望使人工智能生態(tài)系統(tǒng)以驚人的速度發(fā)展。

責(zé)任編輯:華軒 來源: AI超數(shù)據(jù)
相關(guān)推薦

2024-12-02 01:18:54

2024-10-31 15:00:00

AI模型

2024-11-25 11:00:00

模型訓(xùn)練

2023-10-28 13:29:27

2024-03-06 09:00:00

大語言模型人工智能

2010-06-17 13:32:39

UML用例模型

2023-11-30 14:38:56

2010-06-17 12:48:08

UML用例模型

2024-07-19 09:26:12

2024-05-16 11:34:55

2024-10-17 16:54:47

2024-06-03 10:56:53

2023-09-25 07:31:19

算力AI框架

2023-12-13 12:55:39

模型數(shù)據(jù)

2022-06-02 10:29:23

神經(jīng)網(wǎng)絡(luò)AI計算機

2023-11-03 07:47:12

機器資源大模型:

2025-01-27 00:57:43

2024-10-25 14:30:00

模型AI
點贊
收藏

51CTO技術(shù)棧公眾號