自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

門檻無限拉低,谷歌內(nèi)部文件:大家都沒有護(hù)城河!OpenAl也沒有!

譯文 精選
人工智能
3 月初,開源社區(qū)得到了他們第一個(gè)真正有能力的基礎(chǔ)模型,因?yàn)?Meta 的 LLaMA 被泄露給了公眾。它沒有指令說明或?qū)υ捰?xùn)練的細(xì)節(jié),也沒有 RLHF。盡管如此,社區(qū)立即理解了這件事情的重要性。

作者 | Dyaln & Afzal Ahmad 

51CTO讀者成長計(jì)劃社群招募,咨詢小助手(微信號(hào):CTOjishuzhan)

下面是一份最近泄露的文件,由一位匿名人士在公共 Discord 服務(wù)器上共享,該服務(wù)器已授予其重新發(fā)布的許可。它源于谷歌內(nèi)部的一名研究員。我們已經(jīng)驗(yàn)證了它的真實(shí)性。

注意:該文件僅代表谷歌員工的意見,并非整個(gè)公司的意見。我們不同意下面寫的內(nèi)容,我們?cè)儐柕钠渌芯咳藛T也不同意,我們分享這份文件,是因?yàn)樗岢隽艘恍┓浅S腥さ挠^點(diǎn)。

一、我們沒有護(hù)城河,OpenAI 也沒有

我們?cè)?OpenAI 做了很多仔細(xì)的研究。誰將跨越下一個(gè)里程碑?下一步將是什么?

但令人不安的事實(shí)是, 我們沒有能力贏得這場軍備競賽,OpenAI 也沒有。在我們爭吵不休的時(shí)候,第三派一直在悄悄地吃我們的午餐。

當(dāng)然,我說的是開源。說白了,他們?cè)诓涮蛭覀儭?/p>

我們認(rèn)為“主要開放問題”的東西,今天已經(jīng)解決,并且已經(jīng)掌握在人們手中。僅舉幾個(gè):

手機(jī)上的 LLMs:人們?cè)?Pixel 6 上以每秒 5 個(gè) tokens 的速度運(yùn)行基礎(chǔ)模型。

可擴(kuò)展的個(gè)人 AI:您可以利用晚上時(shí)間在筆記本電腦上微調(diào)一個(gè)個(gè)性化 AI。

負(fù)責(zé)任的發(fā)布:這個(gè)與其說是“解決”,不如說是“避免”。整個(gè)網(wǎng)站充滿了藝術(shù)模型,沒有任何限制,文字也不甘落后。

多模態(tài):當(dāng)前的多模態(tài) ScienceQA SOTA 訓(xùn)練時(shí)間為一小時(shí)。雖然我們的模型在質(zhì)量方面仍然略有優(yōu)勢,但差距正在以驚人的速度縮小。開源模型更快、更可定制、更私密且功能更強(qiáng)大。他們用 100 美元和 13B 的參數(shù)做事,而我們?cè)?1000 萬美元和 540B 的參數(shù)下苦苦掙扎。他們?cè)趲字軆?nèi)完成,而不是幾個(gè)月。這對(duì)我們有深遠(yuǎn)的影響:

(1)我們沒有秘方。我們最大的希望是向谷歌以外的其他人學(xué)習(xí)并與他們合作。我們應(yīng)該優(yōu)先考慮啟用 3P 集成。

(2)當(dāng)免費(fèi)的、不受限制的替代品在質(zhì)量上相當(dāng)時(shí),人們不會(huì)為受限制的模型付費(fèi)。我們應(yīng)該考慮我們真正的增值在哪里。

巨型模型正在讓我們慢下來。從長遠(yuǎn)來看,最好的模型是——這可以被快速地迭代。既然我們知道在<20B 參數(shù)范圍內(nèi)有哪些可能,我們就應(yīng)該做出小型變體,而不是事后才想到。

圖片

圖源:https://lmsys.org/blog/2023-03-30-vicuna/

二、發(fā)生了什么

3 月初,開源社區(qū)得到了他們第一個(gè)真正有能力的基礎(chǔ)模型,因?yàn)?Meta 的 LLaMA 被泄露給了公眾。它沒有指令說明或?qū)υ捰?xùn)練的細(xì)節(jié),也沒有 RLHF。盡管如此,社區(qū)立即理解了這件事情的重要性。

隨之而來的是巨大的創(chuàng)新涌現(xiàn),而且間隔僅僅只有幾天(完整細(xì)目請(qǐng)參見時(shí)間表)。僅僅一個(gè)月后,我們就在這里,并且有指令調(diào)整、量化、質(zhì)量改進(jìn)、人工評(píng)估、多模態(tài)、RLHFRLHF 等各自的變體,其中許多是相互聯(lián)結(jié)的。

最重要的是,他們已經(jīng)解決了任何人都可以修補(bǔ)的擴(kuò)展問題。許多新想法都來自普通人。訓(xùn)練和實(shí)驗(yàn)的門檻,已經(jīng)從一個(gè)主要研究機(jī)構(gòu)的總產(chǎn)出下降到一個(gè)人、一個(gè)晚上和一臺(tái)功能強(qiáng)大的筆記本電腦。

三、為什么我們可以預(yù)見它的到來

在許多方面,這對(duì)任何人來說都不足為奇。緊隨著圖像生圖領(lǐng)域的復(fù)興,開源大語言模型也已然復(fù)興。相似之處并沒有在社區(qū)中消失,正如許多人所稱呼的LLM的“Stable Diffusion 時(shí)刻”。

在這兩種情況下,低成本的公眾參與,都是通過一種成本低得多的微調(diào)機(jī)制實(shí)現(xiàn)的,稱為低秩適應(yīng)(low rank adaptation)或 LoRA,并結(jié)合了規(guī)模上的重大突破(圖像合成的 Stable Diffusion,LLM 的 Chinchilla )。

在這兩種情況下,獲得足夠高質(zhì)量的模型都引發(fā)了世界各地個(gè)人和機(jī)構(gòu)的一系列想法和迭代。在這兩種情況下,這都很快超過了大型企業(yè)。

這些貢獻(xiàn)在圖像生成領(lǐng)域至關(guān)重要,使 Stable Diffusion 走上了與 Dall-E 不同的道路。擁有一個(gè)開放的模型導(dǎo)致產(chǎn)品集成、市場、用戶界面同時(shí)發(fā)生的創(chuàng)新,這是 Dall-E 沒有做到的。

效果是顯而易見的:與 OpenAI 解決方案相比,在文化影響方面迅速占據(jù)主導(dǎo)地位,后者變得越來越無關(guān)緊要。LLM 領(lǐng)域內(nèi)是否會(huì)發(fā)生同樣的事情還有待觀察,但廣泛的結(jié)構(gòu)要素是相同的。

四、我們錯(cuò)過了什么

推動(dòng)開源最近取得成功的創(chuàng)新直接解決了我們?nèi)栽谂鉀Q的問題。更多地關(guān)注他們的工作可以幫助我們避免重新發(fā)明輪子。

1.LoRA 是一種非常強(qiáng)大的技術(shù),我們可能應(yīng)該更加關(guān)注它

LoRA 通過將模型更新表示為低秩分解來工作,這將更新矩陣的大小,減少了多達(dá)數(shù)千倍。這允許以一小部分成本和時(shí)間進(jìn)行模型微調(diào)。能夠在幾個(gè)小時(shí)內(nèi)在消費(fèi)類硬件上個(gè)性化語言模型是一件大事,特別是對(duì)于涉及近實(shí)時(shí)整合新的和多樣化的知識(shí)的愿望。事實(shí)上,這項(xiàng)技術(shù)的存在在谷歌內(nèi)部并未得到充分利用,盡管它直接影響了我們一些最雄心勃勃的項(xiàng)目。

2.從頭開始重新訓(xùn)練模型是一條艱難的道路

LoRA 如此有效的部分原因在于——與其他形式的微調(diào)一樣——它是可堆疊的。可以應(yīng)用指令調(diào)整等改進(jìn),然后在其他貢獻(xiàn)者添加對(duì)話、推理或工具使用時(shí)加以利用。雖然單獨(dú)的微調(diào)是低秩的,但它們的總和不需要,允許模型的全秩更新隨著時(shí)間的推移而累積。

這意味著隨著新的更好的數(shù)據(jù)集和任務(wù)的出現(xiàn),模型可以以低廉的成本保持最新,而無需支付全面運(yùn)行的成本。

相比之下,從頭開始訓(xùn)練巨型模型不僅會(huì)丟棄預(yù)訓(xùn)練,還會(huì)丟棄在頂部進(jìn)行的任何迭代改進(jìn)。在開源世界中,這些改進(jìn)很快就會(huì)占據(jù)主導(dǎo)地位,這使得全面重新培訓(xùn)的成本極其高昂。

我們應(yīng)該考慮每個(gè)新應(yīng)用程序或想法是否真的需要一個(gè)全新的模型。如果我們真的有重大的架構(gòu)改進(jìn)來阻止直接重用模型權(quán)重,那么我們應(yīng)該投資于更積極的蒸餾形式,使我們能夠盡可能多地保留上一代的功能。

3.如果我們可以在小型模型上更快地迭代,那么從長遠(yuǎn)來看,大型模型的能力并不會(huì)更強(qiáng)

對(duì)于最流行的模型尺寸,LoRA 更新的生產(chǎn)成本非常低(約 100 美元)。這意味著幾乎任何有想法的人都可以產(chǎn)生一個(gè)想法并進(jìn)行傳播。一天之內(nèi)的培訓(xùn)時(shí)間是常態(tài)。以這樣的速度,所有這些微調(diào)的累積效應(yīng)很快就會(huì)克服尺寸劣勢。事實(shí)上,就工程師工時(shí)而言,這些模型的改進(jìn)速度大大超過了我們使用最大變體所能做的,而且最好的已經(jīng)在很大程度上與 ChatGPT 沒有區(qū)別。專注于維護(hù)地球上一些最大的模型實(shí)際上使我們處于劣勢。

4.數(shù)據(jù)質(zhì)量比數(shù)據(jù)大小更好

其中許多項(xiàng)目都通過在小型、高度精選的數(shù)據(jù)集上進(jìn)行訓(xùn)練來節(jié)省時(shí)間。這表明數(shù)據(jù)縮放法則具有一定的靈活性。此類數(shù)據(jù)集的存在遵循了 Data Doesn't Do What You Think 中的思路,并且它們正迅速成為在 Google 之外進(jìn)行訓(xùn)練的標(biāo)準(zhǔn)方式。這些數(shù)據(jù)集是使用合成方法(例如從現(xiàn)有模型中過濾最佳響應(yīng))和從其他項(xiàng)目中提取的,這兩種方法在谷歌都不占主導(dǎo)地位。幸運(yùn)的是,這些高質(zhì)量的數(shù)據(jù)集是開源的,因此可以免費(fèi)使用。

五、直接與開源競爭是一個(gè)失敗的主張

最近的進(jìn)展對(duì)我們的業(yè)務(wù)戰(zhàn)略有直接的影響。如果沒有免費(fèi)、高質(zhì)量的替代品,誰會(huì)為有使用限制的 Google 產(chǎn)品付費(fèi)?

我們不應(yīng)該期望能夠趕上。開源的盛行是有原因的。開源有一些我們無法復(fù)制的顯著優(yōu)勢。

六、我們需要他們,勝過他們需要我們

保守我們的技術(shù)秘密,始終是一個(gè)脆弱的提議。谷歌研究人員正定期前往其他公司,因此我們可以假設(shè)他們知道我們所知道的一切,并且只要該渠道開放,他們就會(huì)繼續(xù)這樣做。

而且,由于 LLM 的頂尖研究是負(fù)擔(dān)得起的,因此保持技術(shù)競爭優(yōu)勢變得更加困難。世界各地的研究機(jī)構(gòu)都在相互借鑒,以廣度優(yōu)先的方式探索解決方案空間,這遠(yuǎn)遠(yuǎn)超出了我們自身的能力。我們要么在外部創(chuàng)新沖淡其價(jià)值時(shí)努力保守秘密,要么選擇嘗試相互學(xué)習(xí)。

七、個(gè)人不受與公司相同程度的許可證約束

這種創(chuàng)新的大部分發(fā)生在 Meta 泄露的模型權(quán)重之上。雖然隨著真正開放的模型變得更好,這將不可避免地發(fā)生變化,但關(guān)鍵是他們不必等待?!皞€(gè)人使用”提供的法律保護(hù)和起訴個(gè)人的不切實(shí)際意味著個(gè)人可以在這些技術(shù)炙手可熱的時(shí)候使用它們。

八、成為您自己的客戶意味著您了解用例

瀏覽人們?cè)趫D像生成空間中創(chuàng)建的模型,從動(dòng)漫生成器到 HDR 風(fēng)景,創(chuàng)意源源不斷。這些模型由深深沉浸在其特定子流派中的人們使用和創(chuàng)建,賦予我們無法企及的知識(shí)深度和同理心。

九、擁有生態(tài)系統(tǒng):讓開源為我們工作

矛盾的是,所有這一切的一個(gè)明顯贏家是 Meta。因?yàn)樾孤兜哪P褪撬麄兊?,所以他們有效地獲得了整個(gè)星球的免費(fèi)勞動(dòng)力。由于大多數(shù)開源創(chuàng)新都發(fā)生在他們的架構(gòu)之上,因此沒有什么能阻止他們將其直接整合到他們的產(chǎn)品中。

擁有生態(tài)系統(tǒng)的價(jià)值怎么強(qiáng)調(diào)都不為過。谷歌本身已在其開源產(chǎn)品(如 Chrome 和 Android)中成功使用了這種范例。通過擁有發(fā)生創(chuàng)新的平臺(tái),谷歌鞏固了自己作為思想領(lǐng)袖和方向制定者的地位,獲得了塑造比自身更宏大的想法的能力。

我們對(duì)模型的控制越嚴(yán)密,我們做出開放替代方案的吸引力就越大。谷歌和 OpenAI 都傾向于防御性地傾向于發(fā)布模式,使他們能夠嚴(yán)格控制其模型的使用方式。但這種控制是虛構(gòu)的。任何想將 LLM 用于未經(jīng)批準(zhǔn)的目的的人都可以簡單地選擇免費(fèi)提供的模型。

谷歌應(yīng)該讓自己成為開源社區(qū)的領(lǐng)導(dǎo)者,通過與更廣泛的對(duì)話合作來牽頭來做,而不是忽視其他力量。這可能意味著采取一些不舒服的步驟,比如發(fā)布小型 ULM 變體的模型權(quán)重。這必然意味著放棄對(duì)我們模型的一些控制。但這種妥協(xié)是不可避免的。我們不能希望既推動(dòng)創(chuàng)新又控制創(chuàng)新。

十、結(jié)語:OpenAI 怎么樣?

考慮到 OpenAI 當(dāng)前的封閉政策,所有這些關(guān)于開源的討論都會(huì)讓人覺得不公平。如果他們不愿意,我們?yōu)槭裁匆窒恚康聦?shí)是,我們已經(jīng)以源源不斷的挖角高級(jí)研究人員的形式與他們分享一切。在我們阻止這種趨勢之前,保密是一個(gè)有爭議的問題。

最后,OpenAI 并不重要。他們?cè)谙鄬?duì)于開源的態(tài)度上犯了與我們相同的錯(cuò)誤,他們保持優(yōu)勢的能力必然受到質(zhì)疑。除非他們改變立場,否則開源替代品可以并且最終會(huì)使它們黯然失色。至少在這方面,我們可以邁出第一步。

十一、時(shí)間線

  • 2 月 24 日 ——LLaMA 啟動(dòng):模型小而能力強(qiáng)Meta 推出 LLaMA ,開源代碼,但不開源權(quán)重。在這一點(diǎn)上,LLaMA 沒有調(diào)整指令或?qū)υ?。與當(dāng)前的許多模型一樣,它是一個(gè)相對(duì)較小的模型(可在 7B、13B、33B 和 65B 參數(shù)下使用),并且已經(jīng)訓(xùn)練了相對(duì)較長的時(shí)間,因此相對(duì)于其大小來說能力相當(dāng)強(qiáng)。
  • 3 月 3 日——意外泄密帶來的井噴式創(chuàng)新一周之內(nèi),LLaMA 就被泄露給了公眾。對(duì)社區(qū)的影響不容小覷。現(xiàn)有許可證禁止將其用于商業(yè)目的,但突然之間任何人都可以進(jìn)行試驗(yàn)。從這一刻開始,創(chuàng)新來勢洶洶。
  • 3 月 12 日 ——烤面包機(jī)上的語言模型一個(gè)多星期后,Artem Andreenko 讓模型在 Raspberry Pi 上運(yùn)行。此時(shí)模型運(yùn)行速度太慢而不實(shí)用,因?yàn)闄?quán)重必須分頁進(jìn)出內(nèi)存。盡管如此,這為小型化的沖擊奠定了基礎(chǔ)。
  • 3 月 13 日 ——在筆記本電腦上微調(diào)第二天,斯坦福發(fā)布了 Alpaca ,它為 LLaMA 添加了指令調(diào)優(yōu)。然而,比實(shí)際重量更重要的是 Eric Wang 的 alpaca-lora 儲(chǔ)庫,它使用低階微調(diào)“在單個(gè) RTX 4090 上數(shù)小時(shí)內(nèi)”完成了此訓(xùn)練。突然之間,任何人都可以微調(diào)模型來做任何事情,從而在低預(yù)算的微調(diào)項(xiàng)目中拉開了一場逐底競爭的序幕。論文自豪地描述了他們總共花費(fèi)了幾百美元。更重要的是,低等級(jí)更新可以輕松地與原始權(quán)重分開分發(fā),從而使它們獨(dú)立于 Meta 的原始許可。任何人都可以分享和應(yīng)用它們。
  • 3 月 18 日 ——無GPU運(yùn)行Georgi Gerganov 使用 4 位量化,在 MacBook CPU 上運(yùn)行 LLaMA。它是第一個(gè)速度足夠?qū)嵱玫摹盁o GPU”解決方案。
  • 3 月 19 日 ——13B 模型與 Bard 實(shí)現(xiàn)“平替”第二天,多所大學(xué)聯(lián)合發(fā)布了 Vicuna ,并使用 GPT-4 驅(qū)動(dòng)的 eval 來提供模型輸出的定性比較。雖然評(píng)估方法值得懷疑,但該模型實(shí)際上比早期變體更好。訓(xùn)練費(fèi)用:300 美元。值得注意的是,他們能夠使用來自 ChatGPT 的數(shù)據(jù),同時(shí)繞過對(duì)其 API 的限制——他們只是對(duì)發(fā)布在 ShareGPT 等網(wǎng)站上的“令人印象深刻的”ChatGPT 對(duì)話示例進(jìn)行了采樣。
  • 3 月 25 日 ——選擇您自己的模型Nomic 創(chuàng)建了 GPT4All ,它既是一個(gè)模型,更重要的是一個(gè)生態(tài)系統(tǒng)。我們第一次看到模型(包括 Vicuna)聚集在一個(gè)地方。訓(xùn)練費(fèi)用:100 美元。
  • 3 月 28 日——開源版 GPT-3Cerebras(不要與我們自己的 Cerebra 混淆)使用 Chinchilla 隱含的最佳計(jì)算計(jì)劃和 μ 參數(shù)化隱含的最佳縮放來訓(xùn)練 GPT-3 架構(gòu)。這大大優(yōu)于現(xiàn)有的 GPT-3 克隆,并且代表了“在野外”首次確認(rèn)使用 μ 參數(shù)化。這些模型是從頭開始訓(xùn)練的,這意味著社區(qū)不再依賴 LLaMA。
  • 3 月 28 日 ——一小時(shí)多模態(tài)訓(xùn)練LLaMA-Adapter 使用一種新穎的參數(shù)高效微調(diào) (PEFT) 技術(shù),在一小時(shí)的訓(xùn)練中引入了指令調(diào)優(yōu)和多模態(tài)。令人印象深刻的是,他們僅使用 120 萬個(gè)可學(xué)習(xí)參數(shù)就可以做到這一點(diǎn)。該模型在多模態(tài) ScienceQA 上實(shí)現(xiàn)了新的 SOTA。
  • 4 月 3 日——真人無法區(qū)分 13B 開放模型和 ChatGPT伯克利推出了 Koala ,這是一種完全使用免費(fèi)數(shù)據(jù)訓(xùn)練的對(duì)話模型。他們采取了關(guān)鍵步驟來衡量他們的模型和 ChatGPT 之間的真實(shí)人類偏好。雖然 ChatGPT 仍然略有優(yōu)勢,但超過 50% 的用戶要么更喜歡 Koala,要么沒有偏好。培訓(xùn)費(fèi)用:100 美元。
  • 4 月 15 日 ——ChatGPT 級(jí)別的開源 RLHFOpen Assistant 啟動(dòng)了一個(gè)模型,更重要的是,啟動(dòng)了一個(gè)用于通過 RLHF 對(duì)齊的數(shù)據(jù)集。他們的模型在人類偏好方面與 ChatGPT 接近(48.3% 對(duì) 51.7%)。除了 LLaMA,他們還展示了這個(gè)數(shù)據(jù)集可以應(yīng)用于 Pythia-12B,讓人們可以選擇使用完全開放的堆棧來運(yùn)行模型。此外,由于數(shù)據(jù)集是公開可用的,因此對(duì)于小型實(shí)驗(yàn)者而言,RLHF 從無法實(shí)現(xiàn)變?yōu)榱畠r(jià)且容易。

原文鏈接:https://www.semianalysis.com/p/google-we-have-no-moat-and-neither

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2023-05-05 13:14:28

谷歌AI

2023-07-12 12:48:35

人工智能谷歌

2011-03-25 11:28:34

Cactirra目錄

2020-02-27 15:52:48

AI芯片人工智能爆款

2024-02-04 13:56:03

2021-11-11 06:50:13

程序員面試工作

2012-10-24 13:53:25

2021-06-23 14:12:22

SaaS護(hù)城河頭部企業(yè)

2017-10-17 06:03:42

2023-07-22 13:09:51

模型開源

2015-05-27 17:11:11

AWS阿里云CDN市場

2020-03-02 19:47:08

戴爾

2018-04-04 08:56:40

5GWiFi3GPP

2018-04-03 09:48:29

數(shù)據(jù) 算法

2025-01-09 09:30:00

2015-05-05 10:55:25

OpenStackNebula倒閉開源云項(xiàng)目

2015-02-04 10:58:19

PaaS云計(jì)算Docker

2020-02-21 18:22:23

人工智能AI戰(zhàn)“疫”

2015-04-27 13:33:34

創(chuàng)業(yè)優(yōu)先級(jí)擺好

2019-06-04 16:20:42

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)