關(guān)于大模型微調(diào)與訓(xùn)練的問題,大模型訓(xùn)練的難點在哪里? 原創(chuàng)
?“ 大模型訓(xùn)練的難點不在于大模型本身,而在于訓(xùn)練數(shù)據(jù) ”
這兩天公眾號上有一個小兄弟問我關(guān)于大模型訓(xùn)練的問題,然后他想自己訓(xùn)練一個小模型,但又不知道該怎么操作;所以,今天就再來討論一下大模型的訓(xùn)練問題,大模型訓(xùn)練的難點到底在哪里?
大模型訓(xùn)練的難點
對大部分學(xué)習(xí)大模型技術(shù)的人來說,大模型訓(xùn)練和微調(diào)可能都是一個無法繞過的問題,也是很多人弄不明白的問題,總認(rèn)為由于沒有足夠的算力,個人無法進(jìn)行模型訓(xùn)練。
但事實上有這種想法的人是進(jìn)入了一個誤區(qū),原因是對大模型不夠了解,認(rèn)為大模型的難點就在于訓(xùn)練。
大家都知道目前市面上的模型主要都是預(yù)訓(xùn)練模型或者一些基座模型;除了哪些真正有技術(shù)和資金,能夠真的自己去設(shè)計模型,然后實現(xiàn)模型的組織或企業(yè)來說,大部分所謂的自己的模型都是基于一些開源模型進(jìn)行的二次訓(xùn)練或微調(diào)。
大模型技術(shù)本身確實有很多難點,比如說算法,架構(gòu),并行計算的方式,幻覺問題,能力不足等等多種問題;但對采用開源模型,使用重新訓(xùn)練的方式得到一個具有特定模型的企業(yè)來說,大模型本身對他們來說并沒有特別大的難度,如果說有難度那么唯一的難度就是基于當(dāng)前模型做的二次開發(fā),使得其功能更完善與強大。
而如果只是把開源模型重新訓(xùn)練一下,那么大模型本身的復(fù)雜度對他們來說都不是問題;原因就在于這些開源模型在開源的時候已經(jīng)把模型的基礎(chǔ)架構(gòu)和一些算法進(jìn)行了實現(xiàn);對訓(xùn)練者來說已經(jīng)不需要再進(jìn)行算法的開發(fā)。
因此,對這些訓(xùn)練者來說,重新訓(xùn)練一個大模型就類似于把別人已經(jīng)制作好的工具,用自己的數(shù)據(jù)重新再跑一遍,然后怎么跑,開源者已經(jīng)給了一個詳細(xì)的步驟;就是開源模型的核心技術(shù)以及訓(xùn)練的步驟。這些文檔在開源模型里面都已經(jīng)有了,不會的直接拿過來看就行了,如果看不懂就多看幾遍,多嘗試幾遍。
上面說了這么多,主要就是想說明白一件事,對基于開源模型進(jìn)行訓(xùn)練的人來說,大模型本身已經(jīng)做的很好了,你已經(jīng)不需要再對大模型進(jìn)行調(diào)整,就可以直接進(jìn)行訓(xùn)練;或者如果你能力很強,當(dāng)然也可以根據(jù)自己的需求對大模型的整個架構(gòu)或算法進(jìn)行重寫。
ok ,現(xiàn)在我們說一下大模型訓(xùn)練的真正難點在什么地方?這個前提是拋開大模型的架構(gòu)設(shè)計和算法實現(xiàn),只是單純的對大模型進(jìn)行訓(xùn)練,不涉及二次開發(fā)等情況。
對訓(xùn)練者來說,大模型訓(xùn)練的難點不在于算力,也不在于大模型的復(fù)雜度,而在于訓(xùn)練數(shù)據(jù)的收集與處理。
大模型訓(xùn)練的流程現(xiàn)在基本上已經(jīng)很詳細(xì)了,網(wǎng)絡(luò)上能找到各種大模型訓(xùn)練和微調(diào)的文章以及案例;但訓(xùn)練和微調(diào)的過程你知道了,算力也可以去買算力服務(wù),但訓(xùn)練的數(shù)據(jù)哪里來?
使用開源模型做訓(xùn)練來實現(xiàn)一個新的業(yè)務(wù),最難的一點就是收集和整理訓(xùn)練數(shù)據(jù);比如說,你想做一個垃圾分類的模型,那么你就需要收集大量的和垃圾有關(guān)的數(shù)據(jù),比如干垃圾有哪些,濕垃圾又有哪些,什么是可回收的,什么是不可回收的。
如果只是訓(xùn)練一個小模型問題還不是很大,少者幾十到幾百,多則幾千到幾千萬,甚至上億的訓(xùn)練數(shù)據(jù);傳說openAI訓(xùn)練GPT4已經(jīng)把全世界能找到的數(shù)據(jù)全部收集了過來,用于模型的訓(xùn)練;這些數(shù)據(jù)的收集,處理,加載,存儲都是一個個問題。
這玩意就類似于造原子彈,原子彈的圖紙都是公開的,技術(shù)也是公開的;但制造原子彈的原料哪里來?
原子彈的原料都是各國嚴(yán)格管控的,如果想自己制作原料,就一個高速離心機有幾個國家能做的出來?
所以,大模型的訓(xùn)練的難度就像造原子彈一樣,技術(shù)和原理都有了;但就是找不到制造的原料,而數(shù)據(jù)就是大模型訓(xùn)練的原料。
當(dāng)然,現(xiàn)在有很多提供各種數(shù)據(jù)的企業(yè)服務(wù),甚至一些灰色地帶公開叫賣一些數(shù)據(jù);但問題是這些數(shù)據(jù)可能并不能完全符合你的需求,因此想打造一個好的模型,模型的設(shè)計或選擇雖然很重要;但訓(xùn)練數(shù)據(jù)的收集和整理也很重要。
?
本文轉(zhuǎn)載自公眾號AI探索時代 作者:DFires
