得物大模型平臺(tái),業(yè)務(wù)效果提升實(shí)踐
一、背景
得物大模型訓(xùn)練與推理平臺(tái)上線幾個(gè)月后,我們與公司內(nèi)部超過 10 個(gè)業(yè)務(wù)領(lǐng)域展開了全面的合作。在一些關(guān)鍵業(yè)務(wù)指標(biāo)方面,取得了顯著的成效,例如:
效率相關(guān)部門的合作,多維度打標(biāo)總正確率取得 2 倍以上提升。利用大模型開辟了新的業(yè)務(wù),提升了效率部門的人力產(chǎn)出。
某業(yè)務(wù)訂單 NPS 的識(shí)別準(zhǔn)確率由 70% (PROMPT 方式)提升到 85% (平臺(tái)訓(xùn)練大模型) 。
本文基于我們與業(yè)務(wù)合作的經(jīng)驗(yàn),將分享如何在大模型平臺(tái)上實(shí)現(xiàn)業(yè)務(wù)效果指標(biāo)提升。我們將以大模型平臺(tái)上從訓(xùn)練到推理部署的全鏈路流程為基礎(chǔ),提供優(yōu)化思路,最終達(dá)成業(yè)務(wù)效果指標(biāo)的提升。這些流程包括大模型選擇、數(shù)據(jù)準(zhǔn)備、大模型訓(xùn)練、效果評(píng)估和推理部署。
圖片
我們期望更多的業(yè)務(wù)方能與大模型平臺(tái)合作,以實(shí)現(xiàn)業(yè)務(wù)效果的提升。
二、大模型如何幫助業(yè)務(wù)提升效果
大模型應(yīng)用場(chǎng)景
大語言模型是一種基于深度學(xué)習(xí)算法的人工智能技術(shù),可以模擬人類的語言行為,并能夠從大量的文本數(shù)據(jù)中學(xué)習(xí)到語言的特征和規(guī)律。其應(yīng)用場(chǎng)景非常廣泛,以下是一些主要的應(yīng)用場(chǎng)景:
自然語言處理:例如文本分類、情感分析、機(jī)器翻譯等,這些應(yīng)用可以幫助人們更好地理解和處理不同的語言文本,提高準(zhǔn)確率。
文本生成和摘要:例如新聞報(bào)道、廣告文案、科技論文摘要等,這些應(yīng)用可以通過對(duì)文本內(nèi)容的分析和理解,自動(dòng)生成符合語法和語義規(guī)則的文本內(nèi)容。
智能問答系統(tǒng):例如智能客服、在線教育等,這些應(yīng)用可以通過對(duì)問題的理解和分析,自動(dòng)回答用戶的問題。
社交媒體分析:例如情感分析、主題分類等,這些應(yīng)用可以通過對(duì)社交媒體文本內(nèi)容的分析和理解,提取出其中的情感、主題等信息,幫助企業(yè)了解用戶的反饋和情感傾向。
此外還有一些行業(yè)大模型的應(yīng)用場(chǎng)景,比如,法律大模型可以提供專業(yè)的法務(wù)咨詢,醫(yī)療大模型可以提供醫(yī)療咨詢等場(chǎng)景,Code 大模型可以專業(yè)去做編碼等工作。
目前企業(yè)內(nèi)在很多業(yè)務(wù)場(chǎng)景中都有對(duì)接,而且取得不錯(cuò)的效果,比如:智能問答,商品評(píng)論信息分析,自動(dòng)化編碼等場(chǎng)景。
接入大模型的方式
要接入大語言模型,主要有兩種方式:
1. 使用 PROMPT 工程:
通過設(shè)計(jì)具有引導(dǎo)性的輸入提示詞,可以調(diào)整大模型的狀態(tài),使其能夠按照特定的方式響應(yīng)新的輸入數(shù)據(jù)。比如在文本生成任務(wù)中,可以設(shè)計(jì)一些特定的提示詞,讓大模型生成符合要求的文本。
2. 微調(diào)訓(xùn)練大模型:
這是一種使用特定任務(wù)的標(biāo)簽數(shù)據(jù)來訓(xùn)練大模型的方法。首先需要準(zhǔn)備相應(yīng)的數(shù)據(jù)集,然后將預(yù)訓(xùn)練的大模型作為基礎(chǔ)模型進(jìn)行訓(xùn)練。完成訓(xùn)練后,可以對(duì)模型進(jìn)行評(píng)估,并根據(jù)評(píng)估結(jié)果進(jìn)行優(yōu)化或調(diào)整。最后,將微調(diào)后的模型部署到實(shí)際應(yīng)用中。
大模型訓(xùn)練與推理平臺(tái)主要提供微調(diào)訓(xùn)練的方式接入大模型。經(jīng)過微調(diào)訓(xùn)練的大模型通常在效果指標(biāo)上明顯優(yōu)于直接使用 PROMPT 工程,這得到了我們與業(yè)務(wù)方的充分驗(yàn)證支持。在之前使用 PROMPT 工程接入的業(yè)務(wù)中,轉(zhuǎn)向微調(diào)訓(xùn)練后,效果顯著提升。例如,在某業(yè)務(wù)訂單 NPS 的識(shí)別準(zhǔn)確率方面,之前基于 PROMPT 與各種工程優(yōu)化,準(zhǔn)確率最多 70%,轉(zhuǎn)由大模型微調(diào)訓(xùn)練后,可以提升到 85%。
三、基礎(chǔ)大模型選型
基礎(chǔ)大模型指的是各組織已經(jīng)進(jìn)行預(yù)訓(xùn)練的大模型,這些模型通常是在大規(guī)模文本數(shù)據(jù)上進(jìn)行了通用性的預(yù)訓(xùn)練,可以作為基礎(chǔ)模型供其他任務(wù)的微調(diào)和特定應(yīng)用程序使用。
業(yè)界提供的基礎(chǔ)大模型有哪些
圖片
業(yè)界的大模型可以分為閉源系列大模型,開源系列大模型。閉源系列大模型通常通過 API 接口與聊天頁(yè)面等方式提供大模型服務(wù),例如 OpenAI 的 GPT 系列、Anthropic 的 Claude 系列、百度的文心一言系列等。對(duì)于閉源大模型,通常建議使用 PROMPT 提示的方式來與模型進(jìn)行交互。如果需要進(jìn)行微調(diào)訓(xùn)練以適應(yīng)特定任務(wù)或領(lǐng)域,一般建議使用開源大模型。
開源系列的大模型是指開源了模型的參數(shù)和部分訓(xùn)練數(shù)據(jù),使用戶能夠下載模型并進(jìn)行進(jìn)一步的微調(diào)訓(xùn)練。例如:
Llama2 系列,由 Meta 公司提供,開源了模型參數(shù)和訓(xùn)練論文。
Llama2 生態(tài)系列,指的是各組織在 Llama2 的基礎(chǔ)上進(jìn)行微調(diào)訓(xùn)練,以獲得更好的效果,然后進(jìn)一步將其開源。當(dāng)前一些不錯(cuò)的開源系列包括 Vicuna 系列、XinLM 系列、WizardLM 系列、UltraLM 系列等。
國(guó)內(nèi)開源系列,國(guó)內(nèi)一些廠商也會(huì)自己去訓(xùn)練一些大模型開源,效果也不錯(cuò)。比如:QianWen 系列,BaiChuan 系列等等。
行業(yè)大模型系列是指一些組織基于開源大模型進(jìn)行領(lǐng)域特定的微調(diào)訓(xùn)練,以在特定行業(yè)領(lǐng)域獲得良好的效果,然后將這些模型進(jìn)行開源分享。這種做法可以滿足特定行業(yè)的需求,例如法律領(lǐng)域、金融領(lǐng)域、醫(yī)療領(lǐng)域等。這些行業(yè)大模型可以更好地適應(yīng)特定領(lǐng)域的任務(wù)和語境,提供更準(zhǔn)確的結(jié)果,因此在相關(guān)行業(yè)中非常有價(jià)值。
大模型的評(píng)測(cè)數(shù)據(jù)集主要有哪些
既然有這么多大模型可供選擇,我們?nèi)绾未_定哪些模型更為出色呢?這涉及對(duì)大模型性能進(jìn)行評(píng)估。通俗來說,大模型的評(píng)估是指將各種不同場(chǎng)景的問題提供給模型進(jìn)行回答,然后根據(jù)回答的質(zhì)量來評(píng)分。
評(píng)測(cè)的題目又可以分為客觀題與主觀題,客觀題主要看回答的是否正確,主觀題則需要評(píng)測(cè)回答的質(zhì)量等。
圖片
下面我們介紹下一些常用的大模型評(píng)測(cè)方式。
圖片
下面是最近 AlpacaEval 的大模型評(píng)分排行榜單。
圖片
如何做大模型的選型
圖片
預(yù)訓(xùn)練的大模型的應(yīng)用可以分為通用模型和行業(yè)模型。在選擇基礎(chǔ)大模型時(shí),用戶應(yīng)該根據(jù)他們的具體應(yīng)用場(chǎng)景以及各大模型的評(píng)測(cè)得分來做決策。
在通用場(chǎng)景,例如情感分析、機(jī)器翻譯和文本摘要等,您可以選擇通用大模型??梢圆榭匆恍┰u(píng)分排行榜,如 AlpacaEval,或其他排行榜如 MMLU、CMMLU、CEVAL 等,以了解一些性能良好的大模型。一旦選擇了大模型,您也可以在大模型平臺(tái)上重新運(yùn)行評(píng)分以便進(jìn)行進(jìn)一步驗(yàn)證。
對(duì)于專業(yè)領(lǐng)域,如法務(wù)、醫(yī)療和編程等,您需要關(guān)注領(lǐng)域?qū)S玫拇竽P?。例如,在編程領(lǐng)域,您可以查看大模型在 HuamEval 上的評(píng)分來作出選擇。這將有助于確保模型在特定行業(yè)場(chǎng)景中的性能和適用性。
四、數(shù)據(jù)準(zhǔn)備
大模型訓(xùn)練需要哪些數(shù)據(jù)
大模型的訓(xùn)練過程通常包括預(yù)訓(xùn)練、指令調(diào)優(yōu)和偏好學(xué)習(xí)。在選擇了預(yù)訓(xùn)練的大模型后,您通常只需要進(jìn)行業(yè)務(wù)微調(diào),即指令調(diào)優(yōu)和偏好學(xué)習(xí)。實(shí)際上,在大多數(shù)情況下,只進(jìn)行指令調(diào)優(yōu)就足夠了。
以 Alpaca 格式為例,指令調(diào)優(yōu)的數(shù)據(jù)通常具有以下格式:
{
"instruction": "簡(jiǎn)單解釋人工智能的概念。",
"input": "",
"output": "人工智能(Artificial Intelligence,簡(jiǎn)稱AI)是指用計(jì)算機(jī)程序來模擬人類智能的過程。它是一種能讓計(jì)算機(jī)或程序在執(zhí)行任務(wù)時(shí)表現(xiàn)出類似人類智能的技術(shù)。人工智能包括了機(jī)器學(xué)習(xí)、自然語言處理、語音識(shí)別和計(jì)算機(jī)視覺等領(lǐng)埴。簡(jiǎn)言之,人工智能就是賦予計(jì)算機(jī)類似人類的思維和行為能力。"
}
在這個(gè)示例中,"instruction"表示輸入的指令,"input"表示您的輸入,而"output"則是由大模型生成的答復(fù)。因此,進(jìn)行大模型的訓(xùn)練需要準(zhǔn)備符合這種格式的指令調(diào)優(yōu)數(shù)據(jù),而這些數(shù)據(jù)應(yīng)該與您的具體業(yè)務(wù)相關(guān)。
訓(xùn)練數(shù)據(jù)如何準(zhǔn)備
圖片
大模型的訓(xùn)練數(shù)據(jù)通常分為兩類:通用數(shù)據(jù)和業(yè)務(wù)數(shù)據(jù)。通用數(shù)據(jù),例如 GPT4-Cleaned 數(shù)據(jù),主要用于提高大模型的泛化能力。另一類是業(yè)務(wù)數(shù)據(jù),通常是業(yè)務(wù)方自己獨(dú)有的數(shù)據(jù)。在訓(xùn)練過程中,通常會(huì)將這兩種類型的數(shù)據(jù)按照一定的比例混合在一起進(jìn)行訓(xùn)練。
此外,在數(shù)據(jù)準(zhǔn)備過程中,強(qiáng)調(diào)一個(gè)非常重要的原則:數(shù)據(jù)質(zhì)量將直接影響模型的效果。因此,確保數(shù)據(jù)的質(zhì)量和準(zhǔn)確性對(duì)于獲得良好的模型性能至關(guān)重要。
五、大模型訓(xùn)練
大模型都有哪些訓(xùn)練方式
圖片
上圖展示了一個(gè)完整的大模型訓(xùn)練過程,從大模型選擇到應(yīng)用于業(yè)務(wù)場(chǎng)景,通常包括三個(gè)階段:
- 預(yù)訓(xùn)練:在這一階段,大模型利用大量語料庫(kù)進(jìn)行自我學(xué)習(xí),逐漸掌握自然語言處理的規(guī)律和技巧。這是為了建立一個(gè)通用的語言理解基礎(chǔ)。
- 指令調(diào)優(yōu):這個(gè)階段主要針對(duì)特定的業(yè)務(wù)場(chǎng)景進(jìn)行訓(xùn)練。通過提供大量指令和相應(yīng)的反饋,大模型逐漸適應(yīng)并解決特定問題。這個(gè)階段使模型更適應(yīng)特定業(yè)務(wù)需求。
- 偏好學(xué)習(xí):在大模型的訓(xùn)練過程中,還要考慮偏好學(xué)習(xí),使大模型的回答更加貼近人類的偏好,遵循人類的意圖。如語言風(fēng)格和表達(dá)習(xí)慣等。
在前述步驟中,已經(jīng)完成了基礎(chǔ)大模型的選擇,這些模型是經(jīng)過預(yù)訓(xùn)練的。因此,在大多數(shù)情況下,您確實(shí)無需再次進(jìn)行預(yù)訓(xùn)練。通常,您只需要準(zhǔn)備好業(yè)務(wù)指令數(shù)據(jù),然后進(jìn)行指令調(diào)優(yōu)即可,以使大模型適應(yīng)和優(yōu)化特定的業(yè)務(wù)場(chǎng)景和需求。這簡(jiǎn)化了訓(xùn)練流程,使其更加高效和針對(duì)性。
訓(xùn)練的過程
1. 如何開啟訓(xùn)練
圖片
在大模型平臺(tái)上,用戶可以按照以下步驟迅速啟動(dòng)大模型訓(xùn)練并進(jìn)行自動(dòng)部署:
- 選擇大模型?;谥疤岬降拇竽P瓦x擇原則,在大模型平臺(tái)上選擇您需要的大模型。
- 上傳訓(xùn)練數(shù)據(jù)。按照上述數(shù)據(jù)準(zhǔn)備方法,將您準(zhǔn)備好的數(shù)據(jù)上傳到大模型平臺(tái)。
- 配置訓(xùn)練參數(shù)。通常情況下,選擇默認(rèn)配置參數(shù),如 Lora 即可。這些參數(shù)通常經(jīng)過優(yōu)化以獲得最佳的訓(xùn)練效果。
- 訓(xùn)練。點(diǎn)擊相應(yīng)按鈕,啟動(dòng)訓(xùn)練過程。大模型平臺(tái)將自動(dòng)處理訓(xùn)練任務(wù),以便您專注于業(yè)務(wù)應(yīng)用的開發(fā)和部署。
2. 訓(xùn)練結(jié)果評(píng)估
圖片
在前面的大模型選型過程中,我們介紹了如何使用通用數(shù)據(jù)集進(jìn)行大模型的通用評(píng)測(cè)。類似地,一旦業(yè)務(wù)方完成了微調(diào)訓(xùn)練,他們需要設(shè)置業(yè)務(wù)相關(guān)的測(cè)試集,并進(jìn)行與業(yè)務(wù)相關(guān)的指標(biāo)評(píng)測(cè),以確保模型在特定業(yè)務(wù)場(chǎng)景下的性能和效果。這個(gè)業(yè)務(wù)相關(guān)的評(píng)測(cè)是確保模型在實(shí)際應(yīng)用中能夠滿足預(yù)期需求的關(guān)鍵步驟。
六、大模型部署
目前的推理加速方案有哪些
圖片
當(dāng)前業(yè)界對(duì)大模型部署加速的技術(shù)如下:
- 量化:通過將模型參數(shù)量化為 8 位或 4 位,可以在保持模型效果的同時(shí),加速推理過程,減少計(jì)算和內(nèi)存開銷。一些常見的量化框架包括 AWQ 和 GPTQ。
- 顯存管理優(yōu)化:大模型的運(yùn)算通常會(huì)占用大量顯存,特別是 KV Cache。通過顯存管理優(yōu)化,如 Page Attention 技術(shù),可以減少顯存碎片,提高顯存利用率。
- Attention 運(yùn)算優(yōu)化:Attention 運(yùn)算在計(jì)算時(shí)耗時(shí)較長(zhǎng),而且會(huì)導(dǎo)致大量的內(nèi)存訪問。通過結(jié)合 GPU 硬件的特點(diǎn),減少內(nèi)存訪問和緩存,可以加速 Attention 運(yùn)算。一些技術(shù)如 Flash Attention 和 Group Query Attention 可以改進(jìn) Attention 性能。
- 算子融合優(yōu)化,通過合并大模型運(yùn)算過程中的算子,可以減少計(jì)算和內(nèi)存開銷,從而提高推理速度。
一些常見的優(yōu)化框架,如 AWQ(用于量化)、GPTQ(用于量化)、VLLM(包括PageAttention)、TGI(包括PageAttention和FlashAttention)、Tensorrt-llm(用于算子融合和 PageAttention)等,可以幫助加速大模型的部署,并提高性能。這些技術(shù)和框架是業(yè)界在大模型部署方面的一些關(guān)鍵進(jìn)展。
如何選擇推理加速方案
圖片
在大模型平臺(tái)上,您實(shí)際上無需擔(dān)心選擇加速方案。這是因?yàn)槠脚_(tái)會(huì)根據(jù)業(yè)界的技術(shù)進(jìn)展和業(yè)務(wù)中所需的大模型場(chǎng)景進(jìn)行評(píng)估,并自動(dòng)為您選擇當(dāng)前最優(yōu)的推理方案。比如 VLLM,Tensorrt-llm 等。
七、總結(jié)與展望
我們?cè)谇懊娴膬?nèi)容中詳細(xì)分享了大模型的選擇、數(shù)據(jù)準(zhǔn)備、訓(xùn)練以及部署等方面的最新技術(shù)。未來,我們將進(jìn)一步深入探討這些技術(shù)的細(xì)節(jié)。
目前,我們已經(jīng)與超過 10 個(gè)業(yè)務(wù)領(lǐng)域合作,涵蓋了自然語言處理、文本生成、智能問答等領(lǐng)域,并取得了顯著的業(yè)務(wù)成果。我們鼓勵(lì)大家積極探索大模型平臺(tái),以提高業(yè)務(wù)效果。
由于大模型社區(qū)持續(xù)發(fā)展,未來必定會(huì)涌現(xiàn)出更先進(jìn)的微調(diào)訓(xùn)練和量化部署技術(shù)。我們將密切關(guān)注這些進(jìn)展,如果發(fā)現(xiàn)新方法在效果和性能方面優(yōu)于目前支持的方法,我們將及時(shí)將其整合到平臺(tái)的框架中。