中文版開源Llama 2同時有了語言、多模態(tài)大模型,完全可商用
7 月 19 日,Meta 終于發(fā)布了免費(fèi)可商用版本 Llama 2,讓開源大模型領(lǐng)域的格局發(fā)生了巨大變化。
Llama 2 模型系列包含 70 億、130 億和 700 億三種參數(shù)變體,相比上一代的訓(xùn)練數(shù)據(jù)增加了 40%,在包括推理、編碼、精通性和知識測試等許多外部基準(zhǔn)測試中展示出了優(yōu)越的表現(xiàn),且支持多個語種。
美中不足的是,Llama 2 語料庫仍以英文(89.7%)為主,而中文僅占據(jù)了其中的 0.13%。這導(dǎo)致 Llama 2 很難完成流暢、有深度的中文對話。
中文版 Llama2 開源大模型創(chuàng)下社區(qū)「首個」
好消息是,在 Meta Al 開源 Llama 2 模型的次日,開源社區(qū)首個能下載、能運(yùn)行的開源中文 LLaMA2 模型就出現(xiàn)了。該模型名為「Chinese Llama 2 7B」,由國內(nèi) AI 初創(chuàng)公司 LinkSoul.Al 推出。
僅僅兩周時間,該項(xiàng)目在 Hugging Face 上收獲過萬次下載,并在 GitHub 上獲得了 1200 Stars。
據(jù)項(xiàng)目介紹,Chinese-Llama-2-7b 開源的內(nèi)容包括完全可商用的中文版 Llama2 模型及中英文 SFT 數(shù)據(jù)集,輸入格式嚴(yán)格遵循 llama-2-chat 格式,兼容適配所有針對原版 llama-2-chat 模型的優(yōu)化。
項(xiàng)目地址:https://github.com/LinkSoul-AI/Chinese-Llama-2-7b
目前,普通用戶可以在線體驗(yàn)「Chinese Llama-2 7B Chat」。
試用地址:https://huggingface.co/spaces/LinkSoul/Chinese-Llama-2-7b
比如你能夠以英文提問,并讓它用中文回答:
或者直接中文對話,它也能以中文實(shí)現(xiàn)準(zhǔn)確、流暢的回答:
主打的就是一個中英文靈活切換:
有人已上手,表示運(yùn)行良好:
圖源:https://twitter.com/roya10x7/status/1682781475458957315?s=20
語言模型之外,繼續(xù)開源兩個中文多模態(tài)大模型
在推出首個開源 Llama2 中文語言大模型之后,LinkSoul.AI 團(tuán)隊(duì)將目光投向了目前全球尚外于發(fā)展初期的語音文本多模態(tài)大模型和圖文大模型,并再次率先開源了相關(guān)的模型,提供國內(nèi)開發(fā)者免費(fèi)下載、自由商用。
本次開源的兩個中文多模態(tài)大模型,包括如下:
- 由 LinkSoul.Al 團(tuán)隊(duì)牽頭,北京智源人工智能研究院、北京大學(xué)、零一萬物等國內(nèi)頭部頂尖人工智能團(tuán)隊(duì)通力合作的第一個支持中英雙語、語音到文本的多模態(tài)開源對話模型 (LLaSM)
- 第一個基于 Llama 2 的支持中英文雙語視覺到文本的多模態(tài)模型 (Chinese-LLaVA)
兩個模型都基于 Apache-2.0 協(xié)議開源,完全可商用。
LinkSoul.Al 開發(fā)團(tuán)隊(duì)負(fù)責(zé)人史業(yè)民表示,「放眼全球,目前如何讓『模型聽世界、看世界』仍然沒有可靠的開源模型可用。我們希望能夠盡微薄之力,讓中國大模型生態(tài)距離國際領(lǐng)先標(biāo)準(zhǔn)再近一些?!?/span>
語音到文本多模態(tài)開源對話模型 (LLaSM)
LinkSoul.AI 開源了可商用的中英文雙語語音 - 語言助手 LLaSM 以及中英文語音 SFT 數(shù)據(jù)集 LLaSM-Audio-Instructions。LLaSM 是首個支持中英文語音 - 文本多模態(tài)對話的開源可商用對話模型。
相較以往的傳統(tǒng)方案,LLaSM 能夠通過便捷的語音輸入的交互方式,大幅改善過往以文本為輸入的大模型的使用體驗(yàn),同時有效避免基于 ASR 解決方案的繁瑣流程以及可能引入的錯誤。
- 項(xiàng)目地址:https://github.com/LinkSoul-AI/LLaSM
- 數(shù)據(jù)集: https://huggingface.co/datasets/LinkSoul/LLaSM-Audio-Instructions
下面是 LLaSM 的一個語音 - 文本對話示例。
LLaSM 也有相應(yīng)的文獻(xiàn)介紹。
模型、代碼和數(shù)據(jù)地址:https://huggingface.co/spaces/LinkSoul/LLaSM
圖像到文本多模態(tài)開源對話模型 (Chinese LLaVA)
LinkSoul.AI 開源了可商用的中英文雙語視覺 - 語言助手 Chinese-LLaVA 以及中英文視覺 SFT 數(shù)據(jù)集 Chinese-LLaVA-Vision-Instructions,支持中英文視覺 - 文本多模態(tài)對話的開源可商用對話模型。
- 項(xiàng)目地址:https://github.com/LinkSoul-AI/Chinese-LLaVA
- 數(shù)據(jù)集: https://huggingface.co/datasets/LinkSoul/Chinese-LLaVA-Vision-Instructions
下面是 Chinese LLaVA 的一個視覺 - 文本對話示例。
圖片
模型、代碼和數(shù)據(jù)地址:https://huggingface.co/spaces/LinkSoul/Chinese-LLaVa
多模態(tài)模型統(tǒng)一架構(gòu)解讀
大語言模型在很多方面展現(xiàn)了強(qiáng)大的能力,也在一定程度上讓人們看到了實(shí)現(xiàn)通用人工智能(AGI)的希望。多模態(tài)模型提供了不同模態(tài)之間信息交互的渠道,使得視覺信息、語音信息等能和文本語義信息互為補(bǔ)充,讓大語言模型能聽到世界、看到世界,從而向 GI 又前進(jìn)一步。
因此,訓(xùn)練多模態(tài)模型的重點(diǎn)是如何融合互補(bǔ)不同模態(tài)間的信息,并充分利用現(xiàn)有大語言模型能力。LinkSoul.AI 開源的語音 - 語言多模態(tài)模型和視覺 - 語言多模態(tài)模型統(tǒng)一采用下圖所示框架。
首先通過模態(tài)編碼器編碼不同模態(tài)數(shù)據(jù)特征,緊接著在多模態(tài)特征對齊的預(yù)訓(xùn)練階段學(xué)習(xí)模態(tài)適配器(Adaptor),將不同模態(tài)的輸入特征與大語言模型對齊。
然后在端到端的有監(jiān)督微調(diào)(SFT)階段使用不同模態(tài)的指令數(shù)據(jù)集對模態(tài)適配器和大語言模型進(jìn)行微調(diào)。在有監(jiān)督微調(diào)階段,同時使用跨模態(tài)(cross-modal)指令數(shù)據(jù)和僅文本(text-only)指令數(shù)據(jù)進(jìn)行多任務(wù)訓(xùn)練。LinkSoul.AI 團(tuán)隊(duì)認(rèn)為多任務(wù)訓(xùn)練有助于避免模型產(chǎn)生模態(tài)依賴和偏見,并且可以自然地用一個模型實(shí)現(xiàn)多種模態(tài)。
LinkSoul.AI 團(tuán)隊(duì)接下來的工作會把語音 - 視覺 - 文本進(jìn)一步融合,讓大語言模型同時支持語音和視覺模態(tài)。
預(yù)訓(xùn)練階段
預(yù)訓(xùn)練階段將模態(tài)編碼器和大語言模型參數(shù)都凍結(jié),使用跨模態(tài)的語音 / 視覺 - 文本對進(jìn)行 Adaptor 的訓(xùn)練,優(yōu)化目標(biāo)為對輸入的指令(instructions)生成相應(yīng)的回復(fù)(responses)。
具體來講,對于語音模態(tài),采用 Whisper 作為特征編碼器,凍結(jié) Whisper [5] 并提取音頻輸入的特征。使用公開的中英文自動語音識別(ASR)數(shù)據(jù)集 Aishell [1]、 LibriSpeech [2]、Magicdata [3] 和 Primewords [4]。
對每個數(shù)據(jù)樣本(audio、text_label)依據(jù)對應(yīng)語言隨機(jī)從預(yù)訓(xùn)練語音指令表(見第三節(jié)數(shù)據(jù)部分)中選取一個指令,組成(audio,instruct,text_label)格式的數(shù)據(jù),并在訓(xùn)練過程中預(yù)測 text_label。
對于視覺模態(tài),采用 CLIP [6] 作為圖片特征提取器,并使用 mBART [8] 對 LLaVA [7] 開源的視覺預(yù)訓(xùn)練數(shù)據(jù)進(jìn)行翻譯漢化,生成中文圖片文本對。在預(yù)訓(xùn)練階段同時使用中英文數(shù)據(jù)進(jìn)行訓(xùn)練,從而讓模型更好的支持中文。
有監(jiān)督微調(diào)
預(yù)訓(xùn)練階段將不同模態(tài)的特征和大語言模型對齊,有監(jiān)督微調(diào)階段則僅凍結(jié)模態(tài)編碼器權(quán)重,將模態(tài)適配器和大語言模型參數(shù)打開,使用跨模態(tài)指令數(shù)據(jù)進(jìn)行微調(diào)。
針對目前幾乎沒有公開語音多模態(tài)指令數(shù)據(jù)這一問題,基于公開數(shù)據(jù)集 WizardLM [9]、ShareGPT [10]、GPT-4-LLM [11] 構(gòu)造語音 - 文本多模態(tài)指令數(shù)據(jù)集 LLaSM-Audio-Instructions。以語音輸入作為指令,并預(yù)測對應(yīng)的文本輸出。
對于視覺模態(tài),同樣先通過 mBART [8] 對 LLaVA [7] 開源的視覺指令數(shù)據(jù)集進(jìn)行翻譯漢化,生成中文的視覺指令數(shù)據(jù)集,然后類似地進(jìn)行訓(xùn)練。
數(shù)據(jù)集
模態(tài)轉(zhuǎn)換預(yù)訓(xùn)練數(shù)據(jù)集
先來看 Audio。語音多模態(tài)預(yù)訓(xùn)練數(shù)據(jù)集采用公開中英文自動語音識別(ASR)數(shù)據(jù)集 Aishell [1]、LibriSpeech [2]、Magicdata [3] 和 Primewords [4]。
同時構(gòu)造如下指令集,對每個(audio、text_label)樣本依據(jù)對應(yīng)語言隨機(jī)選擇一條指令構(gòu)造數(shù)據(jù)樣本(instruction、audio、text_label)。
表 1:英文簡單指令集
表 2:中文簡單指令集
然后是 Vision。對于視覺模態(tài),采用 LLaVA [7] 開源的視覺預(yù)訓(xùn)練數(shù)據(jù),通過 mBART [8] 翻譯進(jìn)行漢化,生成中文圖片文本對,以提升模型的中文能力。
指令微調(diào)數(shù)據(jù)集
同樣先來看 Audio。在構(gòu)建音頻數(shù)據(jù)集的過程中,首先仔細(xì)過濾所有對話數(shù)據(jù),通過刪除那些不適合發(fā)聲的對話,包括代碼、符號、URL 和其他不可讀的文本。然后,為確保數(shù)據(jù)質(zhì)量,每輪對話中聊天機(jī)器人的答案再次被過濾,那些不包含有價值信息的內(nèi)容將被丟棄。最后,使用 Microsoft Azure [12] 語音合成 API 來生成語音數(shù)據(jù)。
然后是 Vision。對于視覺模態(tài),采用 LLaVA [7] 開源的視覺指令數(shù)據(jù)集,通過 mBART [8] 進(jìn)行漢化,生成中文多模態(tài)指令數(shù)據(jù),使得模型能夠具有中文視覺指令執(zhí)行能力。
為了便于開源社區(qū)快速感受多模態(tài)大模型的能力,以及共同推進(jìn)多模態(tài)大模型的研究進(jìn)展,訓(xùn)練用到的數(shù)據(jù)在項(xiàng)目中開源,并提供 Hugging Face 倉庫下載。
對于 LinkSoul.AI 團(tuán)隊(duì)而言,這兩個開源可商用的多模態(tài)大模型不僅為大模型生態(tài)帶來了語音和視覺多模態(tài)能力,也在大模型多語言方面做出了貢獻(xiàn)。
此外在商用場景上,該團(tuán)隊(duì)推出的模型都允許完全免費(fèi)商用,這對于國內(nèi)個人開發(fā)者和初創(chuàng)公司也具有非凡的價值。