自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

國(guó)產(chǎn)多模態(tài)卷上下文長(zhǎng)度:原生支持24K圖文輸入輸出,圖像視頻理解對(duì)標(biāo)GPT4V

人工智能
為了兼顧模型對(duì)于視覺(jué)內(nèi)容的理解和語(yǔ)言創(chuàng)作能力,IXC2.5采用了一種 PLoRA(局部LoRA)的模型架構(gòu),即對(duì)于視覺(jué)Token單獨(dú)增加一組LoRA參數(shù)進(jìn)行編碼,通過(guò)這種方式讓新增的LoRA參數(shù)只影響視覺(jué)Token,一方面可以幫助模型更好的理解視覺(jué)信息,同時(shí)減少對(duì)模型語(yǔ)言能力的影響。

國(guó)產(chǎn)多模態(tài)大模型,也開(kāi)始卷上下文長(zhǎng)度。

書(shū)生·浦語(yǔ)靈筆(InternLM-XComposer)多模態(tài)大模型升級(jí)2.5版本——

原生支持24K多模態(tài)圖文上下文,超過(guò)20輪的圖文交互,具備圖像視頻理解、網(wǎng)頁(yè)創(chuàng)作、圖文寫(xiě)作等多項(xiàng)功能。

該開(kāi)源模型一出,一度在Hugging Face登上熱榜第五。

圖片圖片

作為8B量級(jí)性能最優(yōu)秀的多模態(tài)大模型之一,它在多項(xiàng)評(píng)測(cè)性能上對(duì)標(biāo)GPT4V和Gemini Pro。

圖片圖片

而除了支持長(zhǎng)上下文輸入,InternLM-XComposer 2.5版本(以下簡(jiǎn)稱(chēng)IXC 2.5)同時(shí)訓(xùn)練了長(zhǎng)序列輸出能力,模型支持高質(zhì)量網(wǎng)頁(yè)創(chuàng)作和文章生成。

兼容三種多模態(tài)理解能力

IXC 2.5同時(shí)兼顧了多模態(tài)模型的理解和內(nèi)容輸出能力,主要包括三種多模態(tài)理解能力。

包括超過(guò)4K分辨率的圖像理解、多輪多圖超長(zhǎng)對(duì)話(huà)、精細(xì)視頻內(nèi)容分析。

來(lái)具體看看大模型實(shí)力如何。

高分辨率圖像理解,它支持分析文檔、網(wǎng)頁(yè)、圖表等信息豐富的超高清圖像。

比如扔給它之前的文章,圖像分辨率為1312x22619像素,并詢(xún)問(wèn)IXC 2.5關(guān)于截圖內(nèi)容的問(wèn)題。

圖片圖片

嗯,還能知道是量子位公眾號(hào)。

就是詢(xún)問(wèn)一些圖中的論文細(xì)節(jié),它也能正確回答。

多輪多圖超長(zhǎng)對(duì)話(huà),支持自由形式的多輪多圖對(duì)話(huà),進(jìn)行超過(guò)20輪圖文交互,提供自然的多模態(tài)交互體驗(yàn)。

為了實(shí)現(xiàn)這一能力,研究團(tuán)隊(duì)構(gòu)造了第一個(gè)多模態(tài)長(zhǎng)上下文指令數(shù)據(jù)集MMDU。該數(shù)據(jù)集包括了平均15輪圖文對(duì)話(huà),最大20張圖像,最多對(duì)話(huà)輪次可以到27次,數(shù)據(jù)集現(xiàn)已開(kāi)源。

圖片圖片

精細(xì)視頻內(nèi)容分析,在多項(xiàng)視頻大模型評(píng)測(cè)中表現(xiàn)出色。

圖片圖片

研究團(tuán)隊(duì)構(gòu)造了ShareGPT4Video圖像描述數(shù)據(jù)集,包括了3000個(gè)小時(shí)的精細(xì)視頻描述標(biāo)注。視頻數(shù)據(jù)來(lái)源多樣,包括Panda,EGO-4D,Pexels,Pixabay等,涵蓋豐富的場(chǎng)景,數(shù)據(jù)集已經(jīng)開(kāi)源。

圖片圖片

除此之外,內(nèi)容輸出的能力也得到了升級(jí)。

網(wǎng)頁(yè)創(chuàng)作。IXC 2.5擴(kuò)展了網(wǎng)頁(yè)代碼的編寫(xiě)能力,可以根據(jù)圖文指令輸入,編寫(xiě)對(duì)應(yīng)的網(wǎng)頁(yè)前端和交互代碼(HTML,CSS,JavaScript)。

在該能力的支持下,IXC 2.5實(shí)現(xiàn)了三個(gè)實(shí)用的功能,包括:

(1)網(wǎng)頁(yè)截圖轉(zhuǎn)代碼:輸入網(wǎng)頁(yè)截圖,輸出對(duì)應(yīng)截圖的前端代碼
(2)語(yǔ)言指令做網(wǎng)頁(yè):輸入網(wǎng)頁(yè)制作要求,創(chuàng)作網(wǎng)頁(yè)代碼并渲染
(3)個(gè)人簡(jiǎn)歷做網(wǎng)頁(yè):輸入個(gè)人簡(jiǎn)歷PDF,制作對(duì)應(yīng)個(gè)人簡(jiǎn)歷的主頁(yè)

圖片圖片

圖文寫(xiě)作。本次IXC 2.5構(gòu)造了2000篇涵蓋各種文體,包括:高考作文、散文、小說(shuō)等不同文風(fēng)文章的文筆質(zhì)量打分?jǐn)?shù)據(jù),并使用這些數(shù)據(jù)訓(xùn)練的一個(gè)reward model。

使用該reward model進(jìn)一步構(gòu)造了30000篇文章質(zhì)量偏好數(shù)據(jù),用于直接偏好學(xué)習(xí)(DPO)訓(xùn)練,大幅提升了文章創(chuàng)作的文筆和穩(wěn)定性。IXC 2.5不僅支持高質(zhì)量寫(xiě)作,還可以給出文章寫(xiě)作評(píng)價(jià)。

以2024高考新課標(biāo)Ⅱ卷為例,IXC 2.5不僅可以寫(xiě)出文筆優(yōu)秀的高考作文,對(duì)于作文的點(diǎn)評(píng)也顯得非常專(zhuān)業(yè)。

圖片圖片

圖像與視頻理解的統(tǒng)一架構(gòu)

今年4月,IXC團(tuán)隊(duì)提出了4K分辨率圖像多模態(tài)大模型方案IXC2-4KHD,可以處理任意長(zhǎng)寬比的高分辨率圖像。

IXC 2.5基于4KHD框架進(jìn)行擴(kuò)展,實(shí)現(xiàn)了一套可以統(tǒng)一處理高分辨率圖像和視頻的多模態(tài)模型架構(gòu)。

視頻幀拼圖

對(duì)于視頻數(shù)據(jù),IXC 2.5會(huì)均勻采樣視頻幀,并將視頻幀拼成一個(gè)超長(zhǎng)的高分辨率圖片。每一幀圖像上用文字標(biāo)記視頻的時(shí)序信息。

全局特征(Global View)。

將整張高分辨率圖像整體resize到560x560大小,用ViT抽取全局特征。

局部特征(Local View)

將高分辨率圖像切塊,每塊560x560分辨率,分別抽取局部特征

特征拼接:將Global View和Local View的特征拼成一個(gè)序列,用’\n’ token標(biāo)記圖像長(zhǎng)寬比布局,用’sp’ token分隔全局特征和局部特征。

圖片圖片

為了兼顧模型對(duì)于視覺(jué)內(nèi)容的理解和語(yǔ)言創(chuàng)作能力,IXC2.5采用了一種 PLoRA(局部LoRA)的模型架構(gòu),即對(duì)于視覺(jué)Token單獨(dú)增加一組LoRA參數(shù)進(jìn)行編碼,通過(guò)這種方式讓新增的LoRA參數(shù)只影響視覺(jué)Token,一方面可以幫助模型更好的理解視覺(jué)信息,同時(shí)減少對(duì)模型語(yǔ)言能力的影響。

圖片圖片

IXC社區(qū)提供完善的量化、部署、微調(diào)代碼支持,提供在線demo和在線demo的本地運(yùn)行代碼,包括:

  • 量化和部署(LMDepoly支持):IXC 2.5由LMDeploy項(xiàng)目支持模型部署和量化,只需要不到24GB顯存就可以運(yùn)行,同時(shí)支持多卡推理降低單卡顯存要求。

圖片圖片

  • 微調(diào)(原生支持&Modelscope Swift):IXC 2.5支持使用研究團(tuán)隊(duì)開(kāi)源的微調(diào)代碼,以及Modelscope Swift項(xiàng)目支持的微調(diào)代碼兩種實(shí)現(xiàn),使用LoRA微調(diào)最少只需要32GB顯存。
  • Demo代碼:IXC 2.5的demo代碼使用Whisper和MeloTTS支持了語(yǔ)音輸入輸出,支持本地部署,代碼現(xiàn)已開(kāi)源。

項(xiàng)目地址:
https://github.com/InternLM/InternLM-XComposer論文地址:
https://arxiv.org/pdf/2407.03320


責(zé)任編輯:武曉燕 來(lái)源: 量子位
相關(guān)推薦

2024-04-07 00:45:00

開(kāi)源模型

2025-04-24 10:31:54

2023-07-11 10:02:23

2023-05-19 10:16:27

AIGPT-4

2024-04-01 00:00:00

馬斯克Grok 1.5HumanEval

2024-03-04 12:32:20

模型訓(xùn)練

2020-07-24 10:00:00

JavaScript執(zhí)行上下文前端

2024-06-12 11:49:44

2024-06-03 14:24:00

2023-10-23 12:28:18

AI訓(xùn)練

2024-03-14 08:11:45

模型RoPELlama

2019-05-06 14:36:48

CPULinux寄存器

2023-11-17 18:06:15

2023-11-22 16:51:53

2015-07-08 10:25:05

Javascript上下文作用域

2023-05-14 14:15:00

GPT-4AI

2023-08-14 08:04:13

2025-04-28 09:02:14

2023-10-12 09:28:17

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)