自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

人工智能 新聞
MiniGPT-v2由來自MiniGPT-4的原班人馬(KAUST沙特阿卜杜拉國王科技大學)以及Meta的五位研究員共同開發(fā)。

GPT-4V來做目標檢測?網(wǎng)友實測:還沒有準備好。

圖片

雖然檢測到的類別沒問題,但大多數(shù)邊界框都錯放了。

沒關系,有人會出手!

那個搶跑GPT-4看圖能力幾個月的迷你GPT-4升級啦——MiniGPT-v2

圖片

△(左邊為GPT-4V生成,右邊為MiniGPT-v2生成)

而且只是一句簡單指令:[grounding] describe this image in detail就實現(xiàn)的結果。

不僅如此,還輕松處理各類視覺任務。

圈出一個物體,提示詞前面加個 [identify] 可讓模型直接識別出來物體的名字。

圖片

當然也可以什么都不加,直接問~

圖片

MiniGPT-v2由來自MiniGPT-4的原班人馬(KAUST沙特阿卜杜拉國王科技大學)以及Meta的五位研究員共同開發(fā)。

圖片

上次MiniGPT-4剛出來就引發(fā)巨大關注,一時間服務器被擠爆,如今GItHub項目已超22000+星。

圖片

此番升級,已經(jīng)有網(wǎng)友開始用上了~

圖片

多視覺任務的通用界面

大模型作為各文本應用的通用界面,大家已經(jīng)司空見慣了。受此靈感,研究團隊想要建立一個可用于多種視覺任務的統(tǒng)一界面,比如圖像描述、視覺問題解答等。

圖片

「如何在單一模型的條件下,使用簡單多模態(tài)指令來高效完成各類任務?」成為團隊需要解決的難題。

簡單來說,MiniGPT-v2由三個部分組成:視覺主干、線性層和大型語言模型。

圖片

該模型以ViT視覺主干為基礎,所有訓練階段都保持不變。從ViT中歸納出四個相鄰的視覺輸出標記,并通過線性層將它們投影到 LLaMA-2語言模型空間中。

團隊建議在訓練模型為不同任務使用獨特的標識符,這樣一來大模型就能輕松分辨出每個任務指令,還能提高每個任務的學習效率。

訓練主要分為三個階段:預訓練——多任務訓練——多模式指令調整。

圖片

最終,MiniGPT-v2 在許多視覺問題解答和視覺接地基準測試中,成績都優(yōu)于其他視覺語言通用模型。

圖片

最終這個模型可以完成多種視覺任務,比如目標對象描述、視覺定位、圖像說明、視覺問題解答以及從給定的輸入文本中直接解析圖片對象。

圖片

感興趣的朋友,可戳下方Demo鏈接體驗:

https://minigpt-v2.github.io/
https://huggingface.co/spaces/Vision-CAIR/MiniGPT-v2

論文鏈接:https://arxiv.org/abs/2310.09478

GitHub鏈接:https://github.com/Vision-CAIR/MiniGPT-4

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-05-15 12:32:29

GPT-4開源

2024-07-08 08:38:00

模型推理

2024-02-07 12:39:00

AI數(shù)據(jù)

2023-10-16 13:16:03

2023-06-19 08:19:50

2023-06-12 12:25:57

2023-11-10 09:48:34

2023-04-11 09:43:21

模型AI

2023-06-01 12:46:46

GPT-4數(shù)學OpenAI

2025-04-16 09:35:03

2024-02-04 12:22:47

AI數(shù)據(jù)

2024-07-18 13:15:06

AI模型

2024-06-28 13:40:03

2023-05-22 08:30:35

GPT-4智能編程助手

2024-06-17 18:04:38

2022-05-20 10:43:30

AI模型

2024-01-30 20:08:07

谷歌GPT-4Bard

2024-01-23 14:39:30

2023-03-13 00:17:15

GPT-4模型API

2023-08-27 14:44:04

代碼編程語言
點贊
收藏

51CTO技術棧公眾號