自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

挑戰(zhàn)GPT-4V!清華唐杰&智譜開源多模態(tài)14邊形戰(zhàn)士,在線可玩

人工智能 新聞
CogVLM由清華和智譜AI合作開發(fā),通訊作者為唐杰和丁銘,論文和開源代碼已上傳到GitHub。

看看這張圖中有幾個(gè)房子?如果你回答3個(gè),就和GPT-4V的答案一樣。

但是最新開源的國產(chǎn)多模態(tài)模型CogVLM-17B,就能看出另有玄機(jī)。

圖片

甚至能區(qū)分在圖中完整可見的有3個(gè)和部分可見的有1個(gè)。

圖片

CogVLM由清華和智譜AI合作開發(fā),通訊作者為唐杰和丁銘,論文和開源代碼已上傳到GitHub。

圖片

除這個(gè)單獨(dú)案例之外,CogVLM-17B還在10項(xiàng)權(quán)威跨模態(tài)基準(zhǔn)上取得了SOTA性能。

另外在VQAv2, OKVQA, TextVQA, COCO captioning取得第二,超越或匹配谷歌的PaLI-X 55B。

與之前的開源多模態(tài)大模型相比,可以算是14邊形戰(zhàn)士。

圖片

雷達(dá)圖中包含13個(gè)基準(zhǔn),最后一個(gè)TDIUC單獨(dú)展現(xiàn)。

圖片

CogVLM可以回答各種類型的視覺問題,比如從馬斯克的陰陽怪氣中推理出小扎假裝去旅行了,回避約架。

圖片

認(rèn)出照片中的C羅,并回答他在2018年世界杯中有多少進(jìn)球。

圖片

帶圖的編程題也能給出代碼了。

圖片

甚至能完成復(fù)雜的目標(biāo)檢測,并打上標(biāo)簽,自動數(shù)據(jù)標(biāo)注成了。

圖片

從淺層對齊到深度融合

CogVLM模型包含4個(gè)基本組件

  • ViT編碼器
  • MLP適配器
  • 大型預(yù)訓(xùn)練語言模型
  • 視覺專家模塊

圖片

其中,每層中都添加了可訓(xùn)練的視覺專家模塊,以實(shí)現(xiàn)圖像特征和文本特征的深度對齊,而不會犧牲任何NLP任務(wù)的性能。

之前主流的淺層對齊方法,如BLIP-2,圖像特征和語言模型之間缺乏深度融合,導(dǎo)致性能不佳。

但微調(diào)語言模型的全部參數(shù)又會損害其NLP能力。

CogVLM的方法可以說是改變了視覺語言模型的訓(xùn)練范式,從淺層對齊轉(zhuǎn)向深度融合

另外值得注意的是,CogVLM訓(xùn)練數(shù)據(jù)中沒有專門的OCR數(shù)據(jù),但表現(xiàn)出了很強(qiáng)的文字識別能力。

CogVLM開源并給出了在線試玩。

圖片

不過目前僅支持英文,后續(xù)會提供中英雙語版本支持,可以持續(xù)關(guān)注。

試玩地址:http://36.103.203.44:7861

開源及論文地址:https://github.com/THUDM/CogVLM

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-10-17 12:34:04

2023-10-12 09:28:17

2024-02-06 09:00:00

GPT-4VLLaVA大型語言

2024-01-03 12:56:39

2024-06-04 14:11:00

2024-04-14 19:53:44

2024-06-27 13:10:21

2023-10-19 09:32:45

自動駕駛技術(shù)

2024-02-02 21:53:58

AI訓(xùn)練

2024-10-06 09:00:00

AI訓(xùn)練數(shù)據(jù)

2023-10-17 13:36:00

人工智能數(shù)據(jù)

2023-10-12 13:05:00

谷歌AI

2024-06-11 08:16:00

2023-12-22 12:41:01

模型訓(xùn)練

2023-11-06 10:40:47

GPT-4V大模型

2023-02-23 13:35:27

模型任務(wù)

2024-04-07 13:39:55

2025-03-19 09:30:00

2023-03-10 13:03:09

人工智能模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號