自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-4不會(huì)圖形推理?“放水”后準(zhǔn)確率依然只有33%

人工智能 新聞
為了評(píng)估人類(lèi)和GPT-4在這些圖形題上的表現(xiàn),研究者使用了自家機(jī)構(gòu)于今年5月推出的ConceptARC數(shù)據(jù)集。

GPT-4的圖形推理能力,竟然連人類(lèi)的一半都不到?

美國(guó)圣塔菲研究所的一項(xiàng)研究顯示,GPT-4做圖形推理題的準(zhǔn)確率僅有33%。

而具有多模態(tài)能力的GPT-4v表現(xiàn)更糟糕,只能做對(duì)25%的題目。

圖片

△虛線表示16項(xiàng)任務(wù)的平均表現(xiàn)

這項(xiàng)實(shí)驗(yàn)結(jié)果發(fā)表后,迅速在YC上引發(fā)了廣泛熱議。

贊同這項(xiàng)結(jié)果的網(wǎng)友表示,GPT確實(shí)不擅長(zhǎng)抽象圖形處理,“位置”“旋轉(zhuǎn)”等概念理解起來(lái)更加困難。

圖片

但另一邊,不少網(wǎng)友對(duì)這個(gè)結(jié)論也有所質(zhì)疑,簡(jiǎn)單說(shuō)就是:

不能說(shuō)是錯(cuò)的,但說(shuō)完全正確也無(wú)法讓人信服。

圖片

至于具體的原因,我們繼續(xù)往下看。

GPT-4準(zhǔn)確率僅33%

為了評(píng)估人類(lèi)和GPT-4在這些圖形題上的表現(xiàn),研究者使用了自家機(jī)構(gòu)于今年5月推出的ConceptARC數(shù)據(jù)集。

ConceptARC中一共包括16個(gè)子類(lèi)的圖形推理題,每類(lèi)30道,一共480道題目。

圖片

這16個(gè)子類(lèi)涵蓋了位置關(guān)系、形狀、操作、比較等多個(gè)方面的內(nèi)容。

具體而言,這些題目都是由一個(gè)個(gè)像素塊組成的,人類(lèi)和GPT需要根據(jù)給定的示例尋找出規(guī)律,分析出圖像經(jīng)過(guò)相同方式處理后的結(jié)果。

作者在論文中具體展示了這16個(gè)子類(lèi)的例題,每類(lèi)各一道。

圖片
圖片
圖片

結(jié)果451名人類(lèi)受試者平均正確率,在各子項(xiàng)中均不低于83%,16項(xiàng)任務(wù)再做平均,則達(dá)到了91%。

而GPT-4(單樣本)在“放水”到一道題可以試三次(有一次對(duì)就算對(duì))的情況下,準(zhǔn)確率最高不超過(guò)60%,平均值只有33%。

圖片

早些時(shí)候,這項(xiàng)實(shí)驗(yàn)涉及的ConceptARC Benchmark的作者也做過(guò)類(lèi)似的實(shí)驗(yàn),不過(guò)在GPT-4中進(jìn)行的是零樣本測(cè)試,結(jié)果16項(xiàng)任務(wù)的平均準(zhǔn)確率只有19%。

圖片

而多模態(tài)的GPT-4v,準(zhǔn)確率反而更低,在一個(gè)48道題組成的小規(guī)模ConceptARC數(shù)據(jù)集中,零樣本和單樣本測(cè)試的準(zhǔn)確率分別只有25%和23%

圖片

而研究者在進(jìn)一步分析了錯(cuò)誤答案后,發(fā)現(xiàn)人類(lèi)的有些錯(cuò)誤看上去很可能是“粗心導(dǎo)致”,而GPT則是完全沒(méi)有理解題目中的規(guī)律

圖片

針對(duì)這些數(shù)據(jù),網(wǎng)友們普遍沒(méi)什么疑問(wèn),但讓這個(gè)實(shí)驗(yàn)備受質(zhì)疑的,是招募到的受試人群和給GPT的輸入方式。

受試者選擇方式遭質(zhì)疑

一開(kāi)始,研究者在亞馬遜的一個(gè)眾包平臺(tái)上招募受試者。

研究者從數(shù)據(jù)集中抽取了一些簡(jiǎn)單題目作為入門(mén)測(cè)試,受試者需要答對(duì)隨機(jī)3道題目中的至少兩道才能進(jìn)入正式測(cè)試。

結(jié)果研究人員發(fā)現(xiàn),入門(mén)測(cè)試的結(jié)果顯示,有人只是想拿錢(qián),但根本不按要求做題。

迫不得已,研究者將參加測(cè)試的門(mén)檻上調(diào)到了在平臺(tái)上完成過(guò)不少于2000個(gè)任務(wù),且通過(guò)率要達(dá)到99%。

不過(guò),雖然作者用通過(guò)率篩人,但是在具體能力上,除了需要受試者會(huì)英語(yǔ),對(duì)圖形等其他專(zhuān)業(yè)能力“沒(méi)有特殊要求”。

而為了數(shù)據(jù)的多樣化,研究者在實(shí)驗(yàn)后期又將招募工作轉(zhuǎn)到了另一個(gè)眾包平臺(tái),最終 一共有415名受試者參與了實(shí)驗(yàn)。

盡管如此,還是有人質(zhì)疑實(shí)驗(yàn)中的樣本“不夠隨機(jī)”。

圖片

還有網(wǎng)友指出,研究者用來(lái)招募受試者的亞馬遜眾包平臺(tái)上,有大模型在冒充人類(lèi)

圖片

再來(lái)看GPT這邊的操作,多模態(tài)版本比較簡(jiǎn)單,直接傳圖然后用這樣的提示詞就可以了:

圖片

零樣本測(cè)試中,則只要去掉相應(yīng)的EXAMPLE部分。

但對(duì)于不帶多模態(tài)的純文本版GPT-4(0613),則需要把圖像轉(zhuǎn)化為格點(diǎn),用數(shù)字來(lái)代替顏色。

圖片

針對(duì)這種操作,就有人表示不認(rèn)同了:

把圖像轉(zhuǎn)換成數(shù)字矩陣后,概念完全變了,就算是人類(lèi),看著用數(shù)字表示的“圖形”,可能也無(wú)法理解

圖片

One More Thing

無(wú)獨(dú)有偶,斯坦福的華人博士生Joy Hsu也用幾何數(shù)據(jù)集測(cè)試了GPT-4v對(duì)圖形的理解能力。

這個(gè)數(shù)據(jù)集發(fā)表于去年,目的是測(cè)試大模型對(duì)歐氏幾何的理解,GPT-4v開(kāi)放后,Hsu又用這套數(shù)據(jù)集給它測(cè)試了一遍。

結(jié)果發(fā)現(xiàn),GPT-4v對(duì)圖形的理解方式,似乎“和人類(lèi)完全不同”。

圖片

數(shù)據(jù)上,GPT-4v對(duì)這些幾何問(wèn)題的回答也明顯不如人類(lèi)。

圖片

論文地址:
[1]https://arxiv.org/abs/2305.07141
[2]https://arxiv.org/abs/2311.09247

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2023-10-14 13:09:53

谷歌模型

2023-10-14 17:24:49

2025-01-21 08:00:00

2024-04-09 15:16:58

AI論文

2023-09-19 09:20:16

2024-01-03 13:37:00

模型數(shù)據(jù)

2023-09-19 14:56:00

模型訓(xùn)練

2023-08-17 13:30:28

AI測(cè)試

2024-02-26 00:50:00

數(shù)據(jù)AI

2023-09-01 14:06:00

模型AI

2023-10-26 08:40:15

模型隱私推理

2024-01-29 12:49:00

AI模型

2024-08-02 13:14:51

2023-06-19 08:19:50

2023-12-12 13:51:00

AI訓(xùn)練

2024-05-20 08:40:00

2023-12-04 13:51:00

模型數(shù)據(jù)

2025-04-16 09:35:03

2025-03-11 08:50:00

2024-05-27 13:42:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)